.png)
Với tình hình hiện tại, có thể hình dung rằng trong vòng mười năm tới, các hệ thống AI sẽ vượt qua trình độ chuyên môn trong hầu hết các lĩnh vực và thực hiện nhiều hoạt động hiệu quả như một trong những tập đoàn lớn nhất hiện nay.
Xét về cả mặt tích cực và tiêu cực tiềm tàng, siêu trí tuệ sẽ mạnh hơn các công nghệ khác mà nhân loại đã phải đối mặt trong quá khứ. Chúng ta có thể có một tương lai thịnh vượng hơn đáng kể; nhưng chúng ta phải quản lý rủi ro để đạt được điều đó. Với khả năng rủi ro hiện sinh, chúng ta không thể chỉ phản ứng. Năng lượng hạt nhân là một ví dụ lịch sử thường được sử dụng về một công nghệ có đặc tính này; sinh học tổng hợp là một ví dụ khác.
- Tài khoản ChatGTP Plus chính hãng giá rẻ
Chúng ta cũng phải giảm thiểu rủi ro của công nghệ AI ngày nay, nhưng siêu trí tuệ sẽ cần được xử lý và phối hợp đặc biệt.
Một điểm khởi đầu
Có nhiều ý tưởng quan trọng giúp chúng ta có cơ hội thành công trong việc điều hướng sự phát triển này; sau đây chúng tôi trình bày suy nghĩ ban đầu của mình về ba trong số những ý tưởng đó.
Đầu tiên, chúng ta cần một mức độ phối hợp nhất định giữa các nỗ lực phát triển hàng đầu để đảm bảo rằng quá trình phát triển siêu trí tuệ diễn ra theo cách cho phép chúng ta vừa duy trì được sự an toàn vừa giúp tích hợp trơn tru các hệ thống này với xã hội. Có nhiều cách để thực hiện điều này; các chính phủ lớn trên thế giới có thể thiết lập một dự án mà nhiều nỗ lực hiện tại trở thành một phần của dự án đó, hoặc chúng ta có thể cùng nhau đồng ý (với sự hậu thuẫn của một tổ chức mới như tổ chức được đề xuất bên dưới) rằng tốc độ tăng trưởng năng lực AI ở biên giới bị giới hạn ở một tỷ lệ nhất định mỗi năm.
Và tất nhiên, mỗi công ty phải tuân thủ tiêu chuẩn cực kỳ cao về việc hành động có trách nhiệm.
Thứ hai, cuối cùng chúng ta có thể cần một cái gì đó giống như IAEA đối với các nỗ lực siêu trí tuệ; bất kỳ nỗ lực nào vượt quá ngưỡng khả năng nhất định (hoặc các nguồn lực như tính toán) sẽ cần phải tuân theo một cơ quan quốc tế có thể kiểm tra các hệ thống, yêu cầu kiểm toán, kiểm tra việc tuân thủ các tiêu chuẩn an toàn, đặt ra các hạn chế về mức độ triển khai và mức độ bảo mật, v.v. Việc theo dõi mức sử dụng điện toán và năng lượng có thể đi một chặng đường dài và mang lại cho chúng ta một số hy vọng rằng ý tưởng này thực sự có thể triển khai được. Bước đầu tiên, các công ty có thể tự nguyện đồng ý bắt đầu triển khai các yếu tố mà một cơ quan như vậy có thể yêu cầu một ngày nào đó và bước thứ hai, các quốc gia riêng lẻ có thể triển khai nó. Điều quan trọng là một cơ quan như vậy tập trung vào việc giảm thiểu rủi ro hiện sinh chứ không phải các vấn đề mà các quốc gia riêng lẻ phải giải quyết, chẳng hạn như xác định AI nên được phép nói gì.
Thứ ba, chúng ta cần khả năng kỹ thuật để tạo ra một siêu trí tuệ an toàn. Đây là một câu hỏi nghiên cứu mở mà chúng tôi và những người khác đang nỗ lực hết mình.
Những gì không nằm trong phạm vi
Chúng tôi cho rằng điều quan trọng là phải cho phép các công ty và dự án nguồn mở phát triển các mô hình dưới ngưỡng khả năng đáng kể, mà không cần loại quy định mà chúng tôi mô tả ở đây (bao gồm các cơ chế phiền hà như giấy phép hoặc kiểm toán).
Các hệ thống ngày nay sẽ tạo ra giá trị to lớn trên thế giới và mặc dù chúng có rủi ro, mức độ rủi ro đó có vẻ tương xứng với các công nghệ Internet khác và cách tiếp cận có thể có của xã hội có vẻ phù hợp.
Ngược lại, các hệ thống mà chúng ta quan tâm sẽ có sức mạnh vượt xa mọi công nghệ từng được tạo ra và chúng ta nên cẩn thận không nên làm loãng sự tập trung vào chúng bằng cách áp dụng các tiêu chuẩn tương tự cho công nghệ kém xa tiêu chuẩn này.
Đầu vào và tiềm năng của công chúng
Nhưng việc quản lý các hệ thống mạnh nhất, cũng như các quyết định liên quan đến việc triển khai chúng, phải có sự giám sát chặt chẽ của công chúng. Chúng tôi tin rằng mọi người trên khắp thế giới nên quyết định một cách dân chủ về ranh giới và mặc định cho các hệ thống AI. Chúng tôi vẫn chưa biết cách thiết kế một cơ chế như vậy, nhưng chúng tôi có kế hoạch thử nghiệm quá trình phát triển của nó. Chúng tôi tiếp tục nghĩ rằng, trong những ranh giới rộng lớn này, người dùng cá nhân nên có nhiều quyền kiểm soát đối với cách AI mà họ sử dụng hoạt động.
Với những rủi ro và khó khăn nêu trên, chúng ta nên cân nhắc lý do tại sao chúng ta lại xây dựng công nghệ này.
Tại OpenAI, chúng tôi có hai lý do cơ bản. Đầu tiên, chúng tôi tin rằng nó sẽ dẫn đến một thế giới tốt đẹp hơn nhiều so với những gì chúng ta có thể tưởng tượng ngày nay (chúng ta đã thấy những ví dụ ban đầu về điều này trong các lĩnh vực như giáo dục, công việc sáng tạo và năng suất cá nhân). Thế giới phải đối mặt với rất nhiều vấn đề mà chúng ta sẽ cần nhiều sự giúp đỡ hơn để giải quyết; công nghệ này có thể cải thiện xã hội của chúng ta và khả năng sáng tạo của mọi người khi sử dụng những công cụ mới này chắc chắn sẽ khiến chúng ta kinh ngạc. Tăng trưởng kinh tế và chất lượng cuộc sống tăng lên sẽ thật đáng kinh ngạc.
Thứ hai, chúng tôi tin rằng sẽ rất rủi ro và khó khăn khi ngăn chặn việc tạo ra siêu trí tuệ. Bởi vì những mặt tích cực là rất lớn, chi phí để xây dựng nó giảm dần mỗi năm, số lượng các bên tham gia xây dựng nó đang tăng nhanh chóng và về bản chất nó là một phần của con đường công nghệ mà chúng ta đang đi, việc ngăn chặn nó sẽ đòi hỏi một thứ gì đó giống như chế độ giám sát toàn cầu, và ngay cả điều đó cũng không đảm bảo sẽ hiệu quả. Vì vậy, chúng ta phải làm đúng.
Xem thêm: mua tài khoản ChatGPT 4 với vô vàn ưu đãi hấp dẫn!

Cách đổi Mật khẩu Chat GPT - Hướng dẫn đổi Pass Chat GPT 100% Thành công
Hướng dẫn Cách đăng nhập Chat GPT Nhanh nhất | Có hỗ trợ Miễn phí qua Teamview-Ultraview
Chat GPT Plus là gì? So sánh Chat GPT Plus với Chat GPT Miễn phí
Chat GPT bị giới hạn giải thích vì sao và cách khắc phục
Chat GPT là gì ? Cách đăng Ký Chat GPT Miễn Phí tại Việt Nam