Sứ mệnh của chúng tôi là đảm bảo rằng trí thông minh nhân tạo tổng quát - hệ thống AI thông minh hơn con người - mang lại lợi ích cho toàn thể nhân loại .
Nếu AGI được tạo ra thành công, công nghệ này có thể giúp chúng ta nâng cao nhân loại bằng cách gia tăng sự phong phú, thúc đẩy nền kinh tế toàn cầu và hỗ trợ khám phá kiến thức khoa học mới giúp thay đổi giới hạn của khả năng.
AGI có tiềm năng mang đến cho mọi người những khả năng mới đáng kinh ngạc; chúng ta có thể tưởng tượng ra một thế giới mà tất cả chúng ta đều có thể tiếp cận để hỗ trợ hầu hết mọi nhiệm vụ nhận thức, mang lại sức mạnh to lớn cho sự khéo léo và sáng tạo của con người.
Mặt khác, AGI cũng đi kèm với rủi ro nghiêm trọng về việc sử dụng sai mục đích, tai nạn nghiêm trọng và sự gián đoạn xã hội. Vì lợi ích của AGI quá lớn, chúng tôi không tin rằng xã hội có thể hoặc mong muốn dừng phát triển mãi mãi; thay vào đó, xã hội và những người phát triển AGI phải tìm ra cách để làm đúng .
Mặc dù chúng ta không thể dự đoán chính xác điều gì sẽ xảy ra, và tất nhiên tiến trình hiện tại của chúng ta có thể gặp phải trở ngại, chúng ta có thể nêu rõ những nguyên tắc mà chúng ta quan tâm nhất:
+ Chúng tôi muốn AGI trao quyền cho nhân loại để phát triển tối đa trong vũ trụ. Chúng tôi không mong đợi tương lai sẽ là một thế giới lý tưởng không đủ tiêu chuẩn, nhưng chúng tôi muốn tối đa hóa điều tốt và giảm thiểu điều xấu, và để AGI trở thành công cụ khuếch đại nhân loại.
+ Chúng tôi muốn lợi ích, quyền tiếp cận và quản lý AGI được chia sẻ rộng rãi và công bằng.
+ Chúng tôi muốn vượt qua thành công những rủi ro lớn. Khi đối mặt với những rủi ro này, chúng tôi thừa nhận rằng những gì có vẻ đúng trong lý thuyết thường diễn ra kỳ lạ hơn mong đợi trong thực tế. Chúng tôi tin rằng chúng tôi phải liên tục học hỏi và thích nghi bằng cách triển khai các phiên bản công nghệ ít mạnh hơn để giảm thiểu các kịch bản "một phát là làm đúng".
Ngắn hạn
Có một số điều mà chúng tôi cho là quan trọng cần phải làm ngay bây giờ để chuẩn bị cho AGI.
Đầu tiên, khi chúng ta tạo ra các hệ thống mạnh mẽ hơn liên tiếp, chúng ta muốn triển khai chúng và tích lũy kinh nghiệm vận hành chúng trong thế giới thực. Chúng tôi tin rằng đây là cách tốt nhất để quản lý AGI một cách cẩn thận—một quá trình chuyển đổi dần dần sang một thế giới có AGI tốt hơn là một quá trình đột ngột. Chúng tôi kỳ vọng AI mạnh mẽ sẽ thúc đẩy tốc độ tiến bộ trong thế giới nhanh hơn nhiều và chúng tôi nghĩ rằng tốt hơn là điều chỉnh theo hướng này một cách gia tăng.
Xem thêm: mua tài khoản ChatGPT 4 với nhiều ưu đãi hấp dẫn
Quá trình chuyển đổi dần dần cho mọi người, các nhà hoạch định chính sách và các tổ chức thời gian để hiểu những gì đang diễn ra, tự mình trải nghiệm những lợi ích và bất lợi của các hệ thống này, điều chỉnh nền kinh tế của chúng ta và đưa ra các quy định. Nó cũng cho phép xã hội và AI cùng nhau tiến hóa và cho phép mọi người cùng nhau tìm ra những gì họ muốn trong khi rủi ro tương đối thấp.
Hiện tại, chúng tôi tin rằng cách tốt nhất để vượt qua thành công các thách thức triển khai AI là thông qua vòng phản hồi chặt chẽ của quá trình học nhanh và lặp lại cẩn thận. Xã hội sẽ phải đối mặt với những câu hỏi lớn về những gì hệ thống AI được phép làm, cách chống lại sự thiên vị, cách giải quyết tình trạng thay thế việc làm, v.v. Các quyết định tối ưu sẽ phụ thuộc vào con đường mà công nghệ thực hiện và giống như bất kỳ lĩnh vực mới nào, hầu hết các dự đoán của chuyên gia cho đến nay đều sai. Điều này khiến việc lập kế hoạch trong môi trường chân không trở nên rất khó khăn.
Nhìn chung, chúng tôi cho rằng việc sử dụng AI nhiều hơn trên thế giới sẽ mang lại điều tốt đẹp và muốn thúc đẩy điều đó (bằng cách đưa các mô hình vào API của chúng tôi, cung cấp mã nguồn mở, v.v.). Chúng tôi tin rằng quyền truy cập dân chủ cũng sẽ dẫn đến nhiều nghiên cứu tốt hơn, quyền lực phi tập trung, nhiều lợi ích hơn và nhiều người hơn đóng góp những ý tưởng mới.
Khi hệ thống của chúng ta tiến gần hơn đến AGI, chúng ta ngày càng thận trọng hơn với việc tạo và triển khai các mô hình của mình. Các quyết định của chúng ta sẽ đòi hỏi sự thận trọng hơn nhiều so với những gì xã hội thường áp dụng cho các công nghệ mới và thận trọng hơn nhiều so với mong muốn của nhiều người dùng. Một số người trong lĩnh vực AI cho rằng rủi ro của AGI (và các hệ thống kế thừa) là hư cấu; chúng tôi sẽ rất vui nếu chúng đúng, nhưng chúng tôi sẽ hoạt động như thể những rủi ro này là hiện hữu.
Đến một lúc nào đó, sự cân bằng giữa mặt tích cực và tiêu cực của việc triển khai (chẳng hạn như trao quyền cho những kẻ xấu, tạo ra sự gián đoạn về mặt xã hội và kinh tế, và đẩy nhanh một cuộc đua không an toàn) có thể thay đổi, trong trường hợp đó, chúng ta sẽ thay đổi đáng kể các kế hoạch của mình xung quanh việc triển khai liên tục.
Thứ hai, chúng tôi đang nỗ lực tạo ra các mô hình ngày càng phù hợp và dễ điều khiển hơn. Sự chuyển đổi của chúng tôi từ các mô hình như phiên bản đầu tiên của GPT-3 sang InstructGPT và ChatGPT là một ví dụ ban đầu về điều này.
Đặc biệt, chúng tôi cho rằng điều quan trọng là xã hội phải đồng ý về những ranh giới cực kỳ rộng về cách AI có thể được sử dụng, nhưng trong những ranh giới đó, người dùng cá nhân có rất nhiều quyền quyết định. Hy vọng cuối cùng của chúng tôi là các tổ chức trên thế giới sẽ đồng ý về những ranh giới rộng này nên là gì; trong ngắn hạn, chúng tôi có kế hoạch chạy thử nghiệm để có được đầu vào bên ngoài. Các tổ chức trên thế giới sẽ cần được tăng cường thêm năng lực và kinh nghiệm để chuẩn bị cho các quyết định phức tạp về AGI.
"Cài đặt mặc định" của sản phẩm của chúng tôi có thể sẽ khá hạn chế, nhưng chúng tôi có kế hoạch giúp người dùng dễ dàng thay đổi hành vi của AI mà họ đang sử dụng. Chúng tôi tin vào việc trao quyền cho cá nhân để tự đưa ra quyết định và sức mạnh vốn có của sự đa dạng ý tưởng.
Chúng ta sẽ cần phát triển các kỹ thuật căn chỉnh mới khi các mô hình của chúng ta trở nên mạnh mẽ hơn (và các bài kiểm tra để hiểu khi nào các kỹ thuật hiện tại của chúng ta không hiệu quả). Kế hoạch của chúng ta trong ngắn hạn là sử dụng AI để giúp con người đánh giá đầu ra của các mô hình phức tạp hơn và giám sát các hệ thống phức tạp, và trong dài hạn là sử dụng AI để giúp chúng ta đưa ra những ý tưởng mới cho các kỹ thuật căn chỉnh tốt hơn.
Quan trọng là chúng tôi nghĩ rằng chúng ta thường phải cùng nhau đạt được tiến bộ về an toàn và năng lực AI. Thật là một sự phân đôi sai lầm khi nói về chúng một cách riêng biệt; chúng có mối tương quan theo nhiều cách. Công việc an toàn tốt nhất của chúng tôi đến từ việc làm việc với các mô hình có năng lực nhất của chúng tôi. Điều đó nói rằng, điều quan trọng là tỷ lệ tiến bộ về an toàn so với tiến bộ về năng lực phải tăng lên.
Thứ ba, chúng tôi hy vọng có một cuộc thảo luận toàn cầu về ba câu hỏi chính: cách quản lý các hệ thống này, cách phân phối công bằng các lợi ích mà chúng tạo ra và cách chia sẻ quyền truy cập một cách công bằng.
Ngoài ba lĩnh vực này, chúng tôi đã cố gắng thiết lập cấu trúc của mình theo cách phù hợp các động cơ của chúng tôi với một kết quả tốt. Chúng tôi có một điều khoản trong Hiến chương của mình về việc hỗ trợ các tổ chức khác thúc đẩy an toàn thay vì chạy đua với họ trong quá trình phát triển AGI giai đoạn cuối. Chúng tôi có giới hạn về lợi nhuận mà các cổ đông của chúng tôi có thể kiếm được để chúng tôi không có động lực cố gắng nắm bắt giá trị mà không bị ràng buộc và có nguy cơ triển khai thứ gì đó có khả năng gây ra thảm họa nguy hiểm (và tất nhiên là như một cách để chia sẻ lợi ích với xã hội). Chúng tôi có một tổ chức phi lợi nhuận quản lý chúng tôi và cho phép chúng tôi hoạt động vì lợi ích của nhân loại (và có thể phủ nhận mọi lợi ích vì lợi nhuận), bao gồm cho phép chúng tôi thực hiện những việc như hủy bỏ nghĩa vụ vốn chủ sở hữu đối với các cổ đông nếu cần vì lý do an toàn và tài trợ cho thử nghiệm UBI toàn diện nhất thế giới.
Chúng tôi cho rằng điều quan trọng là những nỗ lực như của chúng tôi phải được kiểm toán độc lập trước khi phát hành các hệ thống mới; chúng tôi sẽ nói về vấn đề này chi tiết hơn vào cuối năm nay. Vào một thời điểm nào đó, có thể cần phải có đánh giá độc lập trước khi bắt đầu đào tạo các hệ thống trong tương lai và đối với những nỗ lực tiên tiến nhất, cần phải đồng ý hạn chế tốc độ tăng trưởng của máy tính được sử dụng để tạo các mô hình mới. Chúng tôi cho rằng các tiêu chuẩn công khai về thời điểm một nỗ lực AGI nên dừng chạy đào tạo, quyết định một mô hình có an toàn để phát hành hay rút một mô hình khỏi mục đích sử dụng sản xuất là rất quan trọng. Cuối cùng, chúng tôi cho rằng điều quan trọng là các chính phủ lớn trên thế giới phải có hiểu biết sâu sắc về các lần chạy đào tạo trên một quy mô nhất định.
Dài hạn
Chúng tôi tin rằng tương lai của nhân loại phải do chính nhân loại quyết định và việc chia sẻ thông tin về tiến trình với công chúng là rất quan trọng. Cần phải có sự giám sát chặt chẽ đối với mọi nỗ lực xây dựng AGI và tham vấn công chúng để đưa ra các quyết định quan trọng.
AGI đầu tiên sẽ chỉ là một điểm trên chuỗi liên tục của trí thông minh. Chúng tôi nghĩ rằng có khả năng tiến trình sẽ tiếp tục từ đó, có thể duy trì tốc độ tiến bộ mà chúng ta đã thấy trong thập kỷ qua trong một thời gian dài. Nếu điều này là đúng, thế giới có thể trở nên cực kỳ khác biệt so với hiện tại và rủi ro có thể là vô cùng lớn. Một AGI siêu thông minh không phù hợp có thể gây ra tác hại nghiêm trọng cho thế giới; một chế độ độc tài với sự lãnh đạo quyết đoán của siêu thông minh cũng có thể làm như vậy.
- Tài khoản ChatGTP Plus chính hãng giá rẻ tại đây!
AI có thể đẩy nhanh khoa học là một trường hợp đặc biệt đáng để suy nghĩ, và có lẽ có tác động lớn hơn mọi thứ khác. Có khả năng AGI đủ khả năng để đẩy nhanh tiến trình của chính nó có thể khiến những thay đổi lớn xảy ra nhanh chóng đáng ngạc nhiên (và ngay cả khi quá trình chuyển đổi bắt đầu chậm, chúng tôi mong đợi nó sẽ diễn ra khá nhanh trong giai đoạn cuối). Chúng tôi nghĩ rằng việc cất cánh chậm hơn sẽ dễ dàng đảm bảo an toàn hơn và sự phối hợp giữa các nỗ lực AGI để chậm lại tại các thời điểm quan trọng có thể sẽ rất quan trọng (ngay cả trong một thế giới mà chúng ta không cần phải làm điều này để giải quyết các vấn đề liên kết kỹ thuật, thì việc chậm lại có thể rất quan trọng để cung cấp cho xã hội đủ thời gian để thích nghi).
Chuyển đổi thành công sang một thế giới có siêu trí tuệ có lẽ là dự án quan trọng nhất—và đầy hy vọng, và đáng sợ nhất—trong lịch sử loài người. Thành công còn lâu mới được đảm bảo, và những rủi ro (mức độ bất lợi vô hạn và mức độ thuận lợi vô hạn) hy vọng sẽ đoàn kết tất cả chúng ta.
Chúng ta có thể tưởng tượng ra một thế giới mà nhân loại phát triển đến mức mà có lẽ không ai trong chúng ta có thể hình dung đầy đủ. Chúng tôi hy vọng sẽ đóng góp cho thế giới một AGI phù hợp với sự phát triển như vậy.

Cách đổi Mật khẩu Chat GPT - Hướng dẫn đổi Pass Chat GPT 100% Thành công
Hướng dẫn Cách đăng nhập Chat GPT Nhanh nhất | Có hỗ trợ Miễn phí qua Teamview-Ultraview
Chat GPT Plus là gì? So sánh Chat GPT Plus với Chat GPT Miễn phí
Chat GPT bị giới hạn giải thích vì sao và cách khắc phục
Chat GPT là gì ? Cách đăng Ký Chat GPT Miễn Phí tại Việt Nam