Tổ chức phi lợi nhuận của chúng tôi, OpenAI, Inc., đang khởi động một chương trình trao mười khoản tài trợ trị giá 100.000 đô la để tài trợ cho các thí nghiệm thiết lập quy trình dân chủ nhằm quyết định các hệ thống AI nên tuân theo những quy tắc nào, trong phạm vi được pháp luật quy định.
AI sẽ có tác động kinh tế và xã hội đáng kể, sâu rộng. Công nghệ định hình cuộc sống của mỗi cá nhân, cách chúng ta tương tác với nhau và cách xã hội nói chung phát triển. Chúng tôi tin rằng các quyết định về cách AI hoạt động nên được định hình bởi các quan điểm đa dạng phản ánh lợi ích công cộng.
Luật mã hóa các giá trị và chuẩn mực để điều chỉnh hành vi. Ngoài khuôn khổ pháp lý, AI, giống như xã hội, cần có các hướng dẫn phức tạp và thích ứng hơn cho hành vi của mình. Ví dụ: trong điều kiện nào các hệ thống AI nên lên án hoặc chỉ trích những nhân vật công chúng, với các ý kiến khác nhau giữa các nhóm liên quan đến những nhân vật đó? Quan điểm gây tranh cãi nên được thể hiện như thế nào trong các kết quả đầu ra của AI? Theo mặc định, AI có nên phản ánh tính cách của một cá nhân trung bình trên thế giới, quốc gia của người dùng, đặc điểm nhân khẩu học của người dùng hay một thứ gì đó hoàn toàn khác không? Không một cá nhân, công ty hay thậm chí quốc gia nào có thể quyết định những quyết định này.
AGI nên mang lại lợi ích cho toàn thể nhân loại và được định hình để trở nên bao hàm nhất có thể. Chúng tôi đang triển khai chương trình tài trợ này để thực hiện bước đầu tiên theo hướng này. Chúng tôi đang tìm kiếm các nhóm trên khắp thế giới để phát triển bằng chứng khái niệm cho một quy trình dân chủ có thể trả lời các câu hỏi về các quy tắc mà hệ thống AI nên tuân theo. Chúng tôi muốn học hỏi từ những thí nghiệm này và sử dụng chúng làm cơ sở cho một quy trình toàn cầu hơn và tham vọng hơn trong tương lai. Mặc dù những thí nghiệm ban đầu này không (ít nhất là hiện tại) có mục đích ràng buộc đối với các quyết định, chúng tôi hy vọng rằng chúng sẽ khám phá các câu hỏi liên quan đến quyết định và xây dựng các công cụ dân chủ mới có thể cung cấp thông tin trực tiếp hơn cho các quyết định trong tương lai.
- Tài khoản ChatGPT 4 chính hãng giá rẻ với nhiều ưu đãi hấp dẫn!
Việc quản lý các hệ thống mạnh nhất , cũng như các quyết định liên quan đến việc triển khai chúng, phải có sự giám sát chặt chẽ của công chúng. Khoản tài trợ này là một bước tiến tới thiết lập các quy trình dân chủ để giám sát AGI và cuối cùng là siêu trí tuệ. Khoản tài trợ này sẽ do tổ chức phi lợi nhuận OpenAI cung cấp và kết quả của các nghiên cứu sẽ được truy cập miễn phí.
Chúng ta hiểu thế nào là “tiến trình dân chủ”?
Theo “quy trình dân chủ”, chúng tôi muốn nói đến một quy trình trong đó một nhóm người đại diện rộng rãi trao đổi ý kiến, tham gia vào các cuộc thảo luận có cân nhắc, và cuối cùng quyết định về một kết quả thông qua một quy trình ra quyết định minh bạch. Có nhiều cách để cấu trúc một quy trình như vậy—chúng tôi khuyến khích các ứng viên sáng tạo, xây dựng dựa trên các phương pháp đã biết và đưa ra các cách tiếp cận hoàn toàn mới. Ví dụ về các cách tiếp cận sáng tạo truyền cảm hứng cho chúng tôi bao gồm Wikipedia (mở trong cửa sổ mới), Ghi chú cộng đồng Twitter (mở trong cửa sổ mới), Dân chủTiếp theo (mở trong cửa sổ mới), Lắp ráp nền tảng(mở trong cửa sổ mới), MetaGov (mở trong cửa sổ mới), Thay đổi triệt để (mở trong cửa sổ mới), Được cung cấp bởi con người (mở trong cửa sổ mới), Hệ thống phản ứng tập thể (mở trong cửa sổ mới)và pol.is (mở trong cửa sổ mới). Một nỗ lực đáng chú ý khác đang diễn ra được dẫn dắt bởi Dự án Trí tuệ Tập thể (mở trong cửa sổ mới)(CIP), là đối tác mà chúng tôi đang hợp tác về đầu vào của công chúng đối với AI, đóng góp vào các Hội đồng Căn chỉnh sắp tới của họ (mở trong cửa sổ mới). Chúng tôi cũng khuyến khích các ứng viên hình dung cách AI có thể nâng cao (mở trong cửa sổ mới)quá trình dân chủ. Ví dụ, AI có thể cho phép (mở trong cửa sổ mới)giao tiếp hiệu quả hơn giữa nhiều người.
Một số vấn đề có thể làm suy yếu các tiến trình dân chủ, chẳng hạn như không đại diện đầy đủ cho các nhóm thiểu số hoặc đa số, bị thao túng bởi các nhóm lợi ích đặc biệt, những người tham gia không được thông tin đầy đủ hoặc sự tham gia (mở trong cửa sổ mới) rửa (mở trong cửa sổ mới). Chúng tôi đang tìm kiếm các nhóm chủ động giải quyết các chế độ lỗi này và thể hiện nhận thức về các khiếm khuyết và nhược điểm tiềm ẩn của nhiều cách tiếp cận khác nhau. Cuối cùng, việc thiết kế các quy trình thực sự dân chủ là một rào cản lớn cần đạt được và chúng tôi coi những nỗ lực của mình là sự bổ sung chứ không phải là sự thay thế cho việc quản lý AI của chính phủ; chương trình này khuyến khích các quy trình nỗ lực hết mình, mang tinh thần dân chủ bao gồm cân nhắc và ý kiến đóng góp rộng rãi của công chúng như những bước đệm.
Hướng dẫn tham gia
Để nộp đơn xin trợ cấp, chúng tôi mời bạn nộp đơn xin trợ cấp bắt buộc trước 9:00 tối theo giờ PDT ngày 24 tháng 6 năm 2023. Bạn có thể truy cập cổng thông tin ứng dụng tại đây (mở trong cửa sổ mới). Bạn sẽ được nhắc trả lời một loạt các câu hỏi liên quan đến lý lịch của nhóm, lựa chọn câu hỏi của bạn, thông tin chi tiết cấp cao về công cụ bạn đề xuất cũng như kế hoạch của bạn để tiến hành và đánh giá quy trình dân chủ với các yếu tố này trong đầu. Chúng tôi muốn bạn thiết kế cách tiếp cận của mình để giải quyết một hoặc nhiều câu hỏi về chính sách trong danh sách được cung cấp . Bất kỳ ai (cá nhân hoặc tổ chức) đều có thể nộp đơn xin cơ hội này, bất kể lý lịch của họ về khoa học xã hội hay AI.
Sau khi thời gian nộp đơn kết thúc, chúng tôi hy vọng sẽ chọn được mười người nhận tài trợ thành công. Người nhận có thể là cá nhân, nhóm hoặc tổ chức. Mỗi người nhận sẽ nhận được khoản tài trợ 100.000 đô la để thử nghiệm đề xuất của họ như được mô tả trong tài liệu nộp đơn. Người nhận tài trợ dự kiến sẽ triển khai bằng chứng khái niệm/nguyên mẫu, thu hút ít nhất 500 người tham gia và sẽ được yêu cầu công bố báo cáo công khai về những phát hiện của họ trước ngày 20 tháng 10 năm 2023. Ngoài ra, như một phần của chương trình tài trợ, bất kỳ mã hoặc tài sản trí tuệ nào khác được phát triển cho dự án sẽ được yêu cầu công khai theo giấy phép nguồn mở. Các điều khoản áp dụng cho người nhận tài trợ được nêu rõ trong Điều khoản tài trợ và bất kỳ thỏa thuận nào khác mà người nhận tài trợ có thể được yêu cầu ký kết với chúng tôi liên quan đến chương trình này.
Các tuyên bố chính sách đang được xem xét
Để tham gia, các đội phải chọn một hoặc nhiều câu hỏi từ danh sách được cung cấp để giới thiệu cách tiếp cận được đề xuất của họ. Họ cũng có thể tạo câu hỏi của riêng mình nếu muốn. Quan trọng là chúng tôi khuyến khích các đội xem xét các câu hỏi mà câu trả lời đơn giản là "có" hoặc "không" sẽ không đủ, thay vào đó cần có một đề xuất chính sách tinh tế.
Phạm vi của khoản tài trợ này liên quan đến các câu hỏi chính sách liên quan đến hành vi mô hình, vì nó cho phép thử nghiệm A/B với hành vi mô hình đã sửa đổi theo các khuyến nghị chính sách. Chúng tôi thừa nhận những hạn chế của khoản tài trợ này và nhận ra rằng nhiều vấn đề về AI có thể được giải quyết thông qua quy trình dân chủ, mở rộng ra ngoài hành vi mô hình để bao gồm các lĩnh vực như hướng dẫn sử dụng AI trong nhiều bối cảnh khác nhau, tác động kinh tế, phân phối lợi ích, v.v.
+ Bạn nghĩ việc cá nhân hóa các trợ lý AI như ChatGPT để phù hợp với sở thích và nhu cầu của người dùng nên đi xa đến mức nào? Những ranh giới nào, nếu có, nên tồn tại trong quá trình này?
+ Trợ lý AI nên trả lời các câu hỏi về quan điểm của người của công chúng như thế nào? Ví dụ, họ có nên trung lập không? Họ có nên từ chối trả lời không? Họ có nên cung cấp nguồn nào đó không?
+ Trong những điều kiện nào, nếu có, trợ lý AI được phép cung cấp tư vấn y tế/tài chính/pháp lý?
+ Trong trường hợp nào, nếu có, trợ lý AI nên hỗ trợ về mặt cảm xúc cho cá nhân?
+ Các mô hình ngôn ngữ-tầm nhìn chung có được phép xác định giới tính, chủng tộc, cảm xúc và danh tính/tên của mọi người từ hình ảnh của họ không? Tại sao hoặc tại sao không?
+ Khi các mô hình tạo ra hình ảnh cho các lời nhắc không xác định rõ ràng như "một giám đốc điều hành", "một bác sĩ" hoặc "một y tá", chúng có khả năng tạo ra các đầu ra đa dạng hoặc đồng nhất. Các mô hình AI nên cân bằng những khả năng này như thế nào? Những yếu tố nào nên được ưu tiên khi quyết định mô tả con người trong những trường hợp như vậy?
+ Những nguyên tắc nào nên hướng dẫn AI khi xử lý các chủ đề liên quan đến cả quyền con người và sự khác biệt về văn hóa hoặc pháp lý tại địa phương, như quyền của LGBTQ và quyền của phụ nữ? Phản ứng của AI có nên thay đổi dựa trên địa điểm hoặc văn hóa mà nó được sử dụng không?
+ Bạn tin rằng những người sáng tạo mô hình AI nên tập trung vào việc hạn chế hoặc từ chối những loại nội dung nào, nếu có? Tiêu chí nào nên được sử dụng để xác định những hạn chế này?
Mục tiêu chính của khoản tài trợ này là thúc đẩy sự đổi mới trong các quy trình—chúng ta cần các phương pháp dân chủ được cải thiện để quản lý hành vi AI. Các câu trả lời cụ thể cho các câu hỏi ít quan trọng hơn những tiến bộ đạt được trong chính quy trình đó.
Ủy ban tư vấn ứng dụng
+ Colin Megill, Đồng sáng lập pol.is
+ Hélène Landemore, Giáo sư Khoa học Chính trị tại Yale
+ Aviv Ovadya, Trung tâm Berkman Klein
Các yếu tố đánh giá ứng dụng
+ Đánh giá : Chúng tôi khuyến khích những người tham gia thiết lập các số liệu để đánh giá chất lượng phương pháp của họ, chẳng hạn như mức độ hài lòng của người tham gia, sự thay đổi trong phân cực, khả năng mở rộng hoặc các chỉ số liên quan khác, và phát minh ra các số liệu mới cho một quá trình dân chủ lành mạnh.
+ Tính mạnh mẽ : Các biện pháp ngăn ngừa hoặc giải quyết hành vi không phù hợp, chẳng hạn như troll và tài khoản giả mạo.
+ Tính bao hàm và tính đại diện : Các chiến lược nhằm thu hút những cá nhân có xuất thân và trình độ hiểu biết khác nhau về hệ thống AI vào quá trình dân chủ.
+ Trao quyền cho ý kiến của nhóm thiểu số : Đảm bảo rằng các ý kiến không được ưa chuộng hoặc của nhóm thiểu số được lắng nghe và tạo cơ hội cho các nhóm nhỏ hơn tác động đến các vấn đề mà họ quan tâm đáng kể.
+ Kiểm duyệt hiệu quả : Giải quyết các thách thức trong quá trình kiểm duyệt, bao gồm đảm bảo đại diện đa dạng cho các quan điểm, phân biệt các đóng góp có giá trị với các bình luận "không liên quan" và ngăn chặn sự thiên vị của người kiểm duyệt ảnh hưởng đến quá trình này.
+ Khả năng mở rộng : Chúng tôi nhấn mạnh các quy trình có thể mở rộng có thể được thực hiện trực tuyến, thay vì thông qua sự tham gia trực tiếp. Chúng tôi nhận thức rằng cách tiếp cận này có thể làm mất đi một số lợi ích liên quan đến các cuộc thảo luận trực tiếp và chúng tôi nhận ra rằng một số khía cạnh nhất định có thể bị mất trong bối cảnh ảo.
+ Tính khả thi : Mức độ khả thi của thông tin thu được từ quá trình cân nhắc.
+ Tính dễ đọc : Mức độ dễ hiểu và tin tưởng vào quy trình.
Xem thêm: mua tài khoản ChatGPT Plus chính hãng giá rẻ!