Cải thiện khả năng xác minh trong phát triển AI

Chúng tôi đã đóng góp vào báo cáo của nhiều bên liên quan do 58 đồng tác giả tại 30 tổ chức, bao gồm Trung tâm Tương lai của Tình báo thực hiện(mở trong cửa sổ mới), tôi muốn (mở trong cửa sổ mới),  Viện Công nghệ và Xã hội Schwartz Reisman(mở trong cửa sổ mới),  Trung tâm nghiên cứu nâng cao về khoa học hành vi (mở trong cửa sổ mới)và Trung tâm An ninh và Công nghệ mới nổi(mở trong cửa sổ mới). Báo cáo này mô tả 10 cơ chế để cải thiện khả năng xác minh các tuyên bố về hệ thống AI. Các nhà phát triển có thể sử dụng các công cụ này để cung cấp bằng chứng cho thấy hệ thống AI an toàn, bảo mật, công bằng hoặc bảo vệ quyền riêng tư. Người dùng, nhà hoạch định chính sách và xã hội dân sự có thể sử dụng các công cụ này để đánh giá các quy trình phát triển AI.

Trong khi ngày càng nhiều tổ chức đã nêu rõ các nguyên tắc đạo đức để hướng dẫn quá trình phát triển AI của họ, thì những người bên ngoài tổ chức có thể gặp khó khăn trong việc xác minh xem các hệ thống AI của tổ chức có phản ánh các nguyên tắc đó trong thực tế hay không. Sự mơ hồ này khiến các bên liên quan như người dùng, nhà hoạch định chính sách và xã hội dân sự khó có thể xem xét kỹ lưỡng các tuyên bố của nhà phát triển AI về các đặc tính của hệ thống AI và có thể thúc đẩy việc cắt giảm cạnh tranh, làm tăng rủi ro và tác hại xã hội. Báo cáo mô tả các cơ chế hiện có và tiềm năng có thể giúp các bên liên quan giải quyết các câu hỏi như:

+ Tôi (với tư cách là người dùng) có thể xác minh những tuyên bố về mức độ bảo vệ quyền riêng tư được đảm bảo bởi hệ thống AI mới mà tôi muốn sử dụng để dịch máy các tài liệu nhạy cảm không?

+ Tôi (với tư cách là cơ quan quản lý) có thể theo dõi các bước dẫn đến tai nạn do xe tự hành gây ra không? Các tuyên bố về an toàn của công ty xe tự hành nên được so sánh với tiêu chuẩn nào?

+ Tôi (với tư cách là một học giả) có thể tiến hành nghiên cứu khách quan về những rủi ro liên quan đến các hệ thống AI quy mô lớn khi tôi không có đủ nguồn lực điện toán trong ngành không?

+ Tôi (với tư cách là nhà phát triển AI) có thể xác minh rằng các đối thủ cạnh tranh của tôi trong một lĩnh vực phát triển AI nhất định sẽ tuân theo các phương pháp hay nhất thay vì cắt giảm chi phí để giành lợi thế không?

10 cơ chế được nêu bật trong báo cáo được liệt kê dưới đây, cùng với các khuyến nghị nhằm thúc đẩy từng cơ chế. (Xem báo  cáo(mở trong cửa sổ mới) để thảo luận về cách các cơ chế này hỗ trợ các tuyên bố có thể xác minh cũng như các cảnh báo có liên quan về những phát hiện của chúng tôi.)

Cơ chế thể chế và khuyến nghị

+ Kiểm toán của bên thứ ba . Một liên minh các bên liên quan nên thành lập một lực lượng đặc nhiệm để nghiên cứu các lựa chọn tiến hành và tài trợ cho việc kiểm toán của bên thứ ba đối với các hệ thống AI.

+ Bài tập nhóm đỏ . Các tổ chức phát triển AI nên tiến hành bài tập nhóm đỏ để khám phá các rủi ro liên quan đến hệ thống mà họ phát triển và nên chia sẻ các công cụ và phương pháp hay nhất.

+ Tiền thưởng thiên vị và an toàn . Các nhà phát triển AI nên thí điểm tiền thưởng thiên vị và an toàn cho các hệ thống AI để tăng cường các động cơ và quy trình giám sát rộng rãi các hệ thống AI.

+ Chia sẻ các sự cố AI . Các nhà phát triển AI nên chia sẻ nhiều thông tin hơn về các sự cố AI, bao gồm cả thông qua các kênh cộng tác.

Cơ chế phần mềm và khuyến nghị

+ Theo dõi kiểm toán . Các cơ quan thiết lập tiêu chuẩn nên làm việc với học viện và ngành công nghiệp để phát triển các yêu cầu theo dõi kiểm toán cho các ứng dụng quan trọng về an toàn của hệ thống AI.

+ Khả năng diễn giải . Các tổ chức phát triển AI và các cơ quan tài trợ nên hỗ trợ nghiên cứu về khả năng diễn giải của các hệ thống AI, tập trung vào việc hỗ trợ đánh giá rủi ro và kiểm toán.

+ Học máy bảo vệ quyền riêng tư . Các nhà phát triển AI nên phát triển, chia sẻ và sử dụng bộ công cụ học máy bảo vệ quyền riêng tư bao gồm các biện pháp đánh giá hiệu suất so với các tiêu chuẩn chung.

Cơ chế phần cứng và khuyến nghị

+ Phần cứng an toàn cho máy học . Ngành công nghiệp và học viện nên hợp tác để phát triển các tính năng bảo mật phần cứng cho các trình tăng tốc AI hoặc thiết lập các biện pháp thực hành tốt nhất để sử dụng phần cứng an toàn (bao gồm cả vùng an toàn trên phần cứng thương mại) trong bối cảnh máy học.

+ Đo lường tính toán có độ chính xác cao . Một hoặc nhiều phòng thí nghiệm AI nên ước tính sức mạnh tính toán liên quan đến một dự án duy nhất một cách chi tiết và báo cáo về các bài học kinh nghiệm liên quan đến tiềm năng áp dụng rộng rãi hơn các phương pháp như vậy.

+ Hỗ trợ tính toán cho học viện . Các cơ quan tài trợ của chính phủ nên tăng đáng kể kinh phí cho các nguồn năng lực tính toán dành cho các nhà nghiên cứu trong học viện, nhằm cải thiện khả năng của các nhà nghiên cứu này trong việc xác minh các tuyên bố do ngành công nghiệp đưa ra.

Chúng tôi và các đồng tác giả sẽ tiếp tục nghiên cứu về các cơ chế này và OpenAI sẽ tìm cách áp dụng một số cơ chế này trong tương lai. Chúng tôi hy vọng rằng báo cáo này sẽ truyền cảm hứng cho cuộc đối thoại có ý nghĩa và chúng tôi mong muốn thảo luận thêm về các cơ chế thể chế, phần mềm và phần cứng có thể hữu ích trong việc cho phép phát triển AI đáng tin cậy. Chúng tôi khuyến khích bất kỳ ai quan tâm đến việc hợp tác về các vấn đề này hãy kết nối với các tác giả tương ứng và truy cập  trang web báo cáo (mở trong cửa sổ mới).

Xem thêm: mua tài khoản ChatGPT 4 chính hãng giá rẻ

Hot Deal

Họ tên (*)

Số điện thoại (*)

Email (*)

Dịch vụ

Đăng ký để nhận bản tin mới nhất !