.png)
OpenAI và các phòng thí nghiệm AI hàng đầu khác đang thực hiện một loạt các cam kết tự nguyện nhằm tăng cường tính an toàn, bảo mật và độ tin cậy của công nghệ AI và các dịch vụ của chúng tôi. Quá trình này, được điều phối bởi Nhà Trắng, là một bước quan trọng trong việc thúc đẩy quản trị AI có ý nghĩa và hiệu quả, cả ở Hoa Kỳ và trên toàn thế giới.
Là một phần trong sứ mệnh xây dựng AGI an toàn và có lợi, chúng tôi sẽ tiếp tục thử nghiệm và tinh chỉnh các hoạt động quản trị cụ thể được thiết kế riêng cho các mô hình nền tảng có khả năng cao như những mô hình mà chúng tôi tạo ra. Chúng tôi cũng sẽ tiếp tục đầu tư vào nghiên cứu trong các lĩnh vực có thể giúp cung cấp thông tin cho quy định, chẳng hạn như các kỹ thuật đánh giá khả năng nguy hiểm tiềm ẩn trong các mô hình AI.
- Chỉ với vài bước đơn giản mọi người đã có thể sở hữu tài khoản ChatGPT 4 TẠI ĐÂY!
“Các nhà hoạch định chính sách trên toàn thế giới đang xem xét luật mới cho các hệ thống AI có năng lực cao. Các cam kết ngày hôm nay đóng góp các hoạt động cụ thể và thiết thực vào cuộc thảo luận đang diễn ra đó. Thông báo này là một phần trong sự hợp tác liên tục của chúng tôi với các chính phủ, tổ chức xã hội dân sự và các bên khác trên toàn thế giới để thúc đẩy quản trị AI”, Anna Makanju, Phó chủ tịch phụ trách các vấn đề toàn cầu cho biết.
Cam kết AI tự nguyện
Sau đây là danh sách các cam kết mà các công ty đang thực hiện để thúc đẩy sự phát triển và sử dụng công nghệ AI một cách an toàn, bảo mật và minh bạch. Những cam kết tự nguyện này phù hợp với các luật và quy định hiện hành và được thiết kế để thúc đẩy chế độ chính sách và pháp lý AI mang tính sáng tạo. Các công ty dự định những cam kết tự nguyện này sẽ vẫn có hiệu lực cho đến khi các quy định bao gồm các vấn đề tương tự về cơ bản có hiệu lực. Các công ty riêng lẻ có thể đưa ra các cam kết bổ sung ngoài những cam kết được nêu ở đây.
Phạm vi: Khi các cam kết đề cập đến các mô hình cụ thể, chúng chỉ áp dụng cho các mô hình tạo ra mạnh hơn so với ranh giới ngành hiện tại (ví dụ: các mô hình mạnh hơn so với bất kỳ mô hình nào hiện đang được phát hành, bao gồm GPT-4, Claude 2, PaLM 2, Titan và trong trường hợp tạo hình ảnh, DALL-E 2).
Sự an toàn
Cam kết thành lập nhóm đỏ nội bộ và bên ngoài các mô hình hoặc hệ thống trong các lĩnh vực bao gồm lạm dụng, rủi ro xã hội và các vấn đề an ninh quốc gia, chẳng hạn như lĩnh vực sinh học, an ninh mạng và các lĩnh vực an toàn khác.
Các công ty thực hiện cam kết này hiểu rằng việc lập nhóm đỏ mạnh mẽ là điều cần thiết để xây dựng các sản phẩm thành công, đảm bảo niềm tin của công chúng vào AI và bảo vệ chống lại các mối đe dọa an ninh quốc gia đáng kể. Đánh giá năng lực và an toàn của mô hình, bao gồm cả lập nhóm đỏ, là một lĩnh vực nghiên cứu khoa học mở và vẫn còn nhiều việc phải làm. Các công ty cam kết thúc đẩy lĩnh vực nghiên cứu này và phát triển một chế độ lập nhóm đỏ đa diện, chuyên biệt và chi tiết, bao gồm cả việc sử dụng các chuyên gia trong lĩnh vực độc lập, cho tất cả các bản phát hành công khai lớn của các mô hình mới trong phạm vi. Khi thiết kế chế độ, họ sẽ đảm bảo rằng họ dành sự chú ý đáng kể đến những điều sau:
+ Rủi ro sinh học, hóa học và phóng xạ, chẳng hạn như cách thức mà các hệ thống có thể hạ thấp rào cản gia nhập để phát triển, thiết kế, mua sắm hoặc sử dụng vũ khí
+ Khả năng mạng, chẳng hạn như cách thức hệ thống có thể hỗ trợ phát hiện lỗ hổng, khai thác hoặc sử dụng hoạt động, lưu ý rằng các khả năng như vậy cũng có thể có các ứng dụng phòng thủ hữu ích và có thể phù hợp để đưa vào hệ thống
+ Các tác động của tương tác hệ thống và sử dụng công cụ, bao gồm khả năng kiểm soát các hệ thống vật lý
+ Khả năng của các mô hình để tạo ra bản sao của chính chúng hoặc “tự sao chép”
+ Rủi ro xã hội, chẳng hạn như thiên vị và phân biệt đối xử
Để hỗ trợ những nỗ lực này, các công ty thực hiện cam kết này cam kết thúc đẩy nghiên cứu đang diễn ra về an toàn AI, bao gồm khả năng diễn giải các quy trình ra quyết định của hệ thống AI và tăng cường tính mạnh mẽ của hệ thống AI trước việc sử dụng sai mục đích. Tương tự như vậy, các công ty cam kết công khai các quy trình an toàn và nhóm đỏ của họ trong các báo cáo minh bạch (được mô tả bên dưới).
Làm việc hướng tới việc chia sẻ thông tin giữa các công ty và chính phủ liên quan đến rủi ro về lòng tin và an toàn, khả năng nguy hiểm hoặc khẩn cấp và các nỗ lực nhằm lách luật bảo vệ
Các công ty thực hiện cam kết này nhận ra tầm quan trọng của việc chia sẻ thông tin, các tiêu chuẩn chung và các thông lệ tốt nhất để lập nhóm đỏ và thúc đẩy sự tin cậy và an toàn của AI. Họ cam kết thiết lập hoặc tham gia một diễn đàn hoặc cơ chế mà thông qua đó họ có thể phát triển, thúc đẩy và áp dụng các tiêu chuẩn chung và các thông lệ tốt nhất cho sự an toàn của AI tiên phong, chẳng hạn như Khung quản lý rủi ro AI của NIST hoặc các tiêu chuẩn trong tương lai liên quan đến lập nhóm đỏ, sự an toàn và rủi ro xã hội. Diễn đàn hoặc cơ chế này có thể tạo điều kiện chia sẻ thông tin về những tiến bộ trong năng lực tiên phong và các rủi ro và mối đe dọa mới nổi, chẳng hạn như các nỗ lực lách luật bảo vệ, và có thể tạo điều kiện phát triển các nhóm làm việc kỹ thuật về các lĩnh vực ưu tiên đáng quan tâm. Trong công việc này, các công ty sẽ hợp tác chặt chẽ với các chính phủ, bao gồm chính phủ Hoa Kỳ, xã hội dân sự và học viện, khi thích hợp.
Bảo vệ
Đầu tư vào an ninh mạng và bảo vệ khỏi các mối đe dọa nội bộ để bảo vệ các trọng số mô hình độc quyền và chưa phát hành
Các công ty thực hiện cam kết này sẽ coi các trọng số mô hình AI chưa phát hành cho các mô hình trong phạm vi là tài sản trí tuệ cốt lõi cho doanh nghiệp của họ, đặc biệt là liên quan đến an ninh mạng và rủi ro đe dọa nội gián. Điều này bao gồm việc hạn chế quyền truy cập vào các trọng số mô hình đối với những người có chức năng công việc yêu cầu và thiết lập một chương trình phát hiện mối đe dọa nội gián mạnh mẽ phù hợp với các biện pháp bảo vệ được cung cấp cho tài sản trí tuệ và bí mật thương mại có giá trị nhất của họ. Ngoài ra, cần lưu trữ và làm việc với các trọng số trong một môi trường an toàn phù hợp để giảm nguy cơ phát hành trái phép.
Khuyến khích bên thứ ba phát hiện và báo cáo các vấn đề và lỗ hổng
Các công ty thực hiện cam kết này nhận ra rằng các hệ thống AI có thể vẫn có điểm yếu và lỗ hổng ngay cả sau khi nhóm đỏ hoạt động mạnh mẽ. Họ cam kết thiết lập cho các hệ thống trong phạm vi các hệ thống tiền thưởng, cuộc thi hoặc giải thưởng để khuyến khích tiết lộ có trách nhiệm về các điểm yếu, chẳng hạn như hành vi không an toàn hoặc đưa các hệ thống AI vào các chương trình tiền thưởng lỗi hiện có của họ.
Lòng tin
Phát triển và triển khai các cơ chế cho phép người dùng hiểu được nội dung âm thanh hoặc hình ảnh có phải do AI tạo ra hay không, bao gồm nguồn gốc rõ ràng, hình mờ hoặc cả hai, đối với nội dung âm thanh hoặc hình ảnh do AI tạo ra
Các công ty thực hiện cam kết này nhận ra rằng điều quan trọng là mọi người phải có thể hiểu khi nào nội dung âm thanh hoặc hình ảnh được tạo ra bởi AI. Để thúc đẩy mục tiêu này, họ đồng ý phát triển các cơ chế mạnh mẽ, bao gồm hệ thống xuất xứ và/hoặc hình mờ cho nội dung âm thanh hoặc hình ảnh do bất kỳ hệ thống nào trong số các hệ thống công khai của họ tạo ra trong phạm vi được giới thiệu sau khi hệ thống hình mờ được phát triển. Họ cũng sẽ phát triển các công cụ hoặc API để xác định xem một phần nội dung cụ thể có được tạo bằng hệ thống của họ hay không. Nội dung nghe nhìn dễ dàng phân biệt với thực tế hoặc được thiết kế để dễ dàng nhận ra là do hệ thống AI của công ty tạo ra—chẳng hạn như giọng nói mặc định của trợ lý AI—nằm ngoài phạm vi của cam kết này. Dữ liệu hình mờ hoặc xuất xứ phải bao gồm mã định danh của dịch vụ hoặc mô hình đã tạo ra nội dung, nhưng không cần bao gồm bất kỳ thông tin nhận dạng người dùng nào. Nói chung, các công ty thực hiện cam kết này cam kết sẽ hợp tác với các đồng nghiệp trong ngành và các cơ quan thiết lập tiêu chuẩn khi thích hợp để phát triển một khuôn khổ kỹ thuật nhằm giúp người dùng phân biệt nội dung âm thanh hoặc hình ảnh do người dùng tạo ra với nội dung âm thanh hoặc hình ảnh do AI tạo ra.
Xem thêm: mua tài khoản ChatGPT Plus chính hãng giá rẻ
Báo cáo công khai về khả năng, hạn chế và phạm vi sử dụng phù hợp và không phù hợp của mô hình hoặc hệ thống, bao gồm thảo luận về các rủi ro xã hội, chẳng hạn như tác động đến sự công bằng và thiên vị
Các công ty thực hiện cam kết này thừa nhận rằng người dùng nên hiểu các khả năng và hạn chế đã biết của các hệ thống AI mà họ sử dụng hoặc tương tác. Họ cam kết công bố báo cáo cho tất cả các bản phát hành công khai mô hình quan trọng mới trong phạm vi. Các báo cáo này nên bao gồm các đánh giá về an toàn được tiến hành (bao gồm cả trong các lĩnh vực như khả năng nguy hiểm, trong phạm vi mà họ có trách nhiệm công bố công khai), các hạn chế đáng kể về hiệu suất có tác động đến các lĩnh vực sử dụng phù hợp, thảo luận về tác động của mô hình đối với các rủi ro xã hội như tính công bằng và thiên vị, và kết quả của thử nghiệm đối đầu được tiến hành để đánh giá tính phù hợp của mô hình để triển khai.
Ưu tiên nghiên cứu về các rủi ro xã hội do hệ thống AI gây ra, bao gồm tránh thiên vị và phân biệt đối xử có hại, và bảo vệ quyền riêng tư
Các công ty thực hiện cam kết này nhận ra tầm quan trọng của việc tránh các định kiến có hại được lan truyền bởi, và sự phân biệt đối xử do, các hệ thống AI ban hành. Các công ty cam kết trao quyền cho các nhóm tin cậy và an toàn, thúc đẩy nghiên cứu an toàn AI, thúc đẩy quyền riêng tư, bảo vệ trẻ em và làm việc để chủ động quản lý rủi ro của AI để có thể nhận ra lợi ích của nó.
Phát triển và triển khai các hệ thống AI tiên tiến để giúp giải quyết những thách thức lớn nhất của xã hội
Các công ty thực hiện cam kết này đồng ý hỗ trợ nghiên cứu và phát triển các hệ thống AI tiên tiến có thể giúp đáp ứng những thách thức lớn nhất của xã hội, chẳng hạn như giảm thiểu và thích ứng với biến đổi khí hậu, phát hiện và phòng ngừa ung thư sớm và chống lại các mối đe dọa mạng. Các công ty cũng cam kết hỗ trợ các sáng kiến thúc đẩy giáo dục và đào tạo cho sinh viên và người lao động để phát triển thịnh vượng từ những lợi ích của AI và giúp người dân hiểu được bản chất, khả năng, hạn chế và tác động của công nghệ.

Cách đổi Mật khẩu Chat GPT - Hướng dẫn đổi Pass Chat GPT 100% Thành công
Hướng dẫn Cách đăng nhập Chat GPT Nhanh nhất | Có hỗ trợ Miễn phí qua Teamview-Ultraview
Chat GPT Plus là gì? So sánh Chat GPT Plus với Chat GPT Miễn phí
Chat GPT bị giới hạn giải thích vì sao và cách khắc phục
Chat GPT là gì ? Cách đăng Ký Chat GPT Miễn Phí tại Việt Nam