zalo
Chat ngay

Thực hành tốt nhất để triển khai các mô hình ngôn ngữ

Cohere, OpenAI và AI21 Labs đã phát triển một bộ các biện pháp thực hành tốt nhất ban đầu có thể áp dụng cho bất kỳ tổ chức nào đang phát triển hoặc triển khai các mô hình ngôn ngữ lớn

Cohere, OpenAI và AI21 Labs đã phát triển một bộ sơ bộ các phương pháp hay nhất áp dụng cho bất kỳ tổ chức nào đang phát triển hoặc triển khai các mô hình ngôn ngữ lớn. Máy tính có thể đọc và viết đã có mặt ở đây và chúng có tiềm năng tác động cơ bản đến cuộc sống hàng ngày. Tương lai của tương tác giữa con người và máy móc đầy khả năng và hứa hẹn, nhưng bất kỳ công nghệ mạnh mẽ nào cũng cần được triển khai cẩn thận.

Tuyên bố chung dưới đây là một bước tiến tới việc xây dựng một cộng đồng để giải quyết những thách thức toàn cầu do sự tiến bộ của AI đặt ra và chúng tôi khuyến khích các tổ chức khác muốn tham gia hãy liên hệ.

Khuyến nghị chung cho việc triển khai mô hình ngôn ngữ

Chúng tôi đề xuất một số nguyên tắc chính để giúp các nhà cung cấp mô hình ngôn ngữ lớn (LLM) giảm thiểu rủi ro của công nghệ này nhằm đạt được mục tiêu tăng cường năng lực của con người.

Mặc dù các nguyên tắc này được phát triển cụ thể dựa trên kinh nghiệm của chúng tôi trong việc cung cấp LLM thông qua API, chúng tôi hy vọng chúng sẽ hữu ích bất kể chiến lược phát hành nào (chẳng hạn như mã nguồn mở hoặc sử dụng trong công ty). Chúng tôi mong đợi những khuyến nghị này sẽ thay đổi đáng kể theo thời gian vì việc sử dụng LLM thương mại và các cân nhắc về an toàn đi kèm là mới và đang phát triển. Chúng tôi đang tích cực tìm hiểu và giải quyết các hạn chế và con đường sử dụng sai mục đích của LLM, và sẽ cập nhật các nguyên tắc và thực hành này thông qua sự hợp tác với cộng đồng rộng lớn hơn theo thời gian.

Chúng tôi chia sẻ những nguyên tắc này với hy vọng rằng các nhà cung cấp LLM khác có thể học hỏi và áp dụng chúng, đồng thời thúc đẩy thảo luận công khai về phát triển và triển khai LLM.

Cấm sử dụng sai mục đích

Công bố hướng dẫn sử dụng và điều khoản sử dụng  LLM theo cách cấm gây tổn hại vật chất cho cá nhân, cộng đồng và xã hội như thông qua thư rác, gian lận hoặc astroturfing. Hướng dẫn sử dụng cũng nên chỉ định các lĩnh vực mà việc sử dụng LLM đòi hỏi phải xem xét kỹ lưỡng hơn và cấm các trường hợp sử dụng có rủi ro cao không phù hợp, chẳng hạn như phân loại mọi người dựa trên các đặc điểm được bảo vệ.

Xây dựng hệ thống và cơ sở hạ tầng để thực thi các hướng dẫn sử dụng . Điều này có thể bao gồm giới hạn tỷ lệ, lọc nội dung, phê duyệt ứng dụng trước khi truy cập sản xuất, giám sát hoạt động bất thường và các biện pháp giảm thiểu khác.

Giảm thiểu tác hại không mong muốn

Chủ động giảm thiểu hành vi mô hình có hại. Các biện pháp thực hành tốt nhất bao gồm đánh giá mô hình toàn diện để đánh giá đúng các hạn chế, giảm thiểu các nguồn sai lệch tiềm ẩn trong tập hợp dữ liệu đào tạo và các kỹ thuật để giảm thiểu hành vi không an toàn như thông qua học hỏi từ phản hồi của con người.

Tài liệu về các điểm yếu và lỗ hổng đã biết, chẳng hạn như thiên vị hoặc khả năng tạo ra mã không an toàn, vì trong một số trường hợp, không có biện pháp phòng ngừa nào có thể loại bỏ hoàn toàn khả năng gây hại ngoài ý muốn. Tài liệu cũng nên bao gồm các biện pháp an toàn tốt nhất cụ thể cho từng trường hợp sử dụng và mô hình.

Hợp tác chu đáo với các bên liên quan

Xây dựng các nhóm có nhiều nền tảng khác nhau  và thu thập ý kiến ​​đóng góp rộng rãi. Cần có nhiều quan điểm khác nhau để mô tả và giải quyết cách các mô hình ngôn ngữ sẽ hoạt động trong sự đa dạng của thế giới thực, nơi mà nếu không được kiểm soát, chúng có thể củng cố sự thiên vị hoặc không hiệu quả đối với một số nhóm.

Công khai các bài học kinh nghiệm liên quan đến an toàn và việc sử dụng sai mục đích LLM  để có thể áp dụng rộng rãi và hỗ trợ việc lặp lại các biện pháp thực hành tốt nhất trên toàn ngành.

Đối xử với tất cả lao động trong chuỗi cung ứng mô hình ngôn ngữ một cách tôn trọng . Ví dụ, nhà cung cấp phải có tiêu chuẩn cao về điều kiện làm việc của những người xem xét đầu ra của mô hình nội bộ và yêu cầu nhà cung cấp tuân thủ các tiêu chuẩn được chỉ định rõ ràng (ví dụ: đảm bảo người dán nhãn có thể từ chối một nhiệm vụ nhất định).

Với tư cách là nhà cung cấp LLM, việc công bố các nguyên tắc này là bước đầu tiên trong việc hướng dẫn hợp tác phát triển và triển khai mô hình ngôn ngữ lớn an toàn hơn. Chúng tôi rất vui mừng được tiếp tục làm việc với nhau và với các bên khác để xác định các cơ hội khác nhằm giảm thiểu tác hại không chủ ý và ngăn chặn việc sử dụng mô hình ngôn ngữ một cách có chủ đích.

Sự hỗ trợ từ các tổ chức khác

“Mặc dù LLM có nhiều hứa hẹn, nhưng chúng có những vấn đề an toàn vốn có đáng kể cần được giải quyết. Những biện pháp thực hành tốt nhất này đóng vai trò là bước quan trọng trong việc giảm thiểu tác hại của các mô hình này và tối đa hóa lợi ích tiềm năng của chúng.”

—Nhân loại

“Khi các mô hình ngôn ngữ lớn (LLM) ngày càng trở nên mạnh mẽ và biểu cảm hơn, việc giảm thiểu rủi ro trở nên ngày càng quan trọng. Chúng tôi hoan nghênh những nỗ lực này và các nỗ lực khác nhằm chủ động tìm cách giảm thiểu tác hại và nêu bật cho người dùng các lĩnh vực cần thêm sự siêng năng. Các nguyên tắc được nêu ở đây là một đóng góp quan trọng cho cuộc trò chuyện toàn cầu.”

—John Bansemer, Giám đốc Dự án CyberAI và Nghiên cứu viên cao cấp, Trung tâm An ninh và Công nghệ mới nổi (CSET)

“Google khẳng định tầm quan trọng của các chiến lược toàn diện trong việc phân tích dữ liệu mô hình và đào tạo để giảm thiểu rủi ro gây hại, thiên vị và trình bày sai lệch. Đây là một bước đi chu đáo được các nhà cung cấp AI này thực hiện để thúc đẩy các nguyên tắc và tài liệu hướng tới sự an toàn của AI.”

—Google

“Để hiện thực hóa lời hứa của các mô hình ngôn ngữ lớn, chúng ta phải tiếp tục hợp tác với tư cách là một ngành và chia sẻ các phương pháp hay nhất về cách phát triển và triển khai chúng một cách có trách nhiệm trong khi giảm thiểu các rủi ro tiềm ẩn. Chúng tôi hoan nghênh nỗ lực này và các nỗ lực khác thúc đẩy hành động chu đáo và thiết thực trên toàn ngành, học hỏi và làm việc với các bên liên quan chính trong học viện, xã hội dân sự và chính phủ.”

—Microsoft

“Sự an toàn của các mô hình nền tảng, chẳng hạn như các mô hình ngôn ngữ lớn, đang là mối quan tâm ngày càng tăng của xã hội. Chúng tôi khen ngợi Cohere, OpenAI và AI21 Labs đã thực hiện bước đầu tiên để phác thảo các nguyên tắc cấp cao cho việc phát triển và triển khai có trách nhiệm theo quan điểm của các nhà phát triển mô hình. Vẫn còn nhiều việc phải làm và chúng tôi tin rằng điều cần thiết là phải thu hút nhiều tiếng nói hơn từ giới học thuật, ngành công nghiệp và xã hội dân sự để phát triển các nguyên tắc chi tiết hơn và các chuẩn mực cộng đồng. Như chúng tôi đã nêu trong  bài đăng trên blog gần đây, không chỉ kết quả cuối cùng mà tính hợp pháp của quá trình mới là điều quan trọng.”

—Percy Liang, Giám đốc Trung tâm nghiên cứu mô hình nền tảng Stanford (CRFM)

 

Xem thêm: mua tài khoản ChatGPT Plus chính hãng giá rẻ

Hot Deal

Họ tên (*)

Số điện thoại (*)

Email (*)

Dịch vụ

Đăng ký để nhận bản tin mới nhất !