.png)
Chúng tôi đang công bố lời kêu gọi mở cho Mạng lưới Red Teaming của OpenAI và mời các chuyên gia trong lĩnh vực quan tâm đến việc cải thiện tính an toàn của các mô hình OpenAI tham gia vào nỗ lực của chúng tôi. Chúng tôi đang tìm kiếm các chuyên gia từ nhiều lĩnh vực khác nhau để hợp tác với chúng tôi trong việc đánh giá nghiêm ngặt và red teaming các mô hình AI của chúng tôi.
Mạng lưới Red Teaming của OpenAI là gì?
Red teaming là một phần không thể thiếu trong quy trình triển khai lặp đi lặp lại của chúng tôi . Trong vài năm qua, các nỗ lực red teaming của chúng tôi đã phát triển từ việc tập trung vào thử nghiệm đối đầu nội bộ tại OpenAI, sang làm việc với một nhóm chuyên gia bên ngoài để giúp phát triển các phân loại rủi ro cụ thể theo miền và đánh giá các khả năng có thể gây hại trong các hệ thống mới. Bạn có thể đọc thêm về các nỗ lực red teaming trước đây của chúng tôi, bao gồm cả công việc trước đây của chúng tôi với các chuyên gia bên ngoài, về các mô hình như DALL·E 2 và tài khoản ChatGPT-4.
Hôm nay, chúng tôi đang khởi động một nỗ lực chính thức hơn để xây dựng trên những nền tảng trước đó, đồng thời đào sâu và mở rộng sự hợp tác của chúng tôi với các chuyên gia bên ngoài để làm cho các mô hình của chúng tôi an toàn hơn. Làm việc với từng chuyên gia, các viện nghiên cứu và các tổ chức xã hội dân sự là một phần quan trọng trong quy trình của chúng tôi. Chúng tôi coi công việc này là sự bổ sung cho các hoạt động quản trị được chỉ định bên ngoài, chẳng hạn như kiểm toán của bên thứ ba.
Mạng lưới OpenAI Red Teaming là một cộng đồng gồm các chuyên gia đáng tin cậy và giàu kinh nghiệm có thể giúp cung cấp thông tin cho các nỗ lực đánh giá và giảm thiểu rủi ro của chúng tôi một cách rộng rãi hơn, thay vì các cam kết và quy trình lựa chọn một lần trước khi triển khai mô hình lớn. Các thành viên của mạng lưới sẽ được kêu gọi dựa trên chuyên môn của họ để giúp nhóm đỏ ở nhiều giai đoạn khác nhau của vòng đời phát triển mô hình và sản phẩm. Không phải mọi thành viên đều tham gia vào từng mô hình hoặc sản phẩm mới và thời gian đóng góp sẽ được xác định với từng thành viên, có thể chỉ từ 5–10 giờ trong một năm.
Ngoài các chiến dịch nhóm đỏ do OpenAI ủy quyền, các thành viên sẽ có cơ hội tham gia cùng nhau về các hoạt động và phát hiện chung của nhóm đỏ. Mục tiêu là cho phép đầu vào đa dạng và liên tục hơn, và biến nhóm đỏ thành một quá trình lặp đi lặp lại nhiều hơn. Mạng lưới này bổ sung cho các cơ hội an toàn AI hợp tác khác bao gồm Chương trình tiếp cận nhà nghiên cứu và các đánh giá nguồn mở của chúng tôi.
Tại sao nên tham gia Mạng lưới OpenAI Red Teaming?
Mạng lưới này cung cấp một cơ hội độc đáo để định hình sự phát triển của các công nghệ và chính sách AI an toàn hơn, cũng như tác động mà AI có thể có đối với cách chúng ta sống, làm việc và tương tác. Bằng cách trở thành một phần của mạng lưới này, bạn sẽ trở thành một phần trong nhóm chuyên gia về chủ đề của chúng tôi, những người có thể được yêu cầu đánh giá các mô hình và hệ thống của chúng tôi ở nhiều giai đoạn triển khai.
Tìm kiếm chuyên môn đa dạng
Đánh giá các hệ thống AI đòi hỏi sự hiểu biết về nhiều lĩnh vực, nhiều góc nhìn và trải nghiệm sống. Chúng tôi mời các ứng viên từ khắp nơi trên thế giới nộp đơn và ưu tiên tính đa dạng về mặt địa lý cũng như lĩnh vực trong quy trình tuyển chọn của mình.
Một số lĩnh vực chúng tôi quan tâm bao gồm nhưng không giới hạn ở:
Khoa học nhận thức | Hoá học |
Sinh vật học | Vật lý |
Khoa học máy tính | Thuật ẩn chữ |
Khoa học chính trị | Tâm lý |
Sự thuyết phục | Kinh tế |
Nhân chủng học | Xã hội học |
HCI | Công bằng và thiên vị |
Căn chỉnh | Giáo dục |
Chăm sóc sức khỏe | Pháp luật |
An toàn cho trẻ em | An ninh mạng |
Tài chính | Thông tin sai lệch/sai lệch |
Sử dụng chính trị | Sự riêng tư |
Sinh trắc học | Ngôn ngữ và Ngôn ngữ học |
Không yêu cầu kinh nghiệm trước đó với các hệ thống AI hoặc mô hình ngôn ngữ, nhưng có thể hữu ích. Điều chúng tôi coi trọng nhất là sự sẵn lòng tham gia và đưa quan điểm của bạn vào cách chúng tôi đánh giá tác động của các hệ thống AI.
Bồi thường và bảo mật
Tất cả các thành viên của Mạng lưới Red Teaming OpenAI sẽ được đền bù cho những đóng góp của họ khi họ tham gia vào một dự án red teaming. Mặc dù tư cách thành viên trong mạng lưới này sẽ không hạn chế bạn công bố nghiên cứu của mình hoặc theo đuổi các cơ hội khác, nhưng bạn nên cân nhắc rằng bất kỳ sự tham gia nào vào red teaming và các dự án khác thường phải tuân theo Thỏa thuận không tiết lộ (NDA) hoặc được giữ bí mật trong thời gian không xác định.
Cách thức nộp đơn
Hiện đã đóng đơn đăng ký. Hãy tham gia cùng chúng tôi trong sứ mệnh xây dựng AGI an toàn có lợi cho nhân loại. Đăng ký để trở thành một phần của Mạng lưới OpenAI Red Teaming ngay hôm nay.
Câu hỏi thường gặp
H: Việc tham gia mạng lưới sẽ đòi hỏi những gì?
A: Trở thành một phần của mạng lưới có nghĩa là bạn có thể được liên hệ về các cơ hội thử nghiệm một mô hình mới hoặc thử nghiệm một lĩnh vực quan tâm trên một mô hình đã được triển khai. Công việc được tiến hành như một phần của mạng lưới được thực hiện theo thỏa thuận không tiết lộ (NDA), mặc dù chúng tôi đã công bố nhiều phát hiện về nhóm đỏ của mình trong Thẻ hệ thống và các bài đăng trên blog. Bạn sẽ được đền bù cho thời gian dành cho các dự án nhóm đỏ.
H: Thời gian dự kiến để tham gia mạng lưới là bao lâu?
A: Thời gian bạn quyết định cam kết có thể được điều chỉnh tùy thuộc vào lịch trình của bạn. Lưu ý rằng không phải tất cả mọi người trong mạng lưới đều được liên hệ cho mọi cơ hội, OpenAI sẽ đưa ra lựa chọn dựa trên sự phù hợp cho một dự án nhóm đỏ cụ thể và nhấn mạnh các góc nhìn mới trong các chiến dịch nhóm đỏ tiếp theo. Ngay cả khi chỉ có 5 giờ trong một năm vẫn có giá trị đối với chúng tôi, vì vậy đừng ngần ngại nộp đơn nếu bạn quan tâm nhưng thời gian của bạn có hạn.
H: Khi nào ứng viên sẽ được thông báo về việc trúng tuyển?
A: OpenAI sẽ tuyển chọn thành viên cho mạng lưới theo hình thức liên tục và bạn có thể nộp đơn cho đến ngày 1 tháng 12 năm 2023. Sau thời gian nộp đơn này, chúng tôi sẽ đánh giá lại việc mở các cơ hội nộp đơn tiếp theo trong tương lai.
H: Trở thành một phần của mạng lưới có nghĩa là tôi sẽ được yêu cầu tham gia nhóm đỏ cho mọi mô hình mới không?
A: Không, OpenAI sẽ đưa ra lựa chọn dựa trên sự phù hợp cho một dự án nhóm đỏ cụ thể và bạn không nên mong đợi thử nghiệm mọi mô hình mới.
H: Bạn đang tìm kiếm tiêu chí nào ở các thành viên trong mạng lưới?
A: Một số tiêu chí chúng tôi đang tìm kiếm là:
+ Đã chứng minh được trình độ chuyên môn hoặc kinh nghiệm trong một lĩnh vực cụ thể có liên quan đến nhóm đỏ
+ Đam mê cải thiện tính an toàn của AI
+ Không có xung đột lợi ích
+ Các nền tảng khác nhau và các nhóm truyền thống bị đại diện thiếu
+ Đại diện địa lý đa dạng
+ Thành thạo nhiều hơn một ngôn ngữ
+ Khả năng kỹ thuật (không bắt buộc)
H: Những cơ hội hợp tác an toàn khác là gì?
A: Ngoài việc tham gia mạng lưới, còn có những cơ hội hợp tác khác để đóng góp vào sự an toàn của AI. Ví dụ, một lựa chọn là tạo hoặc tiến hành đánh giá an toàn trên các hệ thống AI và phân tích kết quả.
Đánh giá nguồn mở của OpenAI kho lưu trữ (được phát hành như một phần của bản ra mắt GPT-4 ) cung cấp các mẫu thân thiện với người dùng và các phương pháp mẫu để bắt đầu quá trình này.
Đánh giá có thể bao gồm từ các bài kiểm tra Hỏi & Đáp đơn giản đến các mô phỏng phức tạp hơn. Dưới đây là các ví dụ cụ thể về các đánh giá mẫu do OpenAI phát triển để đánh giá hành vi AI từ nhiều góc độ:
Sự thuyết phục
+ Hãy nói với tôi:Hệ thống AI có thể lừa hệ thống AI khác nói ra một từ bí mật tốt đến mức nào?
+ MakeMePay:Hệ thống AI có thể thuyết phục hệ thống AI khác quyên góp tiền tốt đến mức nào?
+ Đề xuất bỏ phiếu:Một hệ thống AI có thể ảnh hưởng đến việc một hệ thống AI khác ủng hộ một đề xuất chính trị như thế nào?
Kỹ thuật ẩn tin (tin nhắn ẩn)
+ Thuật ẩn chữ:Hệ thống AI có thể truyền tin nhắn bí mật tốt đến mức nào mà không bị hệ thống AI khác phát hiện?
+ Nén văn bản: Hệ thống AI có thể nén và giải nén tin nhắn tốt đến mức nào để có thể ẩn tin nhắn bí mật?
+ Điểm Schelling:Một hệ thống AI có thể phối hợp tốt với một hệ thống AI khác như thế nào mà không cần giao tiếp trực tiếp?
Chúng tôi khuyến khích sự sáng tạo và thử nghiệm trong việc đánh giá các hệ thống AI. Sau khi hoàn thành, chúng tôi hoan nghênh bạn đóng góp đánh giá của mình cho Evals nguồn mở kho lưu trữ để cộng đồng AI rộng lớn sử dụng.
Bạn cũng có thể đăng ký Chương trình tiếp cận dành cho nhà nghiên cứu của chúng tôi , chương trình này cung cấp tín dụng để hỗ trợ các nhà nghiên cứu sử dụng sản phẩm của chúng tôi để nghiên cứu các lĩnh vực liên quan đến việc triển khai AI có trách nhiệm và giảm thiểu các rủi ro liên quan.
Xem thêm: mua tài khoản ChatGPT Plus chính hãng giá rẻ

Cách đổi Mật khẩu Chat GPT - Hướng dẫn đổi Pass Chat GPT 100% Thành công
Hướng dẫn Cách đăng nhập Chat GPT Nhanh nhất | Có hỗ trợ Miễn phí qua Teamview-Ultraview
Chat GPT Plus là gì? So sánh Chat GPT Plus với Chat GPT Miễn phí
Chat GPT bị giới hạn giải thích vì sao và cách khắc phục
Chat GPT là gì ? Cách đăng Ký Chat GPT Miễn Phí tại Việt Nam