0965 636 913
Chat ngay

Cập nhật Diễn đàn Frontier Model

Cùng với Anthropic, Google và Microsoft, chúng tôi công bố Giám đốc điều hành mới của Frontier Model Forum và Quỹ An toàn AI mới trị giá 10 triệu đô la

 

Lưu ý của biên tập viên: Hôm nay, OpenAI, Anthropic, Google và Microsoft đã công bố thông báo chung sau. 

+ Chris Meserole được bổ nhiệm làm Giám đốc điều hành đầu tiên của Frontier Model Forum , một tổ chức trong ngành tập trung vào việc đảm bảo phát triển và sử dụng các mô hình AI tiên tiến một cách an toàn và có trách nhiệm trên toàn cầu. 

+ Meserole có nhiều kinh nghiệm tập trung vào quản trị và an toàn của các công nghệ mới nổi và các ứng dụng trong tương lai của chúng.

+ Ngày nay, các thành viên Diễn đàn, hợp tác với các đối tác từ thiện, Quỹ Patrick J. McGovern, Quỹ David và Lucile Packard, Eric Schmidt và Jaan Tallinn cam kết hơn 10 triệu đô la cho Quỹ An toàn AI mới để thúc đẩy nghiên cứu về sự phát triển liên tục của các công cụ giúp xã hội kiểm tra và đánh giá hiệu quả các mô hình AI có khả năng nhất.

Hôm nay, Anthropic, Google, Microsoft và OpenAI công bố việc lựa chọn Chris Meserole (mở trong cửa sổ mới)với tư cách là Giám đốc điều hành đầu tiên của Frontier Model Forum (mở trong cửa sổ mới)và việc thành lập Quỹ An toàn AI mới, một sáng kiến ​​trị giá hơn 10 triệu đô la nhằm thúc đẩy nghiên cứu trong lĩnh vực an toàn AI. Frontier Model Forum, một tổ chức trong ngành tập trung vào việc đảm bảo phát triển an toàn và có trách nhiệm các mô hình AI biên giới, cũng đang phát hành bản cập nhật nhóm làm việc kỹ thuật đầu tiên về nhóm đỏ để chia sẻ chuyên môn trong ngành với nhiều đối tượng hơn khi Diễn đàn mở rộng cuộc thảo luận về các phương pháp tiếp cận quản trị AI có trách nhiệm.

Giám đốc điều hành

Chris Meserole đến Frontier Model Forum với chuyên môn sâu về chính sách công nghệ, đã làm việc nhiều về quản trị và an toàn của các công nghệ mới nổi và các ứng dụng trong tương lai của chúng. Gần đây nhất, ông giữ chức Giám đốc Sáng kiến ​​Trí tuệ nhân tạo và Công nghệ mới nổi tại Viện Brookings.  

Trong vai trò mới này, Meserole sẽ chịu trách nhiệm giúp Diễn đàn hoàn thành sứ mệnh của mình:

+ Thúc đẩy nghiên cứu an toàn AI để thúc đẩy phát triển có trách nhiệm các mô hình tiên tiến và giảm thiểu rủi ro tiềm ẩn.

+ Xác định các biện pháp an toàn tốt nhất cho các mô hình biên giới.

+ Chia sẻ kiến ​​thức với các nhà hoạch định chính sách, học giả, xã hội dân sự và những bên khác để thúc đẩy phát triển AI có trách nhiệm.

+ Hỗ trợ các nỗ lực tận dụng AI để giải quyết những thách thức lớn nhất của xã hội.

“Các mô hình AI mạnh mẽ nhất có triển vọng to lớn cho xã hội, nhưng để nhận ra tiềm năng của chúng, chúng ta cần hiểu rõ hơn về cách phát triển và đánh giá chúng một cách an toàn. Tôi rất vui khi được đảm nhận thử thách đó với Frontier Model Forum.”
Chris Meserole, Giám đốc điều hành của Frontier Model Forum

Quỹ an toàn AI

Trong năm qua, ngành công nghiệp đã thúc đẩy những tiến bộ đáng kể trong khả năng của AI. Khi những tiến bộ đó tăng tốc, cần có nghiên cứu học thuật mới về an toàn AI. Để giải quyết khoảng cách này, Diễn đàn và các đối tác từ thiện đang tạo ra một Quỹ An toàn AI mới, sẽ hỗ trợ các nhà nghiên cứu độc lập trên khắp thế giới có liên kết với các tổ chức học thuật, tổ chức nghiên cứu và công ty khởi nghiệp. Cam kết tài trợ ban đầu cho Quỹ An toàn AI đến từ Anthropic, Google, Microsoft và OpenAI, và sự hào phóng của các đối tác từ thiện của chúng tôi, Quỹ Patrick J. McGovern, Quỹ David và Lucile Packard A , Eric Schmidt và Jaan Tallinn. Tổng cộng số tiền này lên tới hơn 10 triệu đô la tiền tài trợ ban đầu. Chúng tôi đang mong đợi các đóng góp bổ sung từ các đối tác khác.

Đầu năm nay, các thành viên của Diễn đàn đã ký cam kết AI tự nguyện tại Nhà Trắng, bao gồm cam kết tạo điều kiện cho bên thứ ba phát hiện và báo cáo các lỗ hổng trong hệ thống AI của chúng tôi. Diễn đàn coi Quỹ An toàn AI là một phần quan trọng để thực hiện cam kết này bằng cách cung cấp cho cộng đồng bên ngoài nguồn tài trợ để đánh giá và hiểu rõ hơn về các hệ thống biên giới. Cuộc thảo luận toàn cầu về an toàn AI và cơ sở kiến ​​thức chung về AI sẽ được hưởng lợi từ nhiều tiếng nói và quan điểm hơn. 

Trọng tâm chính của Quỹ sẽ là hỗ trợ phát triển các đánh giá và kỹ thuật mô hình mới cho các mô hình AI nhóm đỏ để giúp phát triển và thử nghiệm các kỹ thuật đánh giá khả năng nguy hiểm tiềm tàng của các hệ thống biên giới. Chúng tôi tin rằng việc tăng tài trợ trong lĩnh vực này sẽ giúp nâng cao các tiêu chuẩn an toàn và bảo mật và cung cấp thông tin chi tiết về các biện pháp giảm thiểu và kiểm soát mà ngành công nghiệp, chính phủ và xã hội dân sự cần để ứng phó với những thách thức do các hệ thống AI đặt ra. 

Quỹ sẽ đưa ra lời kêu gọi đề xuất trong vài tháng tới. Viện Meridian sẽ quản lý Quỹ—công việc của họ sẽ được hỗ trợ bởi một ủy ban cố vấn bao gồm các chuyên gia độc lập bên ngoài, các chuyên gia từ các công ty AI và các cá nhân có kinh nghiệm trong việc tài trợ.

Chuyên môn kỹ thuật

Trong vài tháng qua, Diễn đàn đã nỗ lực giúp thiết lập một bộ định nghĩa chung về các thuật ngữ, khái niệm và quy trình để chúng ta có cơ sở hiểu biết để xây dựng. Theo cách này, các nhà nghiên cứu, chính phủ và các đồng nghiệp khác trong ngành đều có thể có cùng điểm khởi đầu trong các cuộc thảo luận về các vấn đề an toàn và quản trị AI.

Để hỗ trợ xây dựng sự hiểu biết chung, Diễn đàn cũng đang nỗ lực chia sẻ các thông lệ tốt nhất về nhóm đỏ trong toàn ngành. Để bắt đầu, Diễn đàn đã cùng nhau đưa ra định nghĩa chung về "nhóm đỏ" cho AI và một bộ các nghiên cứu trường hợp chung trong bản cập nhật nhóm làm việc mới (mở trong cửa sổ mới). Chúng tôi định nghĩa red teaming là một quy trình có cấu trúc để thăm dò các hệ thống và sản phẩm AI nhằm xác định các khả năng, đầu ra hoặc mối đe dọa về cơ sở hạ tầng có hại. Chúng tôi sẽ xây dựng dựa trên công việc này và cam kết hợp tác để tiếp tục các nỗ lực red teaming của mình.

Chúng tôi cũng đang phát triển một quy trình tiết lộ có trách nhiệm mới, theo đó các phòng thí nghiệm AI tiên phong có thể chia sẻ thông tin liên quan đến việc phát hiện ra các lỗ hổng hoặc khả năng có khả năng gây nguy hiểm trong các mô hình AI tiên phong—và các biện pháp giảm thiểu liên quan. Một số công ty của Frontier Model Forum đã phát hiện ra các khả năng, xu hướng và biện pháp giảm thiểu cho AI trong lĩnh vực an ninh quốc gia. Diễn đàn tin rằng nghiên cứu kết hợp của chúng tôi trong lĩnh vực này có thể đóng vai trò là một nghiên cứu điển hình về cách các phòng thí nghiệm AI tiên phong có thể tinh chỉnh và triển khai quy trình tiết lộ có trách nhiệm trong tương lai.

Tiếp theo là gì

Trong những tháng tới, Frontier Model Forum sẽ thành lập một Ban cố vấn để giúp định hướng chiến lược và ưu tiên của mình, đại diện cho nhiều góc nhìn và chuyên môn. Các bản phát hành và cập nhật trong tương lai, bao gồm cả thông tin cập nhật về các thành viên mới, sẽ đến trực tiếp từ Frontier Model Forum—vì vậy hãy theo dõi trang web của họ để biết thêm thông tin.

Quỹ An toàn AI sẽ phát hành lời kêu gọi đề xuất đầu tiên trong những tháng tới và chúng tôi hy vọng các khoản tài trợ sẽ được cấp ngay sau đó.

Diễn đàn Mô hình Biên giới cũng sẽ công bố thêm các phát hiện kỹ thuật khi có sẵn. 

Diễn đàn rất vui mừng được hợp tác với Meserole và tăng cường sự tham gia của chúng tôi với cộng đồng nghiên cứu rộng lớn hơn, bao gồm Quan hệ đối tác về AI (mở trong cửa sổ mới), MLCommons (mở trong cửa sổ mới)và các tổ chức phi chính phủ, chính phủ và đa quốc gia hàng đầu khác nhằm giúp hiện thực hóa lợi ích của AI đồng thời thúc đẩy phát triển và sử dụng AI một cách an toàn.

Xem thêm: mua tài khoản ChatGPT Plus chính hãng giá rẻ với nhiều ưu đãi đặc biệt hấp dẫn 

Hot Deal

Họ tên (*)

Số điện thoại (*)

Email (*)

Dịch vụ

Đăng ký để nhận bản tin mới nhất !