zalo
Chat ngay

Tại sao phát triển AI có trách nhiệm cần hợp tác về an toàn

Chúng tôi đã viết một bài nghiên cứu chính sách xác định bốn chiến lược có thể được sử dụng ngày nay để cải thiện khả năng hợp tác lâu dài của ngành về các chuẩn mực an toàn trong AI: truyền đạt rủi ro và lợi ích, hợp tác kỹ thuật, tăng cường minh bạch và khuyến khích các tiêu chuẩn. Phân tích của chúng tôi cho thấy rằng hợp tác của ngành về vấn đề an toàn sẽ đóng vai trò quan trọng trong việc đảm bảo rằng các hệ thống AI an toàn và có lợi, nhưng áp lực cạnh tranh có thể dẫn đến vấn đề hành động tập thể, có khả năng khiến các công ty AI đầu tư không đủ vào vấn đề an toàn. Chúng tôi hy vọng những chiến lược này sẽ khuyến khích hợp tác nhiều hơn về sự phát triển an toàn của AI và dẫn đến kết quả toàn cầu tốt hơn của AI.

Điều quan trọng là phải đảm bảo rằng việc xây dựng và phát hành các hệ thống AI an toàn, bảo mật và có lợi cho xã hội là vì lợi ích kinh tế của các công ty. Điều này đúng ngay cả khi chúng ta nghĩ rằng các công ty AI và nhân viên của họ có mong muốn độc lập để làm điều này, vì các hệ thống AI có nhiều khả năng an toàn và có lợi hơn nếu lợi ích kinh tế của các công ty AI không xung đột với mong muốn xây dựng hệ thống của họ một cách có trách nhiệm.

Xem thêm: mua tài khoản ChatGPT 4 chính hãng giá rẻ

Yêu cầu này có vẻ thừa vì việc phát triển và triển khai các sản phẩm không gây rủi ro cho xã hội thường là vì lợi ích kinh tế của công ty. Ví dụ, mọi người sẽ không trả nhiều tiền cho một chiếc ô tô không có phanh hoạt động. Nhưng nếu nhiều công ty đang cố gắng phát triển một sản phẩm tương tự, họ có thể cảm thấy áp lực phải đưa sản phẩm ra thị trường, dẫn đến ít công việc an toàn hơn trước khi phát hành.

Những vấn đề như vậy thường phát sinh trong bối cảnh mà quy định bên ngoài yếu hoặc không tồn tại. Quy định phù hợp đối với hàng hóa và dịch vụ được cung cấp trên thị trường có thể làm giảm tình trạng cắt góc về an toàn. Điều này có thể mang lại lợi ích cho người sử dụng hàng hóa và dịch vụ cũng như bản thân ngành - ngành hàng không nói chung được hưởng lợi về mặt thương mại từ thực tế là các chính phủ trên khắp thế giới luôn cảnh giác về vấn đề an toàn, chẳng hạn, và khi xảy ra sự cố, chúng luôn được điều tra chi tiết. Tuy nhiên, các cơ chế quản lý thông thường có thể kém hiệu quả hơn trong việc giải quyết AI do tốc độ phát triển của công nghệ và sự bất đối xứng thông tin lớn giữa các nhà phát triển và cơ quan quản lý. Bài báo của chúng tôi khám phá những yếu tố nào có thể thúc đẩy hoặc kìm hãm sự vội vã triển khai như vậy và đề xuất các chiến lược để cải thiện sự hợp tác giữa các nhà phát triển AI. Các nhà phát triển "hợp tác" không phải bằng cách ngừng cạnh tranh mà bằng cách thực hiện các biện pháp phòng ngừa an toàn phù hợp và họ có nhiều khả năng làm như vậy nếu họ tin rằng các đối thủ cạnh tranh của mình cũng sẽ làm như vậy.

Cần có hành động tập thể về an toàn

Nếu các công ty phản ứng với áp lực cạnh tranh bằng cách đưa công nghệ ra thị trường trước khi nó được coi là an toàn, họ sẽ thấy mình đang ở trong một vấn đề hành động tập thể. Ngay cả khi mỗi công ty muốn cạnh tranh để phát triển và phát hành các hệ thống an toàn, nhiều người tin rằng họ không đủ khả năng làm như vậy vì họ có thể bị các công ty khác đánh bại để đưa ra thị trường. Các vấn đề như thế này có thể được giảm thiểu bằng cách hợp tác chặt chẽ hơn trong ngành về vấn đề an toàn. Các công ty AI có thể làm việc để phát triển các chuẩn mực và tiêu chuẩn của ngành đảm bảo các hệ thống chỉ được phát triển và phát hành nếu chúng an toàn và có thể đồng ý đầu tư nguồn lực vào vấn đề an toàn trong quá trình phát triển và đáp ứng  các tiêu chuẩn phù hợp trước khi phát hành.

Một số tình huống giả định:

Một công ty phát triển một mô hình nhận dạng hình ảnh có hiệu suất rất cao và đang gấp rút triển khai ở quy mô lớn, nhưng các kỹ sư tại công ty vẫn chưa đánh giá đầy đủ hiệu suất của hệ thống trong thế giới thực. Công ty cũng biết rằng họ thiếu các tiêu chuẩn thử nghiệm đầy đủ để biết toàn bộ "bề mặt khả năng" của mô hình. Tuy nhiên, do lo sợ bị các đối thủ cạnh tranh trong một phân khúc cụ thể đánh bại trên thị trường, công ty vẫn tiến lên, đánh cược rằng thử nghiệm nội bộ hạn chế của họ sẽ đủ để phòng ngừa bất kỳ lỗi hệ thống lớn nào hoặc phản ứng dữ dội của công chúng.

Một công ty muốn triển khai một số phần mềm AI bán tự động lên các rô-bốt vật lý, chẳng hạn như máy bay không người lái. Phần mềm này có tỷ lệ lỗi đáp ứng các tiêu chí theo quy định, nhưng vì công ty đang chạy đua để đưa công nghệ ra thị trường nên họ biết rằng tính năng "có thể diễn giải" phổ biến của sản phẩm của họ đưa ra những lời giải thích gây hiểu lầm, nhằm mục đích trấn an nhiều hơn là làm rõ. Do trình độ chuyên môn hạn chế của các cơ quan quản lý, hành vi sai trái này bị bỏ qua cho đến khi xảy ra sự cố thảm khốc, cũng giống như hành vi tương tự của các công ty khác đang chạy đua để triển khai các hệ thống "có thể diễn giải" tương tự.

Một số vấn đề hành động tập thể có thể giải quyết được hơn những vấn đề khác. Nhìn chung, một vấn đề hành động tập thể có thể giải quyết được hơn nếu lợi ích mong đợi của việc hợp tác lớn hơn lợi ích mong đợi của việc không hợp tác. Các yếu tố có liên quan sau đây làm tăng lợi ích mong đợi của việc hợp tác:

Niềm tin cao

Các công ty có nhiều khả năng hợp tác về vấn đề an toàn hơn nếu họ có thể tin tưởng rằng các công ty khác sẽ đáp lại bằng cách hướng tới một tiêu chuẩn an toàn tương tự. Trong số những điều khác, sự tin tưởng rằng những công ty khác sẽ phát triển AI một cách an toàn có thể được thiết lập bằng cách tăng tính minh bạch về các nguồn lực được đầu tư vào vấn đề an toàn, bằng cách công khai cam kết đáp ứng tiêu chuẩn an toàn cao và bằng cách tham gia vào công việc chung để tìm ra các chuẩn mực an toàn có thể chấp nhận được.

Chia sẻ Upside

Các công ty có động lực mạnh mẽ hơn để hợp tác về an toàn nếu lợi ích chung từ phát triển an toàn cao hơn. Triển vọng hợp tác có thể được cải thiện bằng cách nêu bật những lợi ích của việc thiết lập các chuẩn mực an toàn tốt ngay từ đầu, chẳng hạn như ngăn ngừa các sự cố AI bị lỗi và sử dụng sai mục đích, và thiết lập các tiêu chuẩn an toàn dựa trên sự hiểu biết chung về các hệ thống AI mới nổi. Những nỗ lực hợp tác như  Risk Salon, nơi tổ chức các sự kiện cho những người làm việc trong lĩnh vực gian lận, rủi ro và tuân thủ, là một ví dụ điển hình. Các sự kiện này tạo điều kiện cho các cuộc thảo luận cởi mở giữa những người tham gia từ các công ty khác nhau và có vẻ như chủ yếu được thúc đẩy bởi lợi ích chung của các chiến lược giảm thiểu rủi ro được cải thiện.

Độ phơi sáng thấp

Giảm thiểu những tác hại mà các công ty mong đợi phải gánh chịu nếu một công ty khác quyết định không hợp tác về vấn đề an toàn sẽ làm tăng khả năng bản thân họ sẽ tuân thủ các tiêu chuẩn an toàn. Có thể giảm thiểu sự phơi bày bằng cách ngăn chặn các hành vi vi phạm tiêu chuẩn an toàn (ví dụ như báo cáo các hành vi vi phạm) hoặc bằng cách cung cấp bằng chứng về các rủi ro tiềm ẩn liên quan đến các hệ thống không đáp ứng các tiêu chuẩn có liên quan. Ví dụ, khi phải đáp ứng các tiêu chuẩn để tham gia vào một thị trường, các công ty sẽ không mất mát nhiều nếu những công ty khác không đáp ứng các tiêu chuẩn đó. Để tuân thủ  chỉ thị RoHS, các nhà sản xuất thiết bị điện tử đã phải chuyển sang hàn không chì để bán sản phẩm của họ tại EU. Khả năng một nhà sản xuất tiếp tục sử dụng hàn chì sẽ không ảnh hưởng nhiều đến việc hợp tác với các nỗ lực giảm chì, vì việc họ không tuân thủ sẽ không gây tốn kém cho các nhà sản xuất khác.

Lợi thế thấp

Giảm bất kỳ lợi thế nào mà các công ty có thể mong đợi nhận được khi không hợp tác về an toàn sẽ làm tăng sự tuân thủ chung đối với các tiêu chuẩn an toàn. Ví dụ, các công ty sản xuất đầu nối USB không mong đợi sẽ đạt được nhiều lợi ích từ việc đi chệch khỏi các tiêu chuẩn đầu nối USB, vì làm như vậy sẽ khiến sản phẩm của họ không tương thích với hầu hết các thiết bị. Khi các tiêu chuẩn đã được thiết lập và việc đi chệch khỏi chúng tốn kém hơn bất kỳ lợi ích nào, thì lợi thế là thấp. Trong bối cảnh AI, việc giảm chi phí và khó khăn trong việc thực hiện các biện pháp phòng ngừa an toàn sẽ giúp giảm thiểu sự cám dỗ bỏ qua chúng. Ngoài ra, chính phủ có thể thúc đẩy một môi trường quản lý trong đó vi phạm các tiêu chuẩn an toàn có rủi ro cao bị cấm.

Chia sẻ nhược điểm

Việc xác định những cách mà các hệ thống AI có thể thất bại nếu không có các biện pháp phòng ngừa đầy đủ có thể làm tăng khả năng các công ty AI sẽ đồng ý không phát triển hoặc phát hành các hệ thống như vậy. Những nhược điểm chung khuyến khích sự hợp tác khi những thất bại đặc biệt có hại: đặc biệt là nếu chúng được toàn bộ ngành công nghiệp cảm nhận (ví dụ như làm tổn hại đến lòng tin của công chúng vào toàn bộ ngành công nghiệp). Ví dụ, sau sự cố Three Mile Island, ngành công nghiệp điện hạt nhân đã tạo ra và tài trợ cho  INPO, một cơ quan quản lý tư nhân có khả năng đánh giá các nhà máy và chia sẻ kết quả đánh giá này trong ngành nhằm cải thiện an toàn vận hành.

Các vấn đề hành động tập thể dễ bị xoắn ốc tiêu cực khi mất lòng tin khiến một bên ngừng hợp tác, khiến các bên khác ngừng hợp tác. Đồng thời, cũng có thể tạo ra các xoắn ốc tích cực khi phát triển lòng tin khiến một số bên hợp tác, dẫn đến các bên khác hợp tác.

Chiến lược hợp tác

Chúng tôi đã tìm ra bốn chiến lược có thể được sử dụng ngày nay để cải thiện khả năng hợp tác về các tiêu chuẩn và chuẩn mực an toàn trong AI. Đó là:

Thúc đẩy niềm tin chính xác về các cơ hội hợp tác

Truyền đạt các rủi ro về an toàn và bảo mật liên quan đến AI, chỉ ra các bước cụ thể có thể được thực hiện để thúc đẩy hợp tác về an toàn và phổ biến những mối quan tâm chung về an toàn.

Hợp tác giải quyết các thách thức chung về nghiên cứu và kỹ thuật

Tham gia vào nghiên cứu liên ngành chung nhằm thúc đẩy sự an toàn và có lợi cho việc thúc đẩy sự hợp tác chặt chẽ (ví dụ: công việc liên quan đến việc kết hợp các lĩnh vực chuyên môn bổ sung).

Mở rộng thêm nhiều khía cạnh phát triển AI để có thể giám sát và phản hồi phù hợp

Công khai các quy tắc ứng xử, tăng tính minh bạch trong việc ra quyết định liên quan đến xuất bản và, với điều kiện là các vấn đề về bảo mật và sở hữu trí tuệ được giải quyết, mở rộng phạm vi giám sát các hệ thống AI riêng lẻ.

Khuyến khích tuân thủ các tiêu chuẩn an toàn cao

Khen ngợi những người tuân thủ các tiêu chuẩn an toàn, chỉ trích những thất bại trong việc đảm bảo các hệ thống được phát triển an toàn và ủng hộ các động cơ kinh tế, pháp lý hoặc toàn ngành để tuân thủ các tiêu chuẩn an toàn.

Chúng tôi cho rằng các vấn đề hành động tập thể có thể là nguồn chính gây ra các thách thức về chính sách khi các hệ thống AI ngày càng trở nên mạnh mẽ. Phân tích này tập trung vào các vai trò mà ngành công nghiệp có thể đóng góp trong việc ngăn ngừa các vấn đề như vậy, nhưng chúng tôi dự đoán rằng các cơ chế pháp lý và chính trị cũng sẽ đóng vai trò quan trọng trong việc ngăn ngừa và giảm thiểu các vấn đề này. Chúng tôi cũng dự đoán rằng việc xác định các cơ chế tương tự để cải thiện sự hợp tác về an toàn AI giữa các quốc gia và với các tác nhân phi ngành công nghiệp khác sẽ ngày càng quan trọng trong những năm tới. Có rất nhiều sự không chắc chắn về những thách thức mà các hệ thống AI trong tương lai có thể đặt ra, nhưng chúng tôi tin rằng việc khuyến khích sự hợp tác lớn hơn về sự phát triển an toàn của AI có khả năng sẽ có tác động tích cực đến kết quả của sự phát triển AI.

Mặc dù chúng tôi thừa nhận rằng những thách thức như vậy tồn tại, chúng tôi ủng hộ việc lập bản đồ toàn diện hơn về các khả năng hợp tác xuyên biên giới tổ chức và quốc gia, đặc biệt chú ý đến các thách thức về nghiên cứu và kỹ thuật mà các giải pháp có thể có ích rộng rãi. Các lĩnh vực cần xem xét có thể bao gồm nghiên cứu chung về xác minh chính thức khả năng của hệ thống AI và các khía cạnh khác về an toàn và bảo mật AI với nhiều ứng dụng; nhiều dự án "AI vì mục đích tốt" ứng dụng có kết quả có thể có nhiều ứng dụng rộng rãi và phần lớn là tích cực (ví dụ trong các lĩnh vực như tính bền vững và sức khỏe); và phát triển chung các biện pháp đối phó với các mối đe dọa liên quan đến AI toàn cầu như việc sử dụng sai phương tiện truyền thông tổng hợp trực tuyến. Để đạt được sự hợp tác lớn hơn về an toàn, chúng ta cần phải phổ biến kiến ​​thức rằng sự hợp tác đó vì lợi ích của mọi người và các phương pháp để đạt được điều đó có thể được xác định, nghiên cứu và triển khai ngay hôm nay.

Hot Deal

Họ tên (*)

Số điện thoại (*)

Email (*)

Dịch vụ

Đăng ký để nhận bản tin mới nhất !