zalo
Chat ngay

Chuẩn bị cho việc sử dụng AI có mục đích xấu

Chúng tôi đã đồng sáng tác một bài báo dự báo cách những kẻ xấu có thể sử dụng sai công nghệ AI và những cách tiềm năng để chúng ta có thể ngăn ngừa và giảm thiểu những mối đe dọa này. Bài báo này là kết quả của gần một năm làm việc bền bỉ với các đồng nghiệp của chúng tôi tại Viện Tương lai của Nhân loại, Trung tâm Nghiên cứu Rủi ro Hiện sinh, Trung tâm An ninh Hoa Kỳ Mới, Quỹ Biên giới Điện tử và các tổ chức khác.

AI thách thức an ninh toàn cầu vì nó làm giảm chi phí thực hiện nhiều cuộc tấn công hiện có, tạo ra các mối đe dọa và lỗ hổng mới, và làm phức tạp thêm việc xác định các cuộc tấn công cụ thể. Với những thay đổi trong bối cảnh đe dọa mà AI dường như mang lại, báo cáo đưa ra một số khuyến nghị cấp cao mà các công ty, tổ chức nghiên cứu, cá nhân hành nghề và chính phủ có thể thực hiện để đảm bảo một thế giới an toàn hơn:

+ Thừa nhận bản chất sử dụng kép của AI : AI là công nghệ có khả năng ứng dụng cực kỳ tích cực và cực kỳ tiêu cực. Chúng ta nên thực hiện các bước như một cộng đồng để đánh giá tốt hơn các dự án nghiên cứu về sự biến thái của các tác nhân độc hại và tham gia với các nhà hoạch định chính sách để hiểu các lĩnh vực đặc biệt nhạy cảm. Như chúng tôi đã viết trong bài báo: "Các công cụ giám sát có thể được sử dụng để bắt những kẻ khủng bố hoặc đàn áp những người dân thường. Các bộ lọc nội dung thông tin có thể được sử dụng để chôn vùi tin tức giả mạo hoặc thao túng dư luận. Chính phủ và các tác nhân tư nhân có quyền lực sẽ có quyền truy cập vào nhiều công cụ AI này và có thể sử dụng chúng vì lợi ích hoặc gây hại cho công chúng". Một số giải pháp tiềm năng cho những vấn đề này bao gồm đánh giá rủi ro trước khi công bố đối với một số phần nghiên cứu nhất định, chia sẻ có chọn lọc một số loại nghiên cứu có thành phần an toàn hoặc bảo mật đáng kể trong một nhóm nhỏ các tổ chức đáng tin cậy và khám phá cách đưa các chuẩn mực vào cộng đồng khoa học để phản ứng với các mối quan tâm về sử dụng kép.

+ Học hỏi từ an ninh mạng : Cộng đồng an ninh máy tính đã phát triển nhiều hoạt động khác nhau có liên quan đến các nhà nghiên cứu AI, mà chúng ta nên cân nhắc áp dụng trong nghiên cứu của riêng mình. Những hoạt động này bao gồm từ “red teaming” bằng cách cố ý cố gắng phá vỡ hoặc phá hoại hệ thống, đến đầu tư vào dự báo công nghệ để phát hiện các mối đe dọa trước khi chúng xuất hiện, đến các quy ước xung quanh việc báo cáo bí mật các lỗ hổng được phát hiện trong các hệ thống AI, v.v.

+ Mở rộng thảo luận : AI sẽ thay đổi bối cảnh đe dọa toàn cầu, vì vậy chúng ta nên đưa nhiều thành phần xã hội tham gia thảo luận. Các bên có thể bao gồm những người tham gia vào xã hội dân sự, chuyên gia an ninh quốc gia, doanh nghiệp, nhà đạo đức học, công chúng nói chung và các nhà nghiên cứu khác.

Giống như công trình của chúng tôi về  các vấn đề cụ thể trong an toàn AI, chúng tôi đã đưa một số vấn đề phát sinh do việc sử dụng AI một cách ác ý vào các tình huống cụ thể, chẳng hạn như: quảng cáo thuyết phục do hệ thống AI tạo ra được sử dụng để nhắm mục tiêu vào người quản trị hệ thống bảo mật; tội phạm mạng sử dụng mạng nơ-ron và các kỹ thuật "làm mờ" để tạo ra vi-rút máy tính có khả năng tự động khai thác; kẻ xấu tấn công một rô-bốt vệ sinh để nó mang theo chất nổ đến một VIP; và các quốc gia bất hảo sử dụng hệ thống giám sát tăng cường AI ở khắp mọi nơi để bắt giữ trước những người phù hợp với hồ sơ rủi ro dự đoán.

Chúng tôi rất vui mừng khi bắt đầu thảo luận này với các đồng nghiệp, nhà hoạch định chính sách và công chúng nói chung; chúng tôi đã dành hai năm qua để nghiên cứu và củng cố các chính sách nội bộ của mình tại OpenAI và sẽ bắt đầu thu hút nhiều đối tượng hơn vào các vấn đề này. Chúng tôi đặc biệt mong muốn làm việc với nhiều nhà nghiên cứu hơn, những người thấy mình đang đóng góp vào các cuộc tranh luận về chính sách xung quanh AI cũng như tạo ra những đột phá trong nghiên cứu.

Xem thêm: mua tài khoản ChatGPT Plus chính hãng giá rẻ!

Hot Deal

Họ tên (*)

Số điện thoại (*)

Email (*)

Dịch vụ

Đăng ký để nhận bản tin mới nhất !