zalo
Chat ngay

Cam kết của OpenAI về an toàn cho trẻ em: áp dụng các nguyên tắc an toàn theo thiết kế

Chúng tôi đang tham gia cùng Thorn, All Tech Is Human và các công ty hàng đầu khác trong nỗ lực ngăn chặn việc sử dụng sai mục đích AI để thực hiện, phát tán và gây ra các tác hại tình dục khác đối với trẻ em

OpenAI, cùng với các công ty hàng đầu trong ngành bao gồm Amazon, Anthropic, Civitai, Google, Meta, Metaphysic, Microsoft, Mistral AI và Stability AI, đã cam kết thực hiện các biện pháp an toàn cho trẻ em mạnh mẽ trong quá trình phát triển, triển khai và duy trì các công nghệ AI tạo ra như được nêu trong các nguyên tắc An toàn theo Thiết kế. Sáng kiến ​​này, do Thorn dẫn đầu, một tổ chức phi lợi nhuận chuyên bảo vệ trẻ em khỏi bị lạm dụng tình dục và All Tech Is Human, một tổ chức chuyên giải quyết các vấn đề phức tạp của công nghệ và xã hội, nhằm mục đích giảm thiểu rủi ro mà AI tạo ra đối với trẻ em. Bằng cách áp dụng các nguyên tắc toàn diện về An toàn theo Thiết kế, OpenAI và các đồng nghiệp của chúng tôi đang đảm bảo rằng sự an toàn của trẻ em được ưu tiên ở mọi giai đoạn phát triển AI. Cho đến nay, chúng tôi đã nỗ lực đáng kể để giảm thiểu khả năng các mô hình của mình tạo ra nội dung gây hại cho trẻ em, đặt ra các giới hạn độ tuổi cho tài khoản Chat GPT Plus và tích cực hợp tác với Trung tâm quốc gia về trẻ em mất tích và bị bóc lột (NCMEC), Liên minh công nghệ và các bên liên quan khác trong chính phủ và ngành về các vấn đề bảo vệ trẻ em và cải tiến cơ chế báo cáo.

Là một phần của nỗ lực Thiết kế An toàn này, chúng tôi cam kết:

Phát triển: Phát triển, xây dựng và đào tạo các mô hình AI tạo ra khả năng chủ động giải quyết các rủi ro liên quan đến an toàn của trẻ em.

+ Có trách nhiệm cung cấp nguồn dữ liệu đào tạo, phát hiện và xóa tài liệu lạm dụng tình dục trẻ em (CSAM) và tài liệu bóc lột tình dục trẻ em (CSEM) khỏi dữ liệu đào tạo và báo cáo bất kỳ CSAM nào được xác nhận cho các cơ quan có thẩm quyền.

+ Kết hợp các vòng phản hồi và chiến lược kiểm tra ứng suất lặp đi lặp lại vào quy trình phát triển của chúng tôi.

+ Triển khai các giải pháp để giải quyết tình trạng sử dụng sai mục đích.

Triển khai: Phát hành và phân phối các mô hình AI tạo sinh sau khi chúng được đào tạo và đánh giá về tính an toàn cho trẻ em, cung cấp biện pháp bảo vệ trong suốt quá trình.

Xem thêm: mua tài khoản ChatGPT 4 chính hãng giá rẻ

+ Chống lại và ứng phó với nội dung và hành vi lạm dụng, đồng thời kết hợp các nỗ lực phòng ngừa.

+ Khuyến khích nhà phát triển sở hữu vấn đề an toàn theo thiết kế.

Duy trì: Duy trì sự an toàn của mô hình và nền tảng bằng cách tiếp tục chủ động tìm hiểu và ứng phó với các rủi ro về an toàn cho trẻ em.

+ Cam kết loại bỏ AIG-CSAM mới do những kẻ xấu tạo ra khỏi nền tảng của chúng tôi.

+ Đầu tư vào nghiên cứu và các giải pháp công nghệ tương lai.

+ Chống lại CSAM, AIG-CSAM và CSEM trên nền tảng của chúng tôi.

Cam kết này đánh dấu một bước quan trọng trong việc ngăn chặn việc sử dụng sai công nghệ AI để tạo ra hoặc phát tán tài liệu lạm dụng tình dục trẻ em (AIG-CSAM) và các hình thức xâm hại tình dục khác đối với trẻ em. Là một phần của nhóm làm việc, chúng tôi cũng đã đồng ý phát hành các bản cập nhật tiến độ hàng năm.

“Chúng tôi rất quan tâm đến sự an toàn và việc sử dụng có trách nhiệm các công cụ của mình, đó là lý do tại sao chúng tôi đã xây dựng các biện pháp an toàn và rào chắn vững chắc vào ChatGPT và DALL-E. Chúng tôi cam kết hợp tác với Thorn, All Tech is Human và cộng đồng công nghệ rộng lớn hơn để duy trì các nguyên tắc An toàn theo Thiết kế và tiếp tục công việc của chúng tôi trong việc giảm thiểu các tác hại tiềm ẩn đối với trẻ em.”
Chelsea Carlson, An toàn trẻ em TPM 
Hot Deal

Họ tên (*)

Số điện thoại (*)

Email (*)

Dịch vụ

Đăng ký để nhận bản tin mới nhất !