Tháng trước, chúng tôi đã bắt đầu cung cấp bản xem trước DALL·E 2 cho một số lượng người dùng đáng tin cậy để tìm hiểu về khả năng và hạn chế của công nghệ này.
Kể từ đó, chúng tôi đã làm việc với người dùng để tích cực kết hợp những bài học mà chúng tôi học được. Tính đến hôm nay:
+ Người dùng của chúng tôi đã cùng nhau tạo ra hơn 3 triệu hình ảnh bằng DALL·E.
+ Chúng tôi đã tăng cường hệ thống an toàn, cải thiện bộ lọc văn bản và điều chỉnh hệ thống phát hiện & phản hồi tự động để phát hiện các hành vi vi phạm chính sách nội dung.
+ Ít hơn 0,05% hình ảnh được tải xuống hoặc chia sẻ công khai bị gắn cờ là có khả năng vi phạm chính sách nội dung của chúng tôi. Khoảng 30% trong số những hình ảnh bị gắn cờ đó đã được người đánh giá xác nhận là vi phạm chính sách, dẫn đến việc hủy kích hoạt tài khoản.
+ Khi chúng tôi nỗ lực tìm hiểu và giải quyết những thành kiến mà DALL·E đã thừa hưởng từ dữ liệu đào tạo của mình, chúng tôi đã yêu cầu những người dùng đầu tiên không chia sẻ các thế hệ ảnh thực tế bao gồm khuôn mặt và đánh dấu các thế hệ có vấn đề. Chúng tôi tin rằng điều này có hiệu quả trong việc hạn chế tác hại tiềm ẩn và chúng tôi có kế hoạch tiếp tục thực hiện trong giai đoạn hiện tại.
Rút kinh nghiệm từ việc sử dụng thực tế là một phần quan trọng trong cam kết phát triển và triển khai AI một cách có trách nhiệm của chúng tôi, vì vậy chúng tôi đang bắt đầu mở rộng quyền truy cập cho những người dùng đã tham gia danh sách chờ, theo cách chậm nhưng chắc.
Chúng tôi dự định sẽ đưa tối đa 1.000 người lên tàu mỗi tuần khi chúng tôi lặp lại hệ thống an toàn của mình và yêu cầu tất cả người dùng tuân thủ chính sách nội dung của chúng tôi (mở trong cửa sổ mới). Chúng tôi hy vọng sẽ tăng tỷ lệ người dùng mới khi chúng tôi tìm hiểu thêm và tự tin hơn vào hệ thống an toàn của mình. Chúng tôi lấy cảm hứng từ những gì người dùng đã tạo ra với DALL·E cho đến nay và rất mong chờ xem những gì người dùng mới sẽ tạo ra.
Xem thêm: mua tài khoản ChatGPT Plus với nhiều ưu đãi đặc biệt