Nghiên cứu giải pháp văn bản
+ Nhóm của chúng tôi đã ưu tiên triển khai các giải pháp xuất xứ nội dung nghe nhìn, vốn được coi là có mức độ rủi ro cao hơn ở giai đoạn khả năng này của mô hình.
+ Chúng tôi cũng đã thực hiện nghiên cứu sâu rộng về lĩnh vực xuất xứ văn bản và đã khám phá một loạt các giải pháp, bao gồm phân loại, hình mờ và siêu dữ liệu. Bạn có thể đọc thêm về những nỗ lực này trong nghiên cứu điển hình này mà chúng tôi đã thực hiện với Đối tác về AI(mở trong cửa sổ mới).
+ Một số cập nhật về một số phương pháp mà chúng tôi hiện đang nghiên cứu và xem xét:
- Chèn hình mờ văn bản
- Nhóm của chúng tôi đã phát triển một phương pháp thêm hình mờ văn bản mà chúng tôi vẫn đang xem xét khi nghiên cứu các giải pháp thay thế.
- Mặc dù có độ chính xác cao và thậm chí hiệu quả trong việc chống lại hành vi giả mạo cục bộ, chẳng hạn như diễn đạt lại, nhưng lại kém hiệu quả hơn trong việc chống lại hành vi giả mạo toàn cầu; chẳng hạn như sử dụng hệ thống dịch, diễn đạt lại bằng một mô hình tạo sinh khác hoặc yêu cầu mô hình chèn một ký tự đặc biệt vào giữa mỗi từ rồi xóa ký tự đó - khiến kẻ xấu dễ dàng lách luật.
- Một rủi ro quan trọng khác mà chúng tôi đang cân nhắc là nghiên cứu của chúng tôi cho thấy phương pháp đóng dấu văn bản có khả năng tác động không cân xứng đến một số nhóm. Ví dụ, nó có thể kỳ thị việc sử dụng AI như một công cụ viết hữu ích cho những người không nói tiếng Anh bản xứ.
- Siêu dữ liệu văn bản
- Nhóm của chúng tôi cũng đang nghiên cứu cách sử dụng siêu dữ liệu như một phương pháp xác định nguồn gốc văn bản.
- Chúng tôi vẫn đang trong giai đoạn đầu của quá trình khám phá, vì vậy còn quá sớm để đánh giá mức độ hiệu quả của phương pháp này, nhưng có những đặc điểm của siêu dữ liệu khiến phương pháp này đặc biệt hứa hẹn.
- Ví dụ, không giống như watermarking, siêu dữ liệu được ký bằng mật mã, nghĩa là không có kết quả dương tính giả. Chúng tôi dự đoán điều này sẽ ngày càng quan trọng khi khối lượng văn bản được tạo ra tăng lên. Mặc dù watermarking văn bản có tỷ lệ dương tính giả thấp, nhưng việc áp dụng nó cho khối lượng văn bản lớn sẽ dẫn đến số lượng lớn kết quả dương tính giả.
Mở rộng các công cụ phát hiện hình ảnh của chúng tôi khi chúng tôi xây dựng các tính năng mới
+ Là một phần trong những nỗ lực liên tục của chúng tôi về nguồn gốc nội dung, chúng tôi đã nỗ lực đưa C2PA vào (mở trong cửa sổ mới)siêu dữ liệu – một tiêu chuẩn được sử dụng rộng rãi cho nội dung kỹ thuật số – khi chúng tôi cập nhật các tính năng trong sản phẩm của mình. Vì người dùng hiện có thể chỉnh sửa hình ảnh do DALL-E 3 tạo ra trong ChatGPT Plus, chúng tôi muốn đảm bảo rằng thông tin về nguồn gốc tiếp tục được chứng minh cùng với các chỉnh sửa đó. Nếu người dùng chỉnh sửa hình + ảnh, chúng tôi đã xây dựng một phương tiện để thông tin xác thực C2PA của mình cho thấy hình ảnh đã được chỉnh sửa và chỉnh sửa như thế nào.
+ Trong hình ảnh ví dụ, bạn có thể thấy hình ảnh gốc do AI tạo ra về một con sâu bướm, sau đó được chỉnh sửa để con sâu bướm đội mũ ông già Noel. Khi người dùng chỉnh sửa hình ảnh này, thông tin xác thực C2PA sẽ cập nhật để phản ánh những thay đổi này, đảm bảo tính minh bạch. Thông tin xác thực C2PA bao gồm các chi tiết như ứng dụng và công cụ được sử dụng (DALL-E của OpenAI), các hành động đã thực hiện (như chuyển đổi định dạng và chỉnh sửa) và các sửa đổi khác. Theo cách này, toàn bộ lịch sử của hình ảnh được theo dõi và hiển thị.
- Tài khoản ChatGPT 4 tại đây với nhiều ưu đãi hấp dẫn
Mọi người trên khắp thế giới đang áp dụng AI tạo sinh để tạo và chỉnh sửa hình ảnh, video và âm thanh theo cách thúc đẩy sự sáng tạo, năng suất và học tập. Khi nội dung nghe nhìn được tạo ra trở nên phổ biến hơn, chúng tôi tin rằng việc áp dụng công nghệ và tiêu chuẩn mới sẽ ngày càng quan trọng đối với toàn xã hội, giúp mọi người hiểu các công cụ được sử dụng để tạo nội dung họ tìm thấy trực tuyến.
Tại OpenAI, chúng tôi giải quyết thách thức này theo hai cách: đầu tiên, bằng cách hợp tác với những bên khác để áp dụng, phát triển và thúc đẩy một tiêu chuẩn mở có thể giúp mọi người xác minh các công cụ được sử dụng để tạo hoặc chỉnh sửa nhiều loại nội dung kỹ thuật số và thứ hai, bằng cách tạo ra công nghệ mới giúp mọi người xác định nội dung do chính các công cụ của chúng tôi tạo ra.
Góp phần vào tiêu chuẩn xác thực
Thế giới cần những cách chung để chia sẻ thông tin về cách tạo ra nội dung kỹ thuật số. Các tiêu chuẩn có thể giúp làm rõ cách tạo ra nội dung và cung cấp thông tin khác về nguồn gốc của nội dung theo cách dễ nhận biết trong nhiều tình huống — cho dù nội dung đó là đầu ra thô từ máy ảnh hay là tác phẩm nghệ thuật từ một công cụ như DALL·E 3.
Hôm nay, OpenAI đang tham gia Ủy ban chỉ đạo của C2PA – Liên minh về nguồn gốc và tính xác thực của nội dung. C2PA là một tiêu chuẩn được sử dụng rộng rãi để chứng nhận nội dung số, được phát triển và áp dụng bởi nhiều bên liên quan bao gồm các công ty phần mềm, nhà sản xuất máy ảnh và nền tảng trực tuyến. C2PA có thể được sử dụng để chứng minh nội dung đến từ một nguồn cụ thể. 1 Chúng tôi mong muốn được đóng góp vào quá trình phát triển tiêu chuẩn và coi đây là một khía cạnh quan trọng trong cách tiếp cận của mình.
Đầu năm nay, chúng tôi đã bắt đầu thêm siêu dữ liệu C2PA vào tất cả hình ảnh được tạo và chỉnh sửa bởi DALL·E 3, mô hình hình ảnh mới nhất của chúng tôi, trong ChatGPT và OpenAI API. Chúng tôi sẽ tích hợp siêu dữ liệu C2PA cho Sora, mô hình tạo video của chúng tôi, khi mô hình này cũng được ra mắt rộng rãi.
Mọi người vẫn có thể tạo nội dung lừa đảo mà không cần thông tin này (hoặc có thể xóa thông tin này), nhưng họ không thể dễ dàng làm giả hoặc thay đổi thông tin này, khiến nó trở thành một nguồn quan trọng để xây dựng lòng tin. Khi việc áp dụng tiêu chuẩn tăng lên, thông tin này có thể đi kèm với nội dung trong suốt vòng đời chia sẻ, sửa đổi và tái sử dụng của nó. Theo thời gian, chúng tôi tin rằng loại siêu dữ liệu này sẽ là thứ mà mọi người mong đợi, lấp đầy khoảng trống quan trọng trong các hoạt động xác thực nội dung kỹ thuật số.
Để thúc đẩy việc áp dụng và hiểu biết về các tiêu chuẩn xuất xứ - bao gồm C2PA - chúng tôi đang tham gia cùng Microsoft để ra mắt quỹ phục hồi xã hội (mở trong cửa sổ mới). Quỹ 2 triệu đô la này sẽ hỗ trợ giáo dục và hiểu biết về AI, bao gồm thông qua các tổ chức như Dịch vụ công nghệ dành cho người lớn tuổi từ AARP (mở trong cửa sổ mới), ý tưởng quốc tế (mở trong cửa sổ mới) và Quan hệ đối tác về AI (mở trong cửa sổ mới).
Những gì chúng tôi đang xây dựng: các công cụ mới để xác định nội dung được tạo bởi các dịch vụ của chúng tôi
Ngoài các khoản đầu tư của chúng tôi vào C2PA, OpenAI cũng đang phát triển các phương pháp xuất xứ mới để tăng cường tính toàn vẹn của nội dung kỹ thuật số. Điều này bao gồm việc triển khai hình mờ chống giả mạo – đánh dấu nội dung kỹ thuật số như âm thanh bằng tín hiệu vô hình nhằm mục đích khó xóa – cũng như các bộ phân loại phát hiện – các công cụ sử dụng trí tuệ nhân tạo để đánh giá khả năng nội dung có nguồn gốc từ các mô hình tạo sinh. Các công cụ này nhằm mục đích chống lại các nỗ lực xóa tín hiệu về nguồn gốc của nội dung.
Bắt đầu từ hôm nay, chúng tôi sẽ mở đơn đăng ký để truy cập vào trình phân loại phát hiện hình ảnh của OpenAI cho nhóm thử nghiệm đầu tiên của chúng tôi - bao gồm các phòng nghiên cứu và các tổ chức phi lợi nhuận về báo chí hướng đến nghiên cứu - để phản hồi thông qua Chương trình tiếp cận dành cho nhà nghiên cứu của chúng tôi(mở trong cửa sổ mới). Công cụ này dự đoán khả năng hình ảnh được tạo ra bởi DALL·E 3 của OpenAI. Mục tiêu của chúng tôi là cho phép nghiên cứu độc lập đánh giá hiệu quả của trình phân loại, phân tích ứng dụng thực tế của nó, đưa ra các cân nhắc có liên quan cho mục đích sử dụng đó và khám phá các đặc điểm của nội dung do AI tạo ra. Có thể nộp đơn xin cấp quyền truy cập tại đây (mở trong cửa sổ mới).
Hiểu được khi nào và ở đâu một trình phân loại có thể hoạt động kém hiệu quả là rất quan trọng đối với những người đưa ra quyết định dựa trên kết quả của nó. Việc thử nghiệm nội bộ trên phiên bản đầu tiên của trình phân loại của chúng tôi đã cho thấy độ chính xác cao trong việc phân biệt giữa hình ảnh không phải do AI tạo ra và hình ảnh do các sản phẩm DALL·E 3 tạo ra. Trình phân loại xác định chính xác hình ảnh do DALL·E 3 tạo ra và không kích hoạt đối với hình ảnh không phải do AI tạo ra. Nó đã xác định chính xác ~98% hình ảnh DALL·E 3 và ít hơn ~0,5% hình ảnh không phải do AI tạo ra được gắn thẻ không chính xác là từ DALL·E 3. Trình phân loại xử lý các sửa đổi phổ biến như nén, cắt xén và thay đổi độ bão hòa với tác động tối thiểu đến hiệu suất của nó. Tuy nhiên, các sửa đổi khác có thể làm giảm hiệu suất. Chúng tôi cũng thấy rằng hiệu suất của trình phân loại để phân biệt giữa hình ảnh do DALL·E 3 và các mô hình AI khác tạo ra thấp hơn và hiện tại trình phân loại đánh dấu ~5-10% hình ảnh do các mô hình AI khác tạo ra trên tập dữ liệu nội bộ của chúng tôi.
Ngoài ra, chúng tôi cũng đã tích hợp watermark âm thanh vào Voice Engine, mô hình giọng nói tùy chỉnh của chúng tôi, hiện đang trong giai đoạn xem trước nghiên cứu hạn chế. Chúng tôi cam kết tiếp tục nghiên cứu trong các lĩnh vực này để đảm bảo rằng những tiến bộ của chúng tôi trong công nghệ âm thanh cũng minh bạch và an toàn như nhau.
Bước tiếp theo cho xác thực nội dung
Trong khi các giải pháp kỹ thuật như trên cung cấp cho chúng ta các công cụ chủ động để phòng thủ, việc thực hiện hiệu quả tính xác thực của nội dung trong thực tế sẽ đòi hỏi hành động tập thể. Ví dụ, các nền tảng, người tạo nội dung và người xử lý trung gian cần tạo điều kiện lưu giữ siêu dữ liệu để cho phép người tiêu dùng nội dung cuối cùng minh bạch về nguồn gốc của nội dung.
Những nỗ lực của chúng tôi xung quanh nguồn gốc chỉ là một phần trong nỗ lực rộng lớn hơn của ngành – nhiều phòng nghiên cứu ngang hàng và các công ty AI tạo ra của chúng tôi cũng đang thúc đẩy nghiên cứu trong lĩnh vực này. Chúng tôi khen ngợi những nỗ lực này—ngành phải hợp tác và chia sẻ hiểu biết để nâng cao hiểu biết của chúng tôi và tiếp tục thúc đẩy tính minh bạch trực tuyến.
Xem thêm: mua tài khoản ChatGPT Plus chính hãng giá rẻ