zalo
Chat ngay

OpenAI đang tiếp cận cuộc bầu cử toàn cầu năm 2024 như thế nào

Chúng tôi đang nỗ lực ngăn chặn tình trạng lạm dụng, cung cấp tính minh bạch về nội dung do AI tạo ra và cải thiện khả năng tiếp cận thông tin bỏ phiếu chính xác

Là một phần trong công việc đang diễn ra của chúng tôi nhằm thúc đẩy tính minh bạch xung quanh nội dung AI trong năm bầu cử quan trọng này, gần đây chúng tôi đã bắt đầu cung cấp cho các nhà nghiên cứu quyền truy cập sớm vào một công cụ mới có thể giúp xác định hình ảnh được tạo bởi DALL·E 3 của OpenAI. Chúng tôi cũng đã tham gia Ủy ban chỉ đạo của C2PA – Liên minh về nguồn gốc và tính xác thực của nội dung. C2PA là một tiêu chuẩn được sử dụng rộng rãi để chứng nhận nội dung kỹ thuật số, được phát triển và áp dụng bởi nhiều bên liên quan bao gồm các công ty phần mềm, nhà sản xuất máy ảnh và nền tảng trực tuyến. 

Tiếp nối nỗ lực hướng mọi người đến các nguồn thông tin đáng tin cậy về việc bỏ phiếu tại Hoa Kỳ, chúng tôi đã giới thiệu một trải nghiệm mới trước thềm cuộc bầu cử năm 2024 của Nghị viện châu Âu. ChatGPT hiện hướng người dùng đến nguồn thông tin bỏ phiếu chính thức của Nghị viện châu Âu, elections.europa.eu, khi được hỏi một số câu hỏi nhất định về quá trình bầu cử như bỏ phiếu ở đâu. Điều này tương tự như sự hợp tác của chúng tôi với Hiệp hội các Bộ trưởng Ngoại giao Quốc gia (NASS) cho cuộc bầu cử Tổng thống Hoa Kỳ năm 2024.

Xem thêm: mua tài khoản ChatGPT Plus chính hãng giá rẻ với nhiều ưu đãi hấp dẫn!

Ngoài các bước chúng tôi đang thực hiện tại OpenAI, chúng tôi tin rằng có một vai trò quan trọng đối với các chính phủ. Hôm nay chúng tôi đang ủng hộ " Đạo luật Bảo vệ Bầu cử khỏi AI Lừa đảo", một dự luật lưỡng đảng do các Thượng nghị sĩ Klobuchar, Hawley, Coons, Collins, Ricketts và Bennet đề xuất tại Thượng viện Hoa Kỳ. Dự luật sẽ cấm phân phối âm thanh, hình ảnh hoặc video lừa đảo do AI tạo ra liên quan đến các ứng cử viên liên bang trong quảng cáo chính trị, đồng thời bao gồm các ngoại lệ quan trọng để bảo vệ quyền của Tu chính án thứ nhất. Chúng tôi không muốn công nghệ của mình – hoặc bất kỳ công nghệ AI nào – được sử dụng để lừa dối cử tri và chúng tôi tin rằng luật này là một bước quan trọng để giải quyết thách thức này trong bối cảnh quảng cáo chính trị.

Việc bảo vệ tính toàn vẹn của các cuộc bầu cử đòi hỏi sự hợp tác từ mọi phía trong tiến trình dân chủ và chúng tôi muốn đảm bảo rằng công nghệ của mình không bị sử dụng theo cách có thể làm suy yếu tiến trình này. 

Các công cụ của chúng tôi giúp mọi người cải thiện cuộc sống hàng ngày và giải quyết các vấn đề phức tạp—từ việc sử dụng AI để nâng cao các dịch vụ của nhà nước để đơn giản hóa các biểu mẫu y tế cho bệnh nhân.

Chúng tôi muốn đảm bảo rằng các hệ thống AI của chúng tôi được xây dựng, triển khai và sử dụng một cách an toàn . Giống như bất kỳ công nghệ mới nào, các công cụ này đi kèm với những lợi ích và thách thức. Chúng cũng chưa từng có và chúng tôi sẽ tiếp tục phát triển phương pháp tiếp cận của mình khi chúng tôi tìm hiểu thêm về cách sử dụng các công cụ của mình.

Khi chúng tôi chuẩn bị cho cuộc bầu cử năm 2024 trên khắp các nền dân chủ lớn nhất thế giới, cách tiếp cận của chúng tôi là tiếp tục công việc bảo mật nền tảng của mình bằng cách nâng cao thông tin bỏ phiếu chính xác, thực thi các chính sách được cân nhắc và cải thiện tính minh bạch. Chúng tôi có một nỗ lực liên chức năng dành riêng cho công tác bầu cử, tập hợp chuyên môn từ các nhóm hệ thống an toàn, tình báo về mối đe dọa, pháp lý, kỹ thuật và chính sách của chúng tôi để nhanh chóng điều tra và giải quyết tình trạng lạm dụng tiềm ẩn. 

Ngăn ngừa lạm dụng

Chúng tôi mong đợi và hướng đến mục tiêu là mọi người sử dụng các công cụ của chúng tôi một cách an toàn và có trách nhiệm, và các cuộc bầu cử cũng không ngoại lệ. Chúng tôi nỗ lực để dự đoán và ngăn chặn các hành vi lạm dụng có liên quan—chẳng hạn như "deepfake" gây hiểu lầm, các hoạt động gây ảnh hưởng theo quy mô hoặc các chatbot mạo danh ứng cử viên. Trước khi phát hành các hệ thống mới, chúng tôi lập nhóm đỏ, thu hút người dùng và các đối tác bên ngoài để phản hồi và xây dựng các biện pháp giảm thiểu an toàn để giảm khả năng gây hại. Trong nhiều năm, chúng tôi đã lặp lại các công cụ để cải thiện độ chính xác về mặt thực tế, giảm sự thiên vị và từ chối một số yêu cầu nhất định. Các công cụ này cung cấp nền tảng vững chắc cho công việc của chúng tôi xung quanh tính toàn vẹn của cuộc bầu cử. Ví dụ, DALL·E có các rào cản để từ chối các yêu cầu yêu cầu tạo hình ảnh của người thật, bao gồm cả ứng cử viên.

Chúng tôi thường xuyên tinh chỉnh Chính sách sử dụng của mình cho ChatGPT và API khi chúng tôi tìm hiểu thêm về cách mọi người sử dụng hoặc cố gắng lạm dụng công nghệ của chúng tôi. Một số điểm cần lưu ý cho các cuộc bầu cử: 

+ Chúng tôi vẫn đang nỗ lực để hiểu được mức độ hiệu quả của các công cụ của chúng tôi đối với việc thuyết phục cá nhân. Cho đến khi chúng tôi biết nhiều hơn, chúng tôi không cho phép mọi người xây dựng các ứng dụng cho chiến dịch chính trị và vận động hành lang. 

+ Mọi người muốn biết và tin tưởng rằng họ đang tương tác với một người, doanh nghiệp hoặc chính phủ thực sự. Vì lý do đó, chúng tôi không cho phép các nhà xây dựng tạo ra các chatbot giả mạo là người thật (ví dụ: ứng viên) hoặc các tổ chức (ví dụ: chính quyền địa phương). 

+ Chúng tôi không cho phép các ứng dụng ngăn cản mọi người tham gia vào các quy trình dân chủ—ví dụ, trình bày sai lệch về quy trình bỏ phiếu và tiêu chuẩn (ví dụ: khi nào, ở đâu hoặc ai đủ điều kiện bỏ phiếu) hoặc gây mất hứng thú khi bỏ phiếu (ví dụ: tuyên bố rằng phiếu bầu là vô nghĩa).

+ Với GPT mới, người dùng có thể báo cáo cho chúng tôi những vi phạm tiềm ẩn.

Tính minh bạch xung quanh nội dung do AI tạo ra

Tính minh bạch tốt hơn xung quanh nguồn gốc hình ảnh—bao gồm khả năng phát hiện công cụ nào được sử dụng để tạo ra hình ảnh—có thể trao quyền cho cử tri đánh giá hình ảnh với sự tin tưởng và tự tin vào cách thức tạo ra hình ảnh đó. Chúng tôi đang thực hiện một số nỗ lực về nguồn gốc. Chúng tôi đã triển khai  Liên minh về nguồn gốc nội dung và tính xác thực thông tin xác thực kỹ thuật số—một phương pháp mã hóa thông tin chi tiết về nguồn gốc của nội dung bằng mật mã—cho  hình ảnh được tạo ra bởi DALL·E 3.

Chúng tôi cũng đang thử nghiệm một trình phân loại nguồn gốc, một công cụ mới để phát hiện hình ảnh do DALL·E tạo ra. Thử nghiệm nội bộ của chúng tôi đã cho thấy những kết quả ban đầu đầy hứa hẹn, ngay cả khi hình ảnh đã phải chịu những loại sửa đổi thông thường. Chúng tôi dự định sẽ sớm cung cấp cho nhóm người thử nghiệm đầu tiên của mình—bao gồm các nhà báo, nền tảng và nhà nghiên cứu—để phản hồi.

Cuối cùng, ChatGPT ngày càng tích hợp với các nguồn thông tin hiện có—ví dụ, người dùng sẽ bắt đầu có quyền truy cập vào báo cáo tin tức thời gian thực trên toàn cầu, bao gồm cả ghi nhận và liên kết. Tính minh bạch xung quanh nguồn gốc thông tin và sự cân bằng trong các nguồn tin tức có thể giúp cử tri đánh giá thông tin tốt hơn và tự quyết định những gì họ có thể tin tưởng.

Cải thiện khả năng tiếp cận thông tin bỏ phiếu có thẩm quyền

Tại Hoa Kỳ, chúng tôi đang làm việc với Hiệp hội các Bộ trưởng Ngoại giao Quốc gia (NASS), tổ chức chuyên nghiệp phi đảng phái lâu đời nhất của quốc gia dành cho các viên chức công. ChatGPT sẽ hướng dẫn người dùng đến CanIVote.org, trang web có thẩm quyền về thông tin bỏ phiếu của Hoa Kỳ, khi được hỏi một số câu hỏi liên quan đến thủ tục bầu cử—ví dụ, bỏ phiếu ở đâu. Bài học từ công trình này sẽ cung cấp thông tin cho cách tiếp cận của chúng tôi ở các quốc gia và khu vực khác. 

Chúng tôi sẽ chia sẻ thêm trong những tháng tới. Chúng tôi mong muốn tiếp tục hợp tác và học hỏi từ các đối tác để dự đoán và ngăn chặn việc lạm dụng tiềm ẩn các công cụ của chúng tôi trong quá trình chuẩn bị cho cuộc bầu cử toàn cầu năm nay.

Hot Deal

Họ tên (*)

Số điện thoại (*)

Email (*)

Dịch vụ

Đăng ký để nhận bản tin mới nhất !