API OpenAI

Chúng tôi đang phát hành API để truy cập các mô hình AI mới do OpenAI phát triển

Chúng tôi đang phát hành một API để truy cập các mô hình AI mới do OpenAI phát triển. Không giống như hầu hết các hệ thống AI được thiết kế cho một trường hợp sử dụng, API hiện nay cung cấp giao diện "nhập văn bản, xuất văn bản" mục đích chung, cho phép người dùng thử trên hầu như bất kỳ tác vụ tiếng Anh nào. Bây giờ bạn có thể yêu cầu quyền truy cập để tích hợp API vào sản phẩm của mình, phát triển một ứng dụng hoàn toàn mới hoặc giúp chúng tôi khám phá các điểm mạnh và hạn chế của công nghệ này.

Với bất kỳ lời nhắc văn bản nào, API sẽ trả về một văn bản hoàn thành, cố gắng khớp với mẫu mà bạn đã cung cấp. Bạn có thể "lập trình" bằng cách chỉ cho nó một vài ví dụ về những gì bạn muốn nó thực hiện; thành công của nó thường thay đổi tùy thuộc vào mức độ phức tạp của nhiệm vụ. API cũng cho phép bạn cải thiện hiệu suất trên các nhiệm vụ cụ thể bằng cách đào tạo trên một tập dữ liệu (nhỏ hoặc lớn) gồm các ví dụ mà bạn cung cấp hoặc bằng cách học hỏi từ phản hồi của con người do người dùng hoặc người dán nhãn cung cấp.

Chúng tôi đã thiết kế API để vừa đơn giản cho bất kỳ ai sử dụng nhưng cũng đủ linh hoạt để giúp các nhóm học máy năng suất hơn. Trên thực tế, nhiều nhóm của chúng tôi hiện đang sử dụng API để họ có thể tập trung vào nghiên cứu học máy thay vì các vấn đề về hệ thống phân tán. Ngày nay, API chạy các mô hình với trọng số từ GPT -3 (mở trong cửa sổ mới) gia đình với nhiều cải tiến về tốc độ và thông lượng. Học máy đang phát triển rất nhanh và chúng tôi liên tục nâng cấp công nghệ để người dùng luôn cập nhật.

Tốc độ tiến triển của lĩnh vực này có nghĩa là thường xuyên có những ứng dụng AI mới đáng ngạc nhiên, cả tích cực và tiêu cực. Chúng tôi sẽ chấm dứt quyền truy cập API đối với các trường hợp sử dụng rõ ràng là có hại, chẳng hạn như quấy rối, thư rác, cực đoan hóa hoặc astroturfing. Nhưng chúng tôi cũng biết rằng chúng tôi không thể lường trước được tất cả các hậu quả có thể xảy ra của công nghệ này, vì vậy chúng tôi sẽ ra mắt phiên bản beta riêng tư thay vì phiên bản dùng chung, xây dựng các công cụ giúp người dùng kiểm soát tốt hơn nội dung mà API của chúng tôi trả về và nghiên cứu các khía cạnh liên quan đến an toàn của công nghệ ngôn ngữ (chẳng hạn như phân tích, giảm thiểu và can thiệp vào định kiến ​​có hại). Chúng tôi sẽ chia sẻ những gì chúng tôi học được để người dùng và cộng đồng rộng lớn hơn có thể xây dựng nhiều hệ thống AI tích cực hơn với con người.

Ngoài việc là nguồn doanh thu giúp chúng tôi  trang trải chi phí  để theo đuổi  sứ mệnh của mình , API đã thúc đẩy chúng tôi tập trung hơn vào công nghệ AI mục đích chung—phát triển công nghệ, làm cho nó có thể sử dụng được và xem xét tác động của nó trong thế giới thực. Chúng tôi hy vọng rằng API sẽ giảm đáng kể rào  cản (mở trong cửa sổ mới) để sản xuất ra các sản phẩm có lợi nhờ AI, tạo ra các công cụ và dịch vụ khó có thể tưởng tượng được ngày nay.

Bạn có muốn khám phá API không? Hãy tham gia các công ty như  Algolia (mở trong cửa sổ mới), Câu đố (mở trong cửa sổ mới), and Reddit (opens in a new window), and researchers at institutions like the Middlebury Institute (opens in a new window) in our private beta (opens in a new window).

Tại sao OpenAI quyết định phát hành sản phẩm thương mại?

Cuối cùng, điều chúng tôi quan tâm nhất  là đảm bảo trí tuệ nhân tạo chung mang lại lợi ích cho mọi người. Chúng tôi coi việc phát triển các sản phẩm thương mại là một trong những cách đảm bảo chúng tôi có đủ nguồn tài trợ để thành công.

Chúng tôi cũng tin rằng việc triển khai an toàn các hệ thống AI mạnh mẽ trên thế giới sẽ khó có thể thực hiện đúng. Khi phát hành API, chúng tôi đang hợp tác chặt chẽ với các đối tác của mình để xem những thách thức nào phát sinh khi các hệ thống AI được sử dụng trong thế giới thực. Điều này sẽ giúp định hướng cho các nỗ lực của chúng tôi nhằm hiểu cách triển khai các hệ thống AI trong tương lai sẽ diễn ra như thế nào và chúng tôi cần làm gì để đảm bảo chúng an toàn và có lợi cho mọi người.

Tại sao OpenAI lại chọn phát hành API thay vì mã nguồn mở cho các mô hình?

Có ba lý do chính khiến chúng tôi làm như vậy. Đầu tiên, việc thương mại hóa công nghệ giúp chúng tôi chi trả cho các nỗ lực nghiên cứu AI, an toàn và chính sách đang diễn ra.

Thứ hai, nhiều mô hình cơ sở của API rất lớn, đòi hỏi nhiều chuyên môn để phát triển và triển khai và khiến chúng rất tốn kém để vận hành. Điều này khiến bất kỳ ai ngoại trừ các công ty lớn hơn khó có thể hưởng lợi từ công nghệ cơ sở. Chúng tôi hy vọng rằng API sẽ giúp các hệ thống AI mạnh mẽ dễ tiếp cận hơn với các doanh nghiệp và tổ chức nhỏ hơn.

Thứ ba, mô hình API cho phép chúng ta dễ dàng phản hồi hơn đối với việc sử dụng sai công nghệ. Vì khó có thể dự đoán các trường hợp sử dụng hạ nguồn của các mô hình của chúng ta, nên về bản chất, việc phát hành chúng thông qua API và mở rộng quyền truy cập theo thời gian sẽ an toàn hơn, thay vì phát hành một mô hình nguồn mở mà quyền truy cập không thể điều chỉnh nếu nó có các ứng dụng có hại.

Cụ thể thì OpenAI sẽ làm gì về việc sử dụng sai API, dựa trên những gì bạn đã nói trước đây về GPT-2?

Với GPT-2, một trong những mối quan tâm chính của chúng tôi là việc sử dụng mô hình với mục đích xấu (ví dụ: để thông tin sai lệch), điều này khó có thể ngăn chặn khi mô hình đã được mã nguồn mở. Đối với API, chúng tôi có thể ngăn chặn việc sử dụng sai mục đích tốt hơn bằng cách hạn chế quyền truy cập vào các khách hàng và trường hợp sử dụng đã được chấp thuận. Chúng tôi có quy trình đánh giá sản xuất bắt buộc trước khi các ứng dụng được đề xuất có thể hoạt động. Trong các đánh giá sản xuất, chúng tôi đánh giá các ứng dụng trên một số trục, đặt ra các câu hỏi như:  Đây có phải là trường hợp sử dụng hiện được hỗ trợ không? ,  Ứng dụng có tính mở như thế nào? ,  Ứng dụng có rủi ro như thế nào? ,  Bạn có kế hoạch giải quyết tình trạng sử dụng sai mục đích tiềm ẩn như thế nào? và  Người dùng cuối của ứng dụng của bạn là ai? .

Chúng tôi chấm dứt quyền truy cập API đối với các trường hợp sử dụng được phát hiện gây ra (hoặc có ý định gây ra) tổn hại về thể chất, cảm xúc hoặc tâm lý cho mọi người, bao gồm nhưng không giới hạn ở quấy rối, lừa dối cố ý, cực đoan hóa, astroturfing hoặc thư rác, cũng như các ứng dụng không có đủ rào cản để hạn chế việc người dùng cuối sử dụng sai mục đích. Khi chúng tôi có thêm kinh nghiệm vận hành API trong thực tế, chúng tôi sẽ liên tục tinh chỉnh các danh mục sử dụng mà chúng tôi có thể hỗ trợ, vừa để mở rộng phạm vi ứng dụng mà chúng tôi có thể hỗ trợ, vừa để tạo ra các danh mục chi tiết hơn cho những ứng dụng mà chúng tôi lo ngại về việc sử dụng sai mục đích.

Một yếu tố chính mà chúng tôi xem xét khi phê duyệt việc sử dụng API là mức độ mà một ứng dụng thể hiện hành vi mở so với hành vi bị hạn chế liên quan đến khả năng tạo ra cơ bản của hệ thống. Các ứng dụng mở của API (tức là các ứng dụng cho phép tạo ra một lượng lớn văn bản có thể tùy chỉnh mà không gặp trở ngại thông qua các lời nhắc tùy ý) đặc biệt dễ bị sử dụng sai mục đích. Các hạn chế có thể khiến các trường hợp sử dụng tạo ra an toàn hơn bao gồm thiết kế hệ thống giữ con người trong vòng lặp, hạn chế quyền truy cập của người dùng cuối, hậu xử lý đầu ra, lọc nội dung, giới hạn độ dài đầu vào/đầu ra, giám sát chủ động và giới hạn tính thời sự.

Chúng tôi cũng đang tiếp tục tiến hành nghiên cứu về khả năng sử dụng sai các mô hình do API phục vụ, bao gồm cả với các nhà nghiên cứu bên thứ ba thông qua  chương trình tiếp cận học thuật của chúng tôi(mở trong cửa sổ mới). Chúng tôi đang bắt đầu với số lượng nhà nghiên cứu rất hạn chế tại thời điểm này và đã có một số kết quả từ các đối tác học thuật của chúng tôi tại  Viện Middlebury (mở trong cửa sổ mới),  Đại học Washington và Viện Allen về AI(mở trong cửa sổ mới). Chúng tôi đã có hàng chục nghìn đơn đăng ký cho chương trình này và hiện đang ưu tiên các đơn đăng ký tập trung vào nghiên cứu về công bằng và đại diện.

OpenAI sẽ giảm thiểu sự thiên vị có hại và các tác động tiêu cực khác của các mô hình được API phục vụ như thế nào?

Giảm thiểu các tác động tiêu cực như thành kiến ​​có hại là một vấn đề khó khăn, toàn ngành và cực kỳ quan trọng. Như chúng tôi thảo luận trong  bài báo GPT-3 (mở trong cửa sổ mới) và  thẻ mô hình (mở trong cửa sổ mới), các mô hình API của chúng tôi thể hiện sự thiên vị sẽ được phản ánh trong văn bản được tạo. Sau đây là các bước chúng tôi đang thực hiện để giải quyết các vấn đề này:

+ Chúng tôi đã xây dựng các hướng dẫn sử dụng giúp nhà phát triển hiểu và giải quyết các vấn đề an toàn tiềm ẩn.

+ Chúng tôi đang hợp tác chặt chẽ với người dùng để hiểu các trường hợp sử dụng của họ và phát triển các công cụ để phát hiện và can thiệp nhằm giảm thiểu sự thiên vị có hại.

+ Chúng tôi đang tiến hành nghiên cứu riêng về các biểu hiện của thành kiến ​​có hại và các vấn đề rộng hơn về công bằng và đại diện, điều này sẽ giúp cung cấp thông tin cho công việc của chúng tôi thông qua việc cải thiện tài liệu về các mô hình hiện có cũng như nhiều cải tiến khác nhau cho các mô hình trong tương lai.

+ Chúng tôi nhận ra rằng thành kiến ​​là một vấn đề biểu hiện ở giao điểm của hệ thống và bối cảnh được triển khai; các ứng dụng được xây dựng bằng công nghệ của chúng tôi là các hệ thống xã hội kỹ thuật, vì vậy chúng tôi làm việc với các nhà phát triển để đảm bảo họ đưa ra các quy trình phù hợp và hệ thống giám sát con người để theo dõi hành vi bất lợi.

Mục tiêu của chúng tôi là tiếp tục phát triển sự hiểu biết của mình về những tác hại tiềm ẩn của API trong từng bối cảnh sử dụng và liên tục cải thiện các công cụ và quy trình để giúp giảm thiểu chúng.

Xem thêm: mua tài khoản ChatGPT Plus chính hãng giá rẻ! 

Hot Deal

Họ tên (*)

Số điện thoại (*)

Email (*)

Dịch vụ

Đăng ký để nhận bản tin mới nhất !