.png)
Cập nhật: Trước đây chúng tôi đã tuyên bố rằng các ứng dụng sử dụng tên này sẽ tự động được nâng cấp lên phiên bản mô hình mới vào ngày 11 tháng 12. Chúng tôi đã chỉnh sửa bài đăng trên blog để xóa dòng này vì điều này sẽ không còn xảy ra nữa. _gpt-3.5-turbo_
Hôm nay, chúng tôi đã chia sẻ hàng chục bổ sung và cải tiến mới, cũng như giảm giá trên nhiều phần của nền tảng của chúng tôi. Bao gồm:
+ Mô hình GPT-4 Turbo mới có khả năng hơn, rẻ hơn và hỗ trợ cửa sổ ngữ cảnh 128K
+ API Trợ lý mới giúp các nhà phát triển dễ dàng xây dựng các ứng dụng AI hỗ trợ của riêng họ có mục tiêu và có thể gọi các mô hình và công cụ
+ Khả năng đa phương thức mới trong nền tảng, bao gồm tầm nhìn, tạo hình ảnh (DALL·E 3) và chuyển văn bản thành giọng nói (TTS)
Chúng tôi sẽ bắt đầu triển khai các tính năng mới cho khách hàng OpenAI bắt đầu từ 1 giờ chiều theo giờ PT hôm nay.
.png)
GPT-4 Turbo với bối cảnh 128K
Chúng tôi đã phát hành phiên bản đầu tiên của tài khoản Chat GPT-4 vào tháng 3 và cung cấp GPT-4 cho tất cả các nhà phát triển vào tháng 7. Hôm nay, chúng tôi đang tung ra bản xem trước của thế hệ tiếp theo của mô hình này, GPT-4 Turbo (mở trong cửa sổ mới).
GPT-4 Turbo có khả năng hơn và có kiến thức về các sự kiện thế giới cho đến tháng 4 năm 2023. Nó có cửa sổ ngữ cảnh 128k nên có thể chứa tương đương hơn 300 trang văn bản trong một lời nhắc duy nhất. Chúng tôi cũng tối ưu hóa hiệu suất của nó để có thể cung cấp GPT-4 Turbo với mức giá rẻ hơn 3 lần cho các mã thông báo đầu vào và rẻ hơn 2 lần cho các mã thông báo đầu ra so với GPT-4.
GPT-4 Turbo hiện có sẵn cho tất cả các nhà phát triển trả phí dùng thử bằng cách chuyển gpt-4-1106-previewAPI và chúng tôi dự định phát hành phiên bản ổn định sẵn sàng sản xuất trong những tuần tới.
Cập nhật chức năng gọi
Gọi hàm (mở trong cửa sổ mới)cho phép bạn mô tả các chức năng của ứng dụng hoặc API bên ngoài cho các mô hình và để mô hình tự động chọn đầu ra đối tượng JSON chứa các đối số để gọi các chức năng đó. Chúng tôi đang phát hành một số cải tiến ngày hôm nay, bao gồm khả năng gọi nhiều chức năng trong một tin nhắn duy nhất: người dùng có thể gửi một tin nhắn yêu cầu nhiều hành động, chẳng hạn như "mở cửa sổ xe và tắt A/C", trước đây sẽ yêu cầu nhiều lần khứ hồi với mô hình ( tìm hiểu thêm (mở trong cửa sổ mới)). Chúng tôi cũng đang cải thiện độ chính xác của lệnh gọi hàm: GPT-4 Turbo có nhiều khả năng trả về đúng tham số hàm hơn.
Cải thiện hướng dẫn sau và chế độ JSON
GPT-4 Turbo hoạt động tốt hơn các mô hình trước đây của chúng tôi về các tác vụ yêu cầu tuân thủ cẩn thận các hướng dẫn, chẳng hạn như tạo các định dạng cụ thể (ví dụ: "luôn phản hồi trong XML"). Nó cũng hỗ trợ chế độ JSON mới của chúng tôi (mở trong cửa sổ mới), đảm bảo mô hình sẽ phản hồi bằng JSON hợp lệ. Tham số API mới response_formatcho phép mô hình hạn chế đầu ra của nó để tạo đối tượng JSON đúng cú pháp. Chế độ JSON hữu ích cho các nhà phát triển tạo JSON trong API Chat Completions bên ngoài lệnh gọi hàm.
Đầu ra có thể tái tạo và xác suất logarit
Tham số mới seedcho phép tạo ra các đầu ra có thể tái tạo bằng cách làm cho mô hình trả về các lần hoàn thành nhất quán hầu hết thời gian. Tính năng beta này hữu ích cho các trường hợp sử dụng như phát lại các yêu cầu để gỡ lỗi, viết các bài kiểm tra đơn vị toàn diện hơn và nói chung là có mức độ kiểm soát cao hơn đối với hành vi của mô hình. Chúng tôi tại OpenAI đã sử dụng tính năng này trong nội bộ cho các bài kiểm tra đơn vị của riêng mình và thấy nó vô cùng hữu ích. Chúng tôi rất mong chờ xem các nhà phát triển sẽ sử dụng nó như thế nào.
Chúng tôi cũng sẽ ra mắt tính năng trả về xác suất nhật ký cho các mã thông báo đầu ra có nhiều khả năng xảy ra nhất do GPT-4 Turbo và GPT-3.5 Turbo tạo ra trong vài tuần tới. Tính năng này sẽ hữu ích cho việc xây dựng các tính năng như tự động hoàn thành trong trải nghiệm tìm kiếm.
Đã cập nhật GPT-3.5 Turbo
Ngoài GPT-4 Turbo, chúng tôi cũng đang phát hành phiên bản mới của GPT-3.5 Turbo hỗ trợ cửa sổ ngữ cảnh 16K theo mặc định. Turbo 3.5 mới hỗ trợ cải thiện việc theo dõi hướng dẫn, chế độ JSON và gọi hàm song song. Ví dụ, các đánh giá nội bộ của chúng tôi cho thấy cải thiện 38% về các tác vụ theo dõi định dạng như tạo JSON, XML và YAML. Các nhà phát triển có thể truy cập mô hình mới này bằng cách gọi gpt-3.5-turbo-1106API. Các mô hình cũ hơn sẽ tiếp tục có thể truy cập bằng cách truyền gpt-3.5-turbo-0613API cho đến ngày 13 tháng 6 năm 2024.
Trợ lý API, Truy xuất và Trình thông dịch mã
Hôm nay, chúng tôi phát hành API Trợ lý (mở trong cửa sổ mới), bước đầu tiên của chúng tôi hướng đến việc giúp các nhà phát triển xây dựng trải nghiệm giống như tác nhân trong ứng dụng của riêng họ. Trợ lý là AI được xây dựng có mục đích cụ thể, tận dụng kiến thức bổ sung và có thể gọi các mô hình và công cụ để thực hiện các tác vụ. API Trợ lý mới cung cấp các khả năng mới như Trình thông dịch mã và Truy xuất cũng như gọi hàm để xử lý nhiều công việc nặng nhọc mà trước đây bạn phải tự mình thực hiện và cho phép bạn xây dựng các ứng dụng AI chất lượng cao.
API này được thiết kế để linh hoạt; các trường hợp sử dụng bao gồm từ ứng dụng phân tích dữ liệu dựa trên ngôn ngữ tự nhiên, trợ lý mã hóa, trình lập kế hoạch kỳ nghỉ hỗ trợ AI, DJ điều khiển bằng giọng nói, canvas trực quan thông minh—và còn nhiều nữa. API Trợ lý được xây dựng trên cùng các khả năng cho phép sản phẩm GPT mới của chúng tôi : hướng dẫn và công cụ tùy chỉnh như Trình thông dịch mã, Truy xuất và gọi hàm.
Một thay đổi quan trọng được API này giới thiệu là các luồng liên tục và vô hạn , cho phép các nhà phát triển chuyển giao việc quản lý trạng thái luồng cho OpenAI và giải quyết các ràng buộc của cửa sổ ngữ cảnh. Với API Trợ lý, bạn chỉ cần thêm mỗi thông báo mới vào một . hiện có thread.
Trợ lý cũng có thể gọi các công cụ mới khi cần, bao gồm:
+ Code Interpreter : viết và chạy mã Python trong môi trường thực thi sandbox, có thể tạo biểu đồ và đồ thị, xử lý các tệp có dữ liệu và định dạng đa dạng. Nó cho phép trợ lý của bạn chạy mã lặp đi lặp lại để giải quyết các vấn đề mã và toán học đầy thách thức, v.v.
+ Retrieval : tăng cường trợ lý với kiến thức từ bên ngoài các mô hình của chúng tôi, chẳng hạn như dữ liệu miền độc quyền, thông tin sản phẩm hoặc tài liệu do người dùng của bạn cung cấp. Điều này có nghĩa là bạn không cần phải tính toán và lưu trữ nhúng cho tài liệu của mình hoặc triển khai thuật toán phân đoạn và tìm kiếm. API Trợ lý tối ưu hóa kỹ thuật truy xuất nào sẽ sử dụng dựa trên kinh nghiệm xây dựng truy xuất kiến thức trong ChatGPT của chúng tôi.
+ Gọi hàm : cho phép trợ lý gọi các hàm bạn xác định và kết hợp phản hồi của hàm vào tin nhắn của họ.
+ Giống như phần còn lại của nền tảng, dữ liệu và tệp được truyền tới OpenAI API không bao giờ được sử dụng để đào tạo mô hình của chúng tôi và các nhà phát triển có thể xóa dữ liệu khi họ thấy phù hợp.
Bạn có thể dùng thử bản beta của API Trợ lý mà không cần viết bất kỳ mã nào bằng cách truy cập vào sân chơi trợ lý.
API Trợ lý đang trong giai đoạn thử nghiệm và có sẵn cho tất cả các nhà phát triển bắt đầu từ hôm nay. Vui lòng chia sẻ những gì bạn xây dựng với chúng tôi ( @OpenAI (mở trong cửa sổ mới)) cùng với phản hồi của bạn mà chúng tôi sẽ kết hợp khi chúng tôi tiếp tục xây dựng trong những tuần tới. Giá cho API Trợ lý và các công cụ của nó có sẵn trên trang giá của chúng tôi .
Các phương thức mới trong API
GPT-4 Turbo với tầm nhìn
GPT-4 Turbo có thể chấp nhận hình ảnh làm đầu vào trong API Chat Completions, cho phép các trường hợp sử dụng như tạo chú thích, phân tích hình ảnh thực tế chi tiết và đọc tài liệu có hình ảnh. Ví dụ: BeMyEyes sử dụng công nghệ này để giúp những người mù hoặc thị lực kém thực hiện các tác vụ hàng ngày như xác định sản phẩm hoặc điều hướng trong cửa hàng. Các nhà phát triển có thể truy cập tính năng này bằng cách sử dụng gpt-4-vision-previewtrong API. Chúng tôi có kế hoạch triển khai hỗ trợ thị giác cho mô hình GPT-4 Turbo chính như một phần của bản phát hành ổn định. Giá cả phụ thuộc vào kích thước hình ảnh đầu vào. Ví dụ: truyền hình ảnh có kích thước 1080×1080 pixel cho GPT-4 Turbo có giá 0,00765 đô la. Hãy xem hướng dẫn về thị giác của chúng tôi (mở trong cửa sổ mới).
TỪ VÀ 3
Các nhà phát triển có thể tích hợp DALL·E 3, mà chúng tôi mới ra mắt cho người dùng ChatGPT Plus và Enterprise, trực tiếp vào ứng dụng và sản phẩm của họ thông qua Images API của chúng tôi bằng cách chỉ định dall-e-3là mô hình. Các công ty như Snap, Coca-Cola và Shutterstock đã sử dụng DALL·E 3 để tạo hình ảnh và thiết kế theo chương trình cho khách hàng và chiến dịch của họ. Tương tự như phiên bản trước của DALL·E, API kết hợp tính năng kiểm duyệt tích hợp để giúp các nhà phát triển bảo vệ ứng dụng của họ khỏi bị sử dụng sai mục đích. Chúng tôi cung cấp các tùy chọn định dạng và chất lượng khác nhau, với mức giá bắt đầu từ 0,04 đô la cho mỗi hình ảnh được tạo. Hãy xem hướng dẫn của chúng tôi để bắt đầu (mở trong cửa sổ mới)với DALL·E 3 trong API.
Chuyển văn bản thành giọng nói (TTS)
Các nhà phát triển hiện có thể tạo giọng nói chất lượng như con người từ văn bản thông qua API chuyển văn bản thành giọng nói. Mô hình TTS mới của chúng tôi cung cấp sáu giọng nói cài sẵn để lựa chọn và hai biến thể mô hình, tts-1và tts-1-hd. ttsđược tối ưu hóa cho các trường hợp sử dụng thời gian thực và tts-1-hdđược tối ưu hóa cho chất lượng. Giá bắt đầu từ $0,015 cho mỗi đầu vào 1.000 ký tự. Xem hướng dẫn TTS của chúng tôi (mở trong cửa sổ mới)để bắt đầu.
Tùy chỉnh mô hình
GPT-4 tinh chỉnh truy cập thử nghiệm
Chúng tôi đang tạo một chương trình truy cập thử nghiệm để tinh chỉnh GPT-4 . Kết quả sơ bộ cho thấy tinh chỉnh GPT-4 cần nhiều công sức hơn để đạt được những cải tiến có ý nghĩa so với mô hình cơ sở so với những lợi ích đáng kể đạt được với tinh chỉnh GPT-3.5. Khi chất lượng và tính an toàn cho tinh chỉnh GPT-4 được cải thiện, các nhà phát triển đang tích cực sử dụng tinh chỉnh GPT-3.5 sẽ được cung cấp tùy chọn để áp dụng cho chương trình GPT-4 trong bảng điều khiển tinh chỉnh của họ (mở trong cửa sổ mới).
Mô hình tùy chỉnh
Đối với các tổ chức cần tùy chỉnh nhiều hơn những gì tinh chỉnh có thể cung cấp (đặc biệt áp dụng cho các miền có bộ dữ liệu độc quyền cực lớn—tối thiểu là hàng tỷ mã thông báo), chúng tôi cũng đang triển khai chương trình Mô hình tùy chỉnh , trao cho các tổ chức được chọn cơ hội làm việc với một nhóm các nhà nghiên cứu OpenAI chuyên trách để đào tạo GPT-4 tùy chỉnh cho miền cụ thể của họ. Điều này bao gồm việc sửa đổi mọi bước của quy trình đào tạo mô hình, từ thực hiện tiền đào tạo cụ thể cho miền bổ sung đến chạy quy trình hậu đào tạo RL tùy chỉnh được thiết kế riêng cho miền cụ thể. Các tổ chức sẽ có quyền truy cập độc quyền vào các mô hình tùy chỉnh của họ. Để tuân thủ các chính sách bảo mật doanh nghiệp hiện có của chúng tôi, các mô hình tùy chỉnh sẽ không được phục vụ hoặc chia sẻ với các khách hàng khác hoặc được sử dụng để đào tạo các mô hình khác. Ngoài ra, dữ liệu độc quyền được cung cấp cho OpenAI để đào tạo các mô hình tùy chỉnh sẽ không được sử dụng lại trong bất kỳ bối cảnh nào khác. Đây sẽ là một chương trình rất hạn chế (và tốn kém) để bắt đầu—các tổ chức quan tâm có thể đăng ký tại đây .
Giá thấp hơn và giới hạn tỷ lệ cao hơn
Giá thấp hơn
Chúng tôi đang giảm giá nhiều lần trên nền tảng để chuyển lợi nhuận cho các nhà phát triển (tất cả giá dưới đây được tính theo 1.000 token):
+ Token đầu vào GPT-4 Turbo rẻ hơn GPT-4 gấp 3 lần ở mức 0,01 đô la và token đầu ra rẻ hơn gấp 2 lần ở mức 0,03 đô la.
+ Mã thông báo đầu vào GPT-3.5 Turbo rẻ hơn 3 lần so với mẫu 16K trước đó ở mức 0,001 đô la và mã thông báo đầu ra rẻ hơn 2 lần ở mức 0,002 đô la. Các nhà phát triển trước đây sử dụng GPT-3.5 Turbo 4K được hưởng lợi từ mức giảm 33% cho mã thông báo đầu vào ở mức 0,001 đô la. Những mức giá thấp hơn đó chỉ áp dụng cho GPT-3.5 Turbo mới được giới thiệu hôm nay.
+ Mã thông báo đầu vào mô hình GPT-3.5 Turbo 4K được tinh chỉnh giảm 4 lần ở mức 0,003 đô la và mã thông báo đầu ra rẻ hơn 2,7 lần ở mức 0,006 đô la. Tinh chỉnh cũng hỗ trợ ngữ cảnh 16K với cùng mức giá như 4K với mô hình GPT-3.5 Turbo mới. Những mức giá mới này cũng áp dụng cho gpt-3.5-turbo-0613các mô hình được tinh chỉnh.
Giới hạn tỷ lệ cao hơn
Để giúp bạn mở rộng quy mô ứng dụng của mình, chúng tôi sẽ tăng gấp đôi giới hạn mã thông báo cho mỗi phút cho tất cả khách hàng trả phí GPT-4 của chúng tôi. Bạn có thể xem giới hạn tỷ lệ mới của mình trong trang giới hạn tỷ lệ (mở trong cửa sổ mới). Chúng tôi cũng đã công bố các cấp độ sử dụng của mình (mở trong cửa sổ mới)xác định mức tăng giới hạn tỷ lệ tự động, do đó bạn biết những gì mong đợi trong cách giới hạn sử dụng của bạn sẽ tự động mở rộng. Bây giờ bạn có thể yêu cầu tăng giới hạn sử dụng từ cài đặt tài khoản của mình(mở trong cửa sổ mới).
Lá chắn bản quyền
OpenAI cam kết bảo vệ khách hàng của mình bằng các biện pháp bảo vệ bản quyền tích hợp trong hệ thống của chúng tôi. Hôm nay, chúng tôi sẽ tiến thêm một bước nữa và giới thiệu Copyright Shield—chúng tôi sẽ vào cuộc và bảo vệ khách hàng của mình, đồng thời chi trả các chi phí phát sinh, nếu bạn phải đối mặt với các khiếu nại pháp lý liên quan đến vi phạm bản quyền. Điều này áp dụng cho các tính năng có sẵn chung của ChatGPT Enterprise và nền tảng dành cho nhà phát triển của chúng tôi.
Whisper v3 và Bộ giải mã tính nhất quán
Chúng tôi đang phát hành Whisper large-v3, (mở trong cửa sổ mới)phiên bản tiếp theo của mô hình nhận dạng giọng nói tự động nguồn mở (ASR) của chúng tôi có hiệu suất được cải thiện trên nhiều ngôn ngữ. Chúng tôi cũng có kế hoạch hỗ trợ Whisper v3 trong API của mình trong tương lai gần.
Chúng tôi cũng đang mở mã nguồn cho Consistency Decoder (mở trong cửa sổ mới), một sự thay thế cho bộ giải mã VAE khuếch tán ổn định. Bộ giải mã này cải thiện tất cả các hình ảnh tương thích với VAE khuếch tán ổn định 1.0+, với những cải tiến đáng kể về văn bản, khuôn mặt và đường thẳng.
Xem thêm: mua tài khoản ChatGPT Plus chính hãng giá rẻ với nhiều ưu đãi đặc biệt hấp dẫn

Cách đổi Mật khẩu Chat GPT - Hướng dẫn đổi Pass Chat GPT 100% Thành công
Hướng dẫn Cách đăng nhập Chat GPT Nhanh nhất | Có hỗ trợ Miễn phí qua Teamview-Ultraview
Chat GPT Plus là gì? So sánh Chat GPT Plus với Chat GPT Miễn phí
Chat GPT bị giới hạn giải thích vì sao và cách khắc phục
Chat GPT là gì ? Cách đăng Ký Chat GPT Miễn Phí tại Việt Nam