.png)
Chúng tôi đã đào tạo một mô hình ngôn ngữ không giám sát quy mô lớn có thể tạo ra các đoạn văn bản mạch lạc, đạt hiệu suất tiên tiến trên nhiều tiêu chuẩn mô hình hóa ngôn ngữ và thực hiện các chức năng đọc hiểu cơ bản, dịch máy, trả lời câu hỏi và tóm tắt - tất cả đều không cần đào tạo theo nhiệm vụ cụ thể.
Mô hình của chúng tôi, được gọi là tài khoản ChatGPT-4 (người kế nhiệm GPT ), được đào tạo đơn giản để dự đoán từ tiếp theo trong 40GB văn bản Internet. Do lo ngại về các ứng dụng độc hại của công nghệ, chúng tôi không phát hành mô hình đã đào tạo. Thay vào đó, chúng tôi phát hành một mô hình nhỏ hơn nhiều để thử nghiệm về việc tiết lộ có trách nhiệm (mở trong cửa sổ mới) để các nhà nghiên cứu thử nghiệm, cũng như một bài báo kỹ thuật (mở trong cửa sổ mới).
Xem thêm: mua tài khoản ChatGPT Plus chính hãng giá rẻ với nhiều ưu đãi đặc biệt hấp dẫn
GPT-2 là một máy biến áp lớn (mở trong cửa sổ mới)- mô hình ngôn ngữ dựa trên 1,5 tỷ tham số, được đào tạo trên tập dữ liệu gồm 8 triệu trang web. GPT-2 được đào tạo với một mục tiêu đơn giản: dự đoán từ tiếp theo, cho tất cả các từ trước đó trong một số văn bản. Sự đa dạng của tập dữ liệu khiến mục tiêu đơn giản này chứa các bản trình diễn tự nhiên của nhiều tác vụ trên nhiều miền khác nhau. GPT-2 là bản mở rộng trực tiếp của GPT, với hơn 10X các tham số và được đào tạo trên hơn 10X lượng dữ liệu.
GPT-2 hiển thị một tập hợp rộng các khả năng, bao gồm khả năng tạo các mẫu văn bản tổng hợp có điều kiện với chất lượng chưa từng có, trong đó chúng tôi chuẩn bị mô hình bằng một đầu vào và để nó tạo ra một phần tiếp theo dài. Ngoài ra, GPT-2 vượt trội hơn các mô hình ngôn ngữ khác được đào tạo trên các miền cụ thể (như Wikipedia, tin tức hoặc sách) mà không cần sử dụng các tập dữ liệu đào tạo dành riêng cho miền này. Đối với các tác vụ ngôn ngữ như trả lời câu hỏi, hiểu đọc, tóm tắt và dịch, GPT-2 bắt đầu học các tác vụ này từ văn bản thô, không sử dụng dữ liệu đào tạo dành riêng cho tác vụ. Mặc dù điểm số trên các tác vụ hạ nguồn này còn lâu mới đạt đến trình độ tiên tiến, nhưng chúng cho thấy rằng các tác vụ có thể được hưởng lợi từ các kỹ thuật không giám sát, với đủ dữ liệu (không có nhãn) và tính toán.
Mẫu
GPT-2 tạo ra các mẫu văn bản tổng hợp để phản hồi mô hình được chuẩn bị bằng một đầu vào tùy ý. Mô hình này giống như tắc kè hoa—nó thích ứng với phong cách và nội dung của văn bản điều kiện. Điều này cho phép người dùng tạo ra các phần tiếp theo thực tế và mạch lạc về một chủ đề mà họ lựa chọn, như được thấy trong các mẫu được chọn sau đây.
con người viết)
Trong một phát hiện gây sốc, các nhà khoa học đã phát hiện ra một đàn kỳ lân sống trong một thung lũng xa xôi, chưa từng được khám phá, ở dãy núi Andes. Điều thậm chí còn gây ngạc nhiên hơn đối với các nhà nghiên cứu là thực tế là những con kỳ lân nói tiếng Anh hoàn hảo.
Hoàn thiện mô hình (viết bằng máy, 10 lần thử)
Nhà khoa học đặt tên cho quần thể này theo tên chiếc sừng đặc trưng của chúng là Kỳ lân Ovid. Những con kỳ lân bốn sừng, màu trắng bạc này trước đây chưa từng được khoa học biết đến.
Giờ đây, sau gần hai thế kỷ, bí ẩn về nguyên nhân gây ra hiện tượng kỳ lạ này cuối cùng cũng đã được giải đáp.
Tiến sĩ Jorge Pérez, một nhà sinh vật học tiến hóa đến từ Đại học La Paz, cùng một số người bạn đồng hành đã khám phá dãy núi Andes khi họ tìm thấy một thung lũng nhỏ, không có động vật hay con người nào khác. Pérez nhận thấy thung lũng này có vẻ như là một đài phun nước tự nhiên, được bao quanh bởi hai đỉnh núi đá và tuyết bạc.
Pérez và những người khác sau đó mạo hiểm đi sâu hơn vào thung lũng. Pérez cho biết: "Khi chúng tôi lên đến đỉnh của một đỉnh núi, nước trông có màu xanh lam, với một số tinh thể trên đỉnh".
Pérez và những người bạn của ông đã vô cùng kinh ngạc khi nhìn thấy đàn kỳ lân. Những sinh vật này có thể được nhìn thấy từ trên không mà không cần phải di chuyển quá nhiều để nhìn thấy chúng - chúng ở rất gần đến nỗi họ có thể chạm vào sừng của chúng.
Trong khi kiểm tra những sinh vật kỳ lạ này, các nhà khoa học phát hiện ra rằng những sinh vật này cũng nói một số tiếng Anh khá thông dụng. Pérez tuyên bố, “Ví dụ, chúng ta có thể thấy rằng chúng có một 'ngôn ngữ' chung, giống như phương ngữ hoặc biện chứng.”
Tiến sĩ Pérez tin rằng kỳ lân có thể có nguồn gốc từ Argentina, nơi mà người ta tin rằng những con vật này là hậu duệ của một chủng tộc người đã mất tích từng sống ở đó trước khi con người xuất hiện ở những vùng Nam Mỹ đó.
Mặc dù nguồn gốc của chúng vẫn chưa rõ ràng, một số người tin rằng có lẽ những sinh vật này được tạo ra khi một con người và một kỳ lân gặp nhau vào thời điểm trước nền văn minh của loài người. Theo Pérez, “Ở Nam Mỹ, những sự cố như vậy có vẻ khá phổ biến.”
Tuy nhiên, Pérez cũng chỉ ra rằng có khả năng cách duy nhất để biết chắc chắn liệu kỳ lân có thực sự là hậu duệ của một chủng tộc người ngoài hành tinh đã mất tích hay không là thông qua DNA. “Nhưng chúng dường như có thể giao tiếp bằng tiếng Anh khá tốt, tôi tin rằng đó là dấu hiệu của sự tiến hóa, hoặc ít nhất là sự thay đổi trong tổ chức xã hội,” nhà khoa học cho biết.
Như các mẫu trên cho thấy, mô hình của chúng tôi có khả năng tạo ra các mẫu từ nhiều lời nhắc khác nhau có cảm giác gần với chất lượng của con người và thể hiện tính mạch lạc trên một trang hoặc nhiều văn bản hơn. Tuy nhiên, chúng tôi đã quan sát thấy nhiều chế độ lỗi khác nhau, chẳng hạn như văn bản lặp lại, lỗi mô hình thế giới (ví dụ, mô hình đôi khi viết về hỏa hoạn xảy ra dưới nước ) và chuyển đổi chủ đề không tự nhiên. Khám phá những loại điểm yếu này của các mô hình ngôn ngữ là một (mở trong cửa sổ mới) khu vực (mở trong cửa sổ mới) của nghiên cứu (mở trong cửa sổ mới) trong cộng đồng xử lý ngôn ngữ tự nhiên.
Nhìn chung, chúng tôi thấy rằng cần phải thử một vài lần để có được một mẫu tốt, với số lần thử tùy thuộc vào mức độ quen thuộc của mô hình với bối cảnh. Khi được nhắc với các chủ đề được thể hiện nhiều trong dữ liệu (Brexit, Miley Cyrus, Chúa tể của những chiếc nhẫn, v.v.), có vẻ như nó có khả năng tạo ra các mẫu hợp lý khoảng 50% thời gian. Điều ngược lại cũng đúng: đối với các loại nội dung có tính kỹ thuật cao hoặc khó hiểu, mô hình có thể hoạt động kém. Tinh chỉnh cung cấp tiềm năng kiểm soát chi tiết hơn nữa đối với các mẫu được tạo ra—ví dụ: chúng ta có thể tinh chỉnh GPT-2 trên tập dữ liệu Đánh giá của Amazon và sử dụng điều này để cho phép chúng ta viết các bài đánh giá có điều kiện dựa trên các yếu tố như xếp hạng sao và danh mục.
Những mẫu này có ý nghĩa chính sách đáng kể: các mô hình ngôn ngữ lớn ngày càng dễ điều hướng theo hướng tạo văn bản có thể mở rộng, tùy chỉnh, mạch lạc, từ đó có thể được sử dụng theo nhiều cách có lợi cũng như có hại. Chúng tôi sẽ thảo luận chi tiết hơn về những ý nghĩa này bên dưới và phác thảo một thử nghiệm xuất bản mà chúng tôi đang thực hiện theo những cân nhắc như vậy.
Không bắn
GPT-2 đạt được điểm số tiên tiến trên nhiều tác vụ mô hình hóa ngôn ngữ theo miền cụ thể. Mô hình của chúng tôi không được đào tạo trên bất kỳ dữ liệu nào cụ thể cho bất kỳ tác vụ nào trong số này và chỉ được đánh giá trên chúng như một bài kiểm tra cuối cùng; đây được gọi là thiết lập "zero-shot". GPT-2 hoạt động tốt hơn các mô hình được đào tạo trên các tập dữ liệu theo miền cụ thể (ví dụ Wikipedia, tin tức, sách) khi được đánh giá trên cùng các tập dữ liệu đó. Bảng sau đây hiển thị tất cả các kết quả zero-shot tiên tiến của chúng tôi.
(+) có nghĩa là điểm cao hơn thì tốt hơn cho miền này. (–) có nghĩa là điểm thấp hơn thì tốt hơn.
Bộ dữ liệu | Hệ mét | Kết quả của chúng tôi | Kỷ lục trước đó | Nhân loại |
Thử thách sơ đồ Winograd | độ chính xác (+) | 70,70% | 63,7% | 92%+ |
LAMBADA | độ chính xác (+) | 63,24% | 59,23% | 95%+ |
LAMBADA | sự bối rối (–) | 8.6 | 99 | ~1–2 |
Bài kiểm tra sách thiếu nhi Danh từ chung (độ chính xác xác thực) | độ chính xác (+) | 93,30% | 85,7% | 96% |
Kiểm tra sách thiếu nhi về các thực thể được đặt tên (độ chính xác xác thực) | độ chính xác (+) | 89,05% | 82,3% | 92% |
Ngân hàng Penn Tree | sự bối rối (–) | 35,76 | 46,54 | không rõ |
WikiText-2 | sự bối rối (–) | 18.34 | 39,14 | không rõ |
enwik8 | bit trên một ký tự (–) | 0,93 | 0,99 | không rõ |
văn bản8 | bit trên một ký tự (–) | 0,98 | 1.08 | không rõ |
WikiText-103 | sự bối rối (–) | 17,48 | 18.3 | không rõ |
GPT-2 đạt được trình độ tiên tiến nhất trong Winograd Schema, LAMBADA và các tác vụ mô hình hóa ngôn ngữ khác.
Đối với các nhiệm vụ ngôn ngữ khác như trả lời câu hỏi, hiểu đọc, tóm tắt và dịch thuật, chúng tôi có thể nhận được kết quả đáng ngạc nhiên mà không cần tinh chỉnh mô hình, chỉ bằng cách nhắc nhở mô hình đã đào tạo theo đúng cách (xem ví dụ bên dưới về cách chúng tôi thực hiện việc này), mặc dù chúng tôi vẫn chưa đạt đến trình độ tiên tiến nhất đối với các hệ thống chuyên dụng.

.png)
Cách đổi Mật khẩu Chat GPT - Hướng dẫn đổi Pass Chat GPT 100% Thành công
Hướng dẫn Cách đăng nhập Chat GPT Nhanh nhất | Có hỗ trợ Miễn phí qua Teamview-Ultraview
Chat GPT Plus là gì? So sánh Chat GPT Plus với Chat GPT Miễn phí
Chat GPT bị giới hạn giải thích vì sao và cách khắc phục
Chat GPT là gì ? Cách đăng Ký Chat GPT Miễn Phí tại Việt Nam