Trí tuệ nhân tạo đang ở ngã ba đường. Đã hơn hai năm kể từ khi ChatGPT ra mắt và sự lạc quan ban đầu về tiềm năng của AI đã bị giảm bớt đáng kể do nhận thức về những hạn chế và chi phí của nó. Tài khoản GPT 4 với nhiều tính năng mới duy nhất tại Vua Quảng Cáo!
Bối cảnh AI năm 2025 phản ánh sự phức tạp đó. Mặc dù sự phấn khích vẫn còn rất nhiều -- đặc biệt là đối với các lĩnh vực mới nổi, như AI đại lý và các mô hình đa phương thức - nhưng năm nay cũng được dự đoán là một năm đầy khó khăn khi phát triển.
Các công ty ngày càng tìm kiếm kết quả đã được chứng minh từ AI tạo sinh , thay vì các nguyên mẫu giai đoạn đầu. Đó không phải là một kỳ tích dễ dàng đối với một công nghệ thường đắt tiền, dễ xảy ra lỗi và dễ bị sử dụng sai mục đích. Và các cơ quan quản lý sẽ cần cân bằng giữa đổi mới và an toàn, đồng thời theo kịp môi trường công nghệ thay đổi nhanh chóng.
Dưới đây là tám xu hướng AI hàng đầu cần chuẩn bị vào năm 2025.
1. Sự cường điệu nhường chỗ cho những cách tiếp cận thực tế hơn
Từ năm 2022, đã có sự bùng nổ về sự quan tâm và đổi mới trong AI tạo sinh, nhưng việc áp dụng thực tế vẫn chưa nhất quán. Các công ty thường gặp khó khăn trong việc chuyển các dự án AI tạo sinh, cho dù là công cụ năng suất nội bộ hay ứng dụng hướng đến khách hàng, từ giai đoạn thí điểm sang giai đoạn sản xuất.
Mặc dù nhiều doanh nghiệp đã khám phá AI tạo sinh thông qua các bằng chứng về khái niệm, nhưng ít doanh nghiệp tích hợp hoàn toàn AI vào hoạt động của mình. Trong báo cáo nghiên cứu tháng 9 năm 2024 , Nhóm chiến lược doanh nghiệp của Informa TechTarget phát hiện ra rằng, mặc dù hơn 90% các tổ chức đã tăng cường sử dụng AI tạo sinh trong năm trước, chỉ có 8% coi sáng kiến của họ đã hoàn thiện.
"Điều đáng ngạc nhiên nhất đối với tôi [vào năm 2024] thực sự là sự thiếu hụt việc áp dụng mà chúng ta đang thấy", Jen Stave, giám đốc ra mắt của Viện Thiết kế Dữ liệu Số tại Đại học Harvard cho biết. "Khi bạn nhìn vào các doanh nghiệp, các công ty đang đầu tư vào AI. Họ đang xây dựng các công cụ tùy chỉnh của riêng mình. Họ đang mua các phiên bản doanh nghiệp có sẵn của các mô hình ngôn ngữ lớn (LLM). Nhưng thực sự chưa có làn sóng áp dụng này trong các công ty".
Một lý do cho điều này là tác động không đồng đều của AI trên các vai trò và chức năng công việc. Các tổ chức đang khám phá ra điều mà Stave gọi là "biên giới công nghệ gồ ghề", nơi AI tăng năng suất cho một số nhiệm vụ hoặc nhân viên, trong khi làm giảm năng suất cho những nhiệm vụ hoặc nhân viên khác. Ví dụ, một nhà phân tích mới vào nghề có thể tăng đáng kể năng suất của họ bằng cách sử dụng một công cụ chỉ làm chậm một đối tác có nhiều kinh nghiệm hơn.
"Các nhà quản lý không biết ranh giới đó ở đâu, và nhân viên cũng không biết ranh giới đó ở đâu", Stave nói. "Vì vậy, có rất nhiều sự không chắc chắn và thử nghiệm".
Bất chấp mức độ cường điệu cao ngất ngưởng của AI tạo sinh, thực tế là việc áp dụng chậm chạp không phải là điều bất ngờ đối với bất kỳ ai có kinh nghiệm trong công nghệ doanh nghiệp. Vào năm 2025, hãy mong đợi các doanh nghiệp sẽ nỗ lực hơn nữa để đạt được kết quả có thể đo lường được từ AI tạo sinh: giảm chi phí, ROI có thể chứng minh được và tăng hiệu quả.
2. Trí tuệ nhân tạo vượt ra ngoài chatbot
Khi hầu hết người bình thường nghe đến thuật ngữ AI tạo sinh , họ nghĩ đến các công cụ như tài khoản Chat GPT và Claude được hỗ trợ bởi LLM. Các cuộc khám phá ban đầu từ các doanh nghiệp cũng có xu hướng liên quan đến việc kết hợp LLM vào các sản phẩm và dịch vụ thông qua giao diện trò chuyện. Nhưng khi công nghệ phát triển, các nhà phát triển AI, người dùng cuối và khách hàng doanh nghiệp đều hướng đến mục tiêu xa hơn là chatbot.
Eric Sydell, nhà sáng lập kiêm giám đốc điều hành của Vero AI, một nền tảng AI và phân tích, cho biết: "Mọi người cần suy nghĩ sáng tạo hơn về cách sử dụng các công cụ cơ bản này và không chỉ cố gắng thêm cửa sổ trò chuyện vào mọi thứ".
Sự chuyển đổi này phù hợp với xu hướng rộng hơn: xây dựng phần mềm trên LLM thay vì triển khai chatbot như các công cụ độc lập. Việc chuyển từ giao diện chatbot sang các ứng dụng sử dụng LLM ở phía sau để tóm tắt hoặc phân tích dữ liệu phi cấu trúc có thể giúp giảm thiểu một số vấn đề khiến AI tạo ra khó mở rộng quy mô.
"[Một chatbot] có thể giúp một cá nhân trở nên hiệu quả hơn ... nhưng nó chỉ là một đối một", Sydell nói. "Vậy, làm thế nào để bạn mở rộng quy mô theo cách cấp doanh nghiệp?"
Tiến tới năm 2025, một số lĩnh vực phát triển AI đang bắt đầu chuyển hướng hoàn toàn khỏi giao diện dựa trên văn bản. Tương lai của AI ngày càng tập trung vào các mô hình đa phương thức, như Sora chuyển văn bản thành video của OpenAI và trình tạo giọng nói AI của ElevenLabs, có thể xử lý các loại dữ liệu không phải văn bản, chẳng hạn như âm thanh, video và hình ảnh.
"AI đã trở thành từ đồng nghĩa với các mô hình ngôn ngữ lớn, nhưng đó chỉ là một loại AI", Stave cho biết. "Đây là cách tiếp cận đa phương thức đối với AI [nơi] chúng ta sẽ bắt đầu thấy một số tiến bộ công nghệ lớn".
Robotics là một hướng khác để phát triển AI vượt ra ngoài các cuộc trò chuyện bằng văn bản -- trong trường hợp này là tương tác với thế giới vật lý. Stave dự đoán rằng các mô hình nền tảng cho robot có thể còn mang tính biến đổi hơn cả sự ra đời của AI tạo sinh.
"Hãy nghĩ về tất cả những cách khác nhau mà chúng ta tương tác với thế giới vật chất", cô nói. "Ý tôi là, các ứng dụng thì vô hạn".
3. Các tác nhân AI là biên giới tiếp theo
Nửa cuối năm 2024 chứng kiến sự quan tâm ngày càng tăng đối với các mô hình AI đại lý có khả năng hành động độc lập. Các công cụ như Agentforce của Salesforce được thiết kế để tự động xử lý các tác vụ cho người dùng doanh nghiệp, quản lý quy trình làm việc và thực hiện các hành động thường lệ, như lập lịch và phân tích dữ liệu.
AI Agentic đang trong giai đoạn đầu. Sự chỉ đạo và giám sát của con người vẫn rất quan trọng và phạm vi các hành động có thể thực hiện thường được xác định một cách hẹp. Nhưng ngay cả với những hạn chế đó, các tác nhân AI vẫn hấp dẫn đối với nhiều lĩnh vực.
Tất nhiên, chức năng tự động không phải là hoàn toàn mới; cho đến nay, nó đã trở thành nền tảng vững chắc của phần mềm doanh nghiệp. Sự khác biệt với các tác nhân AI nằm ở khả năng thích ứng của chúng: Không giống như phần mềm tự động hóa đơn giản, các tác nhân có thể thích ứng với thông tin mới theo thời gian thực, phản ứng với những trở ngại bất ngờ và đưa ra quyết định độc lập.
Tuy nhiên, sự độc lập đó cũng kéo theo những rủi ro mới. Grace Yee, giám đốc cấp cao về đổi mới đạo đức tại Adobe, đã cảnh báo về "tác hại có thể xảy ra ... vì các tác nhân có thể bắt đầu, trong một số trường hợp, hành động thay mặt bạn để giúp lập lịch trình hoặc thực hiện các nhiệm vụ khác." Các công cụ AI tạo sinh nổi tiếng là dễ gây ảo giác hoặc tạo ra thông tin sai lệch -- điều gì sẽ xảy ra nếu một tác nhân tự động mắc phải những sai lầm tương tự với hậu quả tức thời, trong thế giới thực?
Sydell đã trích dẫn những lo ngại tương tự, lưu ý rằng một số trường hợp sử dụng sẽ gây ra nhiều vấn đề về đạo đức hơn những trường hợp khác. "Khi bạn bắt đầu tham gia vào các ứng dụng có rủi ro cao -- những thứ có khả năng gây hại hoặc giúp ích cho cá nhân -- thì các tiêu chuẩn phải cao hơn nhiều", ông nói.
4. Các mô hình AI tạo ra trở thành hàng hóa
Bối cảnh AI tạo sinh đang phát triển nhanh chóng, với các mô hình nền tảng dường như hiện có rất nhiều. Khi năm 2025 bắt đầu, lợi thế cạnh tranh đang dịch chuyển khỏi công ty nào có
mô hình tốt nhất mà các doanh nghiệp giỏi trong việc tinh chỉnh các mô hình được đào tạo trước hoặc phát triển các công cụ chuyên biệt để xếp lớp lên trên chúng.
Trong bản tin gần đây , nhà phân tích Benedict Evans đã so sánh sự bùng nổ của các mô hình AI tạo sinh với ngành công nghiệp PC vào cuối những năm 1980 và 1990. Vào thời đại đó, việc so sánh hiệu suất tập trung vào những cải tiến gia tăng về thông số kỹ thuật như tốc độ CPU hoặc bộ nhớ, tương tự như cách các mô hình AI tạo sinh ngày nay được đánh giá trên các tiêu chuẩn kỹ thuật chuyên biệt.
Tuy nhiên, theo thời gian, những sự khác biệt này đã mờ dần khi thị trường đạt đến mức cơ sở đủ tốt, với sự khác biệt chuyển sang các yếu tố như chi phí, UX và tính dễ tích hợp. Các mô hình nền tảng dường như đang đi theo một quỹ đạo tương tự: Khi hiệu suất hội tụ, các mô hình tiên tiến trở nên ít nhiều có thể hoán đổi cho nhau đối với nhiều trường hợp sử dụng.
Trong bối cảnh mô hình hàng hóa hóa, trọng tâm không còn là số lượng tham số hoặc hiệu suất tốt hơn một chút trên một chuẩn mực nhất định, mà thay vào đó là khả năng sử dụng, độ tin cậy và khả năng tương tác với các hệ thống cũ. Trong môi trường đó, các công ty AI có hệ sinh thái đã được thiết lập, các công cụ thân thiện với người dùng và giá cả cạnh tranh có khả năng sẽ dẫn đầu.
5. Các ứng dụng AI và bộ dữ liệu trở nên cụ thể hơn theo lĩnh vực
Các phòng thí nghiệm AI hàng đầu, như OpenAI và Anthropic, tuyên bố đang theo đuổi mục tiêu đầy tham vọng là tạo ra trí thông minh nhân tạo tổng quát (AGI), thường được định nghĩa là AI có thể thực hiện bất kỳ nhiệm vụ nào mà con người có thể thực hiện. Nhưng AGI -- hoặc thậm chí là khả năng tương đối hạn chế của các mô hình nền tảng ngày nay - còn lâu mới cần thiết cho hầu hết các ứng dụng kinh doanh.
Đối với các doanh nghiệp, sự quan tâm đến các mô hình hẹp, tùy chỉnh cao bắt đầu ngay khi chu kỳ cường điệu AI tạo sinh bắt đầu. Một ứng dụng kinh doanh được thiết kế hẹp đơn giản là không yêu cầu mức độ linh hoạt cần thiết cho một chatbot hướng đến người tiêu dùng.
"Có rất nhiều sự tập trung vào các mô hình AI mục đích chung", Yee nói. "Nhưng tôi nghĩ điều quan trọng hơn là thực sự suy nghĩ thấu đáo: Chúng ta đang sử dụng công nghệ đó như thế nào ... và trường hợp sử dụng đó có phải là trường hợp sử dụng rủi ro cao không?"
Tóm lại, các doanh nghiệp nên cân nhắc nhiều hơn về công nghệ đang được triển khai và thay vào đó hãy suy nghĩ sâu hơn về việc ai sẽ sử dụng nó và sử dụng như thế nào. "Đối tượng là ai?" Yee nói. "Trường hợp sử dụng dự kiến là gì? Nó đang được sử dụng trong phạm vi nào?"
Mặc dù, theo lịch sử, các tập dữ liệu lớn hơn đã thúc đẩy cải thiện hiệu suất mô hình, các nhà nghiên cứu và chuyên gia đang tranh luận liệu xu hướng này có thể duy trì được hay không. Một số người cho rằng, đối với một số tác vụ và nhóm dân số nhất định, hiệu suất mô hình sẽ đạt đến mức ổn định -- hoặc thậm chí tệ hơn -- khi các thuật toán được cung cấp nhiều dữ liệu hơn.
"Động lực để thu thập các tập dữ liệu ngày càng lớn có thể dựa trên các giả định sai lầm cơ bản về hiệu suất của mô hình", các tác giả Fernando Diaz và Michael Madaio đã viết trong bài báo "Luật mở rộng không thể mở rộng". "Tức là, trên thực tế, các mô hình có thể không tiếp tục cải thiện khi các tập dữ liệu ngày càng lớn hơn - ít nhất là không phải đối với tất cả mọi người hoặc cộng đồng bị ảnh hưởng bởi các mô hình đó".
6. Kiến thức về AI trở nên thiết yếu
Sự phổ biến của AI tạo sinh đã khiến kiến thức về AI trở thành một kỹ năng được mọi người, từ giám đốc điều hành đến nhà phát triển cho đến nhân viên hàng ngày, cần có. Điều đó có nghĩa là biết cách sử dụng các công cụ này, đánh giá đầu ra của chúng và -- có lẽ quan trọng nhất -- điều hướng các hạn chế của chúng.
Đáng chú ý là, mặc dù tài năng AI và máy học vẫn được săn đón, việc phát triển kiến thức về AI không nhất thiết phải có nghĩa là học cách lập trình hoặc đào tạo mô hình. "Bạn không nhất thiết phải là kỹ sư AI để hiểu các công cụ này, cách sử dụng chúng và liệu có nên sử dụng chúng hay không", Sydell cho biết. "Thử nghiệm, khám phá, sử dụng các công cụ là vô cùng hữu ích".
Giữa cơn sốt AI tạo sinh dai dẳng, chúng ta có thể dễ dàng quên rằng công nghệ này vẫn còn tương đối mới. Nhiều người hoặc là chưa sử dụng hoặc không sử dụng thường xuyên: Một bài báo nghiên cứu gần đây phát hiện ra rằng, tính đến tháng 8 năm 2024, chưa đến một nửa số người Mỹ trong độ tuổi từ 18 đến 64 sử dụng AI tạo sinh và chỉ hơn một phần tư sử dụng nó tại nơi làm việc.
Theo các tác giả của bài báo, đây là tốc độ áp dụng nhanh hơn so với PC hoặc Internet, nhưng vẫn chưa phải là đa số. Ngoài ra còn có khoảng cách giữa lập trường chính thức của các doanh nghiệp về AI tạo sinh và cách người lao động thực sự sử dụng AI trong các công việc hàng ngày của họ.
"Nếu bạn nhìn vào số lượng công ty cho biết họ đang sử dụng nó, thì thực tế là có một tỷ lệ khá thấp những công ty chính thức đưa nó vào hoạt động của họ", David Deming, giáo sư tại Đại học Harvard và là một trong những tác giả của bài báo, nói với tờ The Harvard Gazette. "Mọi người đang sử dụng nó một cách không chính thức cho nhiều mục đích khác nhau, để giúp viết email, sử dụng nó để tra cứu thông tin, sử dụng nó để có được tài liệu hướng dẫn về cách thực hiện một việc gì đó".
Stave nhìn thấy vai trò của cả công ty và các tổ chức giáo dục trong việc thu hẹp khoảng cách kỹ năng AI. "Khi bạn nhìn vào các công ty, họ hiểu được nhu cầu đào tạo tại chỗ mà người lao động cần", bà nói. "Họ luôn có vì đó là nơi công việc diễn ra".
Ngược lại, các trường đại học ngày càng cung cấp nền giáo dục dựa trên kỹ năng, thay vì dựa trên vai trò, có sẵn liên tục và áp dụng cho nhiều công việc. "Bối cảnh kinh doanh đang thay đổi rất nhanh. Bạn không thể chỉ nghỉ việc và quay lại lấy bằng thạc sĩ rồi học mọi thứ mới", Stave cho biết. "Chúng ta phải tìm ra cách mô đun hóa việc học và truyền đạt cho mọi người theo thời gian thực".
7. Các doanh nghiệp điều chỉnh theo môi trường pháp lý đang thay đổi
Khi năm 2024 trôi qua, các công ty phải đối mặt với bối cảnh pháp lý phân mảnh và thay đổi nhanh chóng . Trong khi EU đặt ra các tiêu chuẩn tuân thủ mới với việc thông qua Đạo luật AI vào năm 2024, Hoa Kỳ vẫn tương đối không được quản lý -- một xu hướng có khả năng tiếp tục vào năm 2025 dưới thời chính quyền Trump.
"Một điều mà tôi nghĩ là khá không đủ vào lúc này là luật pháp [và] quy định xung quanh các công cụ này", Sydell nói. "Có vẻ như điều đó sẽ không xảy ra sớm tại thời điểm này". Stave cũng cho biết bà "không mong đợi sự điều chỉnh đáng kể từ chính quyền mới".
Cách tiếp cận nhẹ nhàng đó có thể thúc đẩy sự phát triển và đổi mới của AI, nhưng việc thiếu trách nhiệm cũng làm dấy lên mối lo ngại về tính an toàn và công bằng. Yee thấy cần phải có quy định bảo vệ tính toàn vẹn của bài phát biểu trực tuyến, chẳng hạn như cung cấp cho người dùng quyền truy cập vào thông tin nguồn gốc về nội dung internet , cũng như luật chống mạo danh để bảo vệ người sáng tạo.
Để giảm thiểu tác hại mà không kìm hãm sự đổi mới, Yee cho biết bà muốn thấy quy định có thể phản ứng với mức độ rủi ro của một ứng dụng AI cụ thể. Theo khuôn khổ rủi ro theo từng cấp, bà cho biết, "các ứng dụng AI có rủi ro thấp có thể đưa ra thị trường nhanh hơn, [trong khi] các ứng dụng AI có rủi ro cao phải trải qua một quy trình cẩn trọng hơn".
Stave cũng chỉ ra rằng việc giám sát tối thiểu ở Hoa Kỳ không nhất thiết có nghĩa là các công ty sẽ hoạt động trong một môi trường hoàn toàn không được quản lý. Trong trường hợp không có một tiêu chuẩn toàn cầu thống nhất, các công ty lớn đang hoạt động ở nhiều khu vực thường sẽ tuân thủ các quy định nghiêm ngặt nhất theo mặc định. Theo cách này, Đạo luật AI của EU có thể hoạt động tương tự như GDPR, thiết lập các tiêu chuẩn thực tế cho các công ty xây dựng hoặc triển khai AI trên toàn thế giới.
8. Mối lo ngại về an ninh liên quan đến AI leo thang
Sự phổ biến rộng rãi của AI tạo sinh, thường với chi phí thấp hoặc miễn phí, mang đến cho những kẻ đe dọa quyền truy cập chưa từng có vào các công cụ tạo điều kiện cho các cuộc tấn công mạng. Rủi ro đó sẽ tăng lên vào năm 2025 khi các mô hình đa phương thức trở nên tinh vi hơn và dễ tiếp cận hơn.
Trong một cảnh báo công khai gần đây , FBI đã mô tả một số cách tội phạm mạng đang sử dụng AI tạo ra để lừa đảo và gian lận tài chính. Ví dụ, kẻ tấn công nhắm mục tiêu vào nạn nhân thông qua hồ sơ truyền thông xã hội lừa đảo có thể viết tiểu sử thuyết phục và tin nhắn trực tiếp bằng LLM, đồng thời sử dụng ảnh giả do AI tạo ra để tạo độ tin cậy cho danh tính giả.
Video và âm thanh AI cũng gây ra mối đe dọa ngày càng tăng. Theo truyền thống, các mô hình bị hạn chế bởi các dấu hiệu cho thấy sự không chân thực, như giọng nói giống như tiếng rô-bốt hoặc video chậm, lỗi. Mặc dù các phiên bản ngày nay không hoàn hảo, nhưng chúng tốt hơn đáng kể, đặc biệt là nếu nạn nhân lo lắng hoặc bị áp lực về thời gian không nhìn hoặc lắng nghe quá kỹ.
Máy phát âm thanh có thể cho phép tin tặc mạo danh những người liên lạc đáng tin cậy của nạn nhân, chẳng hạn như vợ/chồng hoặc đồng nghiệp. Cho đến nay, việc tạo video ít phổ biến hơn vì tốn kém hơn và có nhiều cơ hội mắc lỗi hơn. Nhưng, trong một vụ việc được công khai rộng rãi vào đầu năm nay, những kẻ lừa đảo đã mạo danh thành công giám đốc tài chính của một công ty và các nhân viên khác trong một cuộc gọi video bằng cách sử dụng deepfake, khiến một nhân viên tài chính gửi 25 triệu đô la vào các tài khoản gian lận.
Các rủi ro bảo mật khác liên quan đến lỗ hổng trong chính các mô hình, thay vì kỹ thuật xã hội. Học máy đối nghịch và đầu độc dữ liệu , trong đó dữ liệu đầu vào và dữ liệu đào tạo được thiết kế cố ý để gây hiểu lầm hoặc làm hỏng các mô hình, có thể gây hại cho chính các hệ thống AI. Để tính đến những rủi ro này, các doanh nghiệp sẽ cần coi bảo mật AI là một phần cốt lõi trong các chiến lược an ninh mạng tổng thể của họ.