Từ LLM đến Hallucination: Giải thích các thuật ngữ AI quan trọng năm 2025
Trí tuệ nhân tạo phát triển mạnh mẽ, với các khái niệm tiên tiến như AGI, AI agent, và kỹ thuật Chain of Thought nâng cao khả năng giải quyết vấn đề.

Trí tuệ nhân tạo (AI) đang ngày càng phát triển với tốc độ chóng mặt, mở ra nhiều ứng dụng thực tiễn nhưng cũng mang đến không ít khái niệm phức tạp. Từ AGI, AI agent cho đến Chain of Thought hay Diffusion, các thuật ngữ này xuất hiện dày đặc trên các bản tin công nghệ nhưng lại khó tiếp cận với người đọc phổ thông. Bài viết này tổng hợp và giải thích các thuật ngữ AI quan trọng, giúp bạn hiểu rõ nền tảng công nghệ đang thay đổi thế giới.
AGI (Artificial General Intelligence – Trí tuệ nhân tạo tổng quát)
AGI là khái niệm chỉ những hệ thống AI có khả năng thực hiện các nhiệm vụ trí tuệ ở cấp độ ngang hoặc vượt trội so với con người. Theo Sam Altman, CEO của OpenAI, AGI có thể được hình dung như một “nhân viên trung bình” mà bạn có thể thuê làm đồng nghiệp. Trong khi đó, Google DeepMind định nghĩa AGI là AI có khả năng thực hiện tốt hầu hết các nhiệm vụ nhận thức của con người. Dù được nhắc đến nhiều, AGI vẫn là một khái niệm còn mơ hồ và chưa có sự đồng thuận rõ ràng trong cộng đồng nghiên cứu AI.
AI Agent (Tác nhân AI)
AI Agent là một công cụ AI được thiết kế để thực hiện một loạt các nhiệm vụ thay con người, vượt xa khả năng của chatbot thông thường. Ví dụ, AI agent có thể giúp bạn tự động đặt vé máy bay, quản lý chi tiêu, thậm chí viết và duy trì mã code. Tuy nhiên, khái niệm AI agent vẫn còn mới và chưa có một định nghĩa thống nhất, bởi nó phụ thuộc vào cách mỗi tổ chức phát triển và ứng dụng. AI agent thường là một hệ thống tự động, có khả năng phối hợp nhiều mô hình AI khác nhau để hoàn thành các tác vụ phức tạp.
Chain of Thought (Chuỗi suy nghĩ)
Trong AI, Chain of Thought là kỹ thuật giúp mô hình ngôn ngữ lớn (LLM) suy luận từng bước để giải quyết các vấn đề phức tạp. Thay vì đưa ra câu trả lời trực tiếp, AI sẽ phân tích bài toán thành các bước trung gian – giống như cách con người viết nháp khi giải toán. Cách tiếp cận này tuy mất nhiều thời gian hơn nhưng giúp cải thiện độ chính xác của câu trả lời, đặc biệt hữu ích trong các tác vụ logic hoặc lập trình. Mô hình được huấn luyện với Chain of Thought thường được tinh chỉnh qua phương pháp học tăng cường (reinforcement learning) để cải thiện kỹ năng giải quyết vấn đề.
Deep learning (Học sâu)
Deep learning, hay học sâu, là một nhánh của học máy (Machine Learning), sử dụng cấu trúc mạng nơ-ron nhân tạo nhiều lớp (Artificial Neural Network – ANN) để xử lý dữ liệu. Mỗi lớp trong mạng sẽ xử lý thông tin theo cách riêng, giúp AI phát hiện ra các mối liên hệ phức tạp hơn so với các thuật toán học máy truyền thống như hồi quy tuyến tính hay cây quyết định.
Ưu điểm của deep learning là khả năng tự động học từ dữ liệu lớn mà không cần con người lập trình sẵn các quy tắc đặc biệt. Ví dụ, trong bài toán nhận diện hình ảnh, AI có thể tự phát hiện đặc điểm như cạnh, hình dạng và màu sắc mà không cần kỹ sư AI chỉ rõ. Tuy nhiên, deep learning đòi hỏi lượng dữ liệu khổng lồ (hàng triệu mẫu trở lên) và tiêu tốn tài nguyên tính toán lớn, khiến chi phí phát triển cao hơn.
Diffusion (Khuếch tán)
Diffusion là công nghệ nền tảng của nhiều mô hình AI tạo sinh, đặc biệt là trong việc tạo hình ảnh, âm nhạc và văn bản. Cơ chế hoạt động của diffusion mô phỏng quá trình vật lý: thêm nhiễu vào dữ liệu gốc (ảnh, âm thanh…) cho đến khi mất hoàn toàn cấu trúc ban đầu, sau đó dạy AI học cách “đảo ngược” để tái tạo dữ liệu từ trạng thái nhiễu này.
Kỹ thuật diffusion giúp AI tạo ra nội dung mới dựa trên khả năng khôi phục dữ liệu đã bị phá vỡ, đóng vai trò cốt lõi trong các hệ thống AI như Stable Diffusion hoặc DALL-E. Tuy nhiên, quá trình huấn luyện mô hình diffusion yêu cầu tài nguyên tính toán lớn và kỹ thuật xử lý dữ liệu phức tạp.
Distillation (Chưng cất mô hình)
Distillation là kỹ thuật nén kiến thức từ một mô hình AI lớn (gọi là giáo viên) sang một mô hình nhỏ hơn (học sinh). Bằng cách cho mô hình giáo viên xử lý dữ liệu và ghi nhận kết quả, sau đó huấn luyện mô hình học sinh dựa trên các kết quả đó, distillation giúp tạo ra các mô hình AI nhẹ hơn, nhanh hơn nhưng vẫn giữ được hiệu suất gần bằng.
Kỹ thuật này đặc biệt hữu ích khi cần triển khai AI trên các thiết bị có hạn chế về tài nguyên, ví dụ như điện thoại hoặc phần cứng nhúng. Tuy nhiên, distillation cũng là chủ đề gây tranh cãi khi bị lạm dụng để sao chép năng lực của các mô hình AI thương mại, tiềm ẩn nguy cơ vi phạm điều khoản sử dụng API và quyền sở hữu trí tuệ.
Fine-tuning (Tinh chỉnh mô hình)
Fine-tuning là quá trình đào tạo bổ sung cho một mô hình AI đã được huấn luyện sẵn để tối ưu hóa hiệu suất cho một nhiệm vụ hoặc lĩnh vực cụ thể. Điều này thường được thực hiện bằng cách cung cấp cho mô hình một tập dữ liệu mới, mang tính đặc thù và tập trung vào vấn đề mà mô hình cần giải quyết.
Ví dụ, một startup có thể sử dụng GPT-4 làm nền tảng và thực hiện fine-tuning bằng bộ dữ liệu liên quan đến tài chính hoặc y tế để phát triển ứng dụng AI phục vụ ngành đó. Fine-tuning giúp mô hình phản hồi tốt hơn cho các tác vụ cụ thể, đồng thời tiết kiệm chi phí và thời gian so với việc xây dựng một mô hình mới từ đầu.
GAN (Generative Adversarial Network – Mạng đối kháng sinh)
GAN là mô hình học máy bao gồm hai mạng nơ-ron: một mạng tạo (generator) và một mạng phân biệt (discriminator). Mạng tạo cố gắng tạo ra dữ liệu mới (ví dụ: ảnh hoặc âm thanh), trong khi mạng phân biệt kiểm tra và phân biệt đâu là dữ liệu thật, đâu là dữ liệu do AI sinh ra. Hai mạng này cạnh tranh với nhau, thúc đẩy cả hai phát triển: mạng tạo ngày càng giỏi trong việc “lừa” mạng phân biệt, còn mạng phân biệt ngày càng giỏi trong việc phát hiện dữ liệu giả.
Cơ chế GAN giúp AI tạo ra dữ liệu có chất lượng cao, chẳng hạn như hình ảnh chân thực hoặc video giả lập (deepfake). Tuy nhiên, GAN phù hợp hơn với các tác vụ chuyên biệt, chứ không phải cho mục đích AI tổng quát.
Hallucination (Ảo giác AI)
Hallucination là hiện tượng khi AI tạo ra thông tin sai lệch hoặc không tồn tại, nhưng lại trình bày như thể đó là sự thật. Đây là vấn đề lớn trong lĩnh vực AI tạo sinh, đặc biệt là với các mô hình ngôn ngữ lớn (LLM), vì nó có thể dẫn đến việc người dùng tiếp nhận những thông tin không chính xác, thậm chí nguy hiểm.
Nguyên nhân của Hallucination thường xuất phát từ sự thiếu hụt dữ liệu trong quá trình huấn luyện, khiến AI “điền vào chỗ trống” bằng cách đoán mò dựa trên các mẫu dữ liệu trước đó. Hiện tượng này là lý do khiến các công ty AI thường khuyến cáo người dùng phải kiểm tra kỹ thông tin do AI cung cấp trước khi sử dụng trong các tình huống quan trọng, như chăm sóc sức khỏe, tài chính hoặc pháp luật.
Inference (Suy luận của AI)
Inference là quá trình AI sử dụng kiến thức đã học trong quá trình huấn luyện để đưa ra dự đoán hoặc kết luận mới từ dữ liệu đầu vào. Nói cách khác, inference chính là lúc AI được “chạy” thực tế để giải quyết bài toán – ví dụ, tạo văn bản, dịch ngôn ngữ, hay nhận diện hình ảnh.
Inference có thể được thực hiện trên nhiều loại phần cứng, từ smartphone, laptop cho đến các hệ thống máy chủ GPU mạnh mẽ. Tuy nhiên, các mô hình AI lớn cần phần cứng chuyên dụng để xử lý nhanh và hiệu quả, vì khối lượng tính toán trong quá trình inference có thể rất lớn, đặc biệt với các mô hình khổng lồ như GPT-4 hoặc Gemini.
Large Language Model (LLM – Mô hình ngôn ngữ lớn)
Large Language Model, hay LLM, là thuật ngữ chỉ các mô hình AI được huấn luyện trên tập dữ liệu văn bản khổng lồ để có khả năng hiểu và tạo ra ngôn ngữ tự nhiên giống con người. Các LLM nổi tiếng hiện nay gồm GPT (OpenAI), Claude (Anthropic), Gemini (Google), LLaMA (Meta), Mistral, v.v.
Khi bạn trò chuyện với các AI như ChatGPT, Gemini hay Claude, thực chất bạn đang tương tác với một LLM – nó xử lý đầu vào của bạn, phân tích ngữ cảnh, và tạo ra câu trả lời dựa trên xác suất cao nhất. Các LLM hoạt động bằng cách dự đoán từ tiếp theo trong câu, dựa trên hàng tỷ trọng số đã học được trong quá trình huấn luyện.
Neural Network (Mạng nơ-ron nhân tạo)
Neural Network là cấu trúc nền tảng của các mô hình học sâu (Deep Learning) và AI hiện đại. Lấy cảm hứng từ cách các nơ-ron trong não người kết nối với nhau, mạng nơ-ron nhân tạo bao gồm nhiều lớp (layers) kết nối với nhau để xử lý dữ liệu. Mỗi lớp trong mạng thực hiện một phép biến đổi nhất định trên dữ liệu và truyền kết quả cho lớp tiếp theo.
Các mạng nơ-ron đã mở ra khả năng xử lý các tác vụ phức tạp như nhận diện giọng nói, dịch ngôn ngữ, nhận diện hình ảnh và tạo ra nội dung mới. Sự phát triển của GPU – vốn ban đầu được thiết kế cho ngành game – đã giúp đẩy nhanh việc huấn luyện các mạng nơ-ron sâu, cho phép AI đạt được những tiến bộ vượt bậc.
Training (Huấn luyện mô hình AI)
Training là quá trình cung cấp dữ liệu cho một mô hình AI để nó học cách nhận diện các mẫu (patterns) và đưa ra kết quả phù hợp. Ban đầu, mô hình chỉ là tập hợp các tham số ngẫu nhiên, chưa có ý nghĩa gì. Thông qua việc xử lý hàng tỷ dữ liệu – ví dụ như sách, bài báo, hình ảnh – mô hình dần dần học cách dự đoán, phân loại và tạo ra đầu ra đúng với yêu cầu.
Quá trình training thường đòi hỏi rất nhiều dữ liệu, thời gian và tài nguyên tính toán. Với các mô hình lớn như LLM, chi phí huấn luyện có thể lên tới hàng chục triệu USD, đòi hỏi hệ thống máy chủ GPU chuyên dụng. Tuy nhiên, không phải mọi AI đều cần training phức tạp – các hệ thống AI đơn giản hơn, dựa trên luật (rule-based), có thể được lập trình sẵn mà không cần giai đoạn huấn luyện.
Transfer Learning (Học chuyển giao)
Transfer Learning là kỹ thuật dùng một mô hình AI đã được huấn luyện trên một nhiệm vụ nào đó làm nền tảng để phát triển mô hình mới cho một nhiệm vụ liên quan. Ví dụ, mô hình đã được huấn luyện nhận diện hình ảnh có thể được tinh chỉnh để phát hiện các đối tượng cụ thể hơn như xe hơi hoặc người đi bộ.
Ưu điểm của transfer learning là giúp tiết kiệm thời gian, chi phí huấn luyện và giảm yêu cầu về dữ liệu. Tuy nhiên, khi áp dụng transfer learning, vẫn cần một lượng dữ liệu nhất định để tinh chỉnh mô hình sao cho phù hợp với mục tiêu mới.
Weights (Trọng số)
Weights là các tham số cốt lõi trong mô hình AI, quyết định mức độ quan trọng của từng đặc trưng đầu vào (input feature) khi tính toán đầu ra. Trong quá trình training, mô hình liên tục điều chỉnh weights thông qua các thuật toán tối ưu để cải thiện độ chính xác của dự đoán.
Ví dụ, trong một mô hình dự đoán giá nhà, trọng số của các yếu tố như diện tích, số phòng ngủ, vị trí, sẽ được điều chỉnh sao cho kết quả dự đoán giá càng gần với giá thực tế càng tốt. Mô hình AI tốt là mô hình có weights phù hợp với mối quan hệ giữa dữ liệu đầu vào và kết quả đầu ra mà nó học được.