
Generative AI & Large Language Models (LLMs)
Generative AI và các Mô hình Ngôn ngữ Lớn (LLMs) không chỉ là một xu hướng, mà là một cuộc cách mạng đang định hình lại toàn bộ ngành công nghệ. Nếu AI trước đây chủ yếu dùng để phân tích và dự đoán, thì Generative AI đã mở ra một kỷ nguyên mới nơi máy tính có thể sáng tạo, lập luận và hành động. Khóa học này được thiết kế để đưa bạn thẳng vào tâm điểm của cuộc cách mạng đó, trang bị cho bạn bộ kỹ năng toàn diện để xây dựng các ứng dụng thông minh thế hệ mới, từ đó chuyển mình từ người tiêu thụ AI thành người kiến tạo AI.
Chương trình sẽ giúp bạn làm chủ toàn bộ vòng đời của một ứng dụng LLM, bắt đầu từ việc hiểu sâu kiến trúc Transformer – nền tảng của các mô hình hàng đầu như GPT, LLaMA. Bạn sẽ học cách “giao tiếp” hiệu quả với mô hình qua Prompt Engineering, cung cấp “bộ não” tri thức riêng cho chúng bằng kỹ thuật Retrieval-Augmented Generation (RAG), và “dạy” chúng chuyên sâu về một lĩnh vực cụ thể thông qua Fine-tuning. Đặc biệt, bạn sẽ học cách xây dựng các AI Agent có khả năng tự động hóa các quy trình phức tạp, sử dụng các framework hàng đầu như Hugging Face, LangChain, và LlamaIndex.
Thời lượng: 51h
Thời lượng: 51h


Hình thức đào tạo:
-
- Đào tạo trực tiếp tại lớp học
- Đào tạo trực tuyến
- Đào tạo hybrid (trực tuyến kết hợp trực tiếp)
- Đào tạo tại văn phòng khách hàng
KẾT QUẢ ĐẠT ĐƯỢC:
-
LÀM CHỦ KIẾN TRÚC VÀ TRIỂN KHAI LLMs
Hiểu sâu về transformer, GPT, LLaMA, Falcon… và các kiến trúc tạo nên làn sóng AI mới.
-
THÀNH THẠO PROMPT ENGINEERING VÀ FINE-TUNING
Xây dựng prompt hiệu quả, thực hành fine-tuning LLMs (LoRA, RLHF) cho bài toán doanh nghiệp.
-
XÂY DỰNG RAG PIPELINE VÀ AI AGENT
Triển khai RAG hỏi-đáp trên dữ liệu nội bộ, xây dựng AI Agent tự động hóa workflow phức tạp.
-
KIỂM DUYỆT, ĐÁNH GIÁ, TỐI ƯU VẬN HÀNH MÔ HÌNH
RAG evaluation, grounding score, quantization, model compression để vận hành AI tiết kiệm chi phí.
-
PHÁT TRIỂN ỨNG DỤNG AI END-TO-END
Hoàn thành các project lớn từ ý tưởng, thử nghiệm, tối ưu đến triển khai thực tế trên cloud/server.

Đối tượng tham gia

Sinh viên
Ngành CNTT, Khoa học Máy tính, Toán-Tin muốn ứng dụng kiến thức vào lĩnh vực AI thực tiễn.

Lập trình viên
Đã có kinh nghiệm, muốn tích hợp các giải pháp trí tuệ nhân tạo thông minh vào sản phẩm.

Người chuyển ngành
Có tư duy logic, muốn bắt đầu sự nghiệp trong lĩnh vực trí tuệ nhân tạo đầy tiềm năng.

Người đam mê AI
Muốn trang bị kỹ năng thực chiến để đưa mô hình từ nghiên cứu đến vận hành thực tế.
Nội dung khóa học
1. Nền tảng Generative AI & LLMs
-
- Tổng quan Generative AI:
- So sánh discriminative vs generative model.
- Lịch sử phát triển: từ RNN, LSTM đến Transformer và LLMs.
- Kiến trúc Transformer chi tiết:
- Encoder, Decoder, Self-Attention, Multi-Head Attention, Positional Encoding.
- Lý giải sức mạnh của Transformer trong mô hình ngôn ngữ lớn.
- Các dòng LLM nổi bật:
- GPT, LLaMA, Falcon, Mistral…
- Ưu/nhược điểm, cộng đồng phát triển, licensing (open/closed source).
- Thực hành:
- Dùng Hugging Face để phân tích mô hình GPT-2: architecture, tokenizer, pipeline text generation.
- Tổng quan Generative AI:
2. Prompt Engineering
-
- Prompt cơ bản:
- Hiểu prompt là gì, cách LLM tiếp nhận prompt.
- Zero-shot, few-shot: Lý thuyết và thực hành trên các bài toán classification, summarization, QA.
- Chain-of-Thought Prompting:
- Tăng khả năng reasoning, giải quyết bài toán đa bước (multi-step).
- Ứng dụng cho toán học, phân tích logic, kiểm thử nghiệp vụ thực tế.
- Instruction tuning:
- Tối ưu LLM cho các dạng prompt phức tạp, multi-turn conversation.
- So sánh output trước/sau instruction tuning.
- Thực hành:
- Xây dựng thư viện prompt template cho chatbot hỏi đáp, tóm tắt báo cáo nội bộ doanh nghiệp.
- So sánh kết quả với từng kiểu prompt, tối ưu hóa cho use-case cụ thể.
- Prompt cơ bản:
3. Retrieval-Augmented Generation (RAG)
-
- Khái niệm và lợi ích của RAG:
- Vấn đề “hallucination”, kiến trúc RAG (retriever, generator).
- Ứng dụng thực tiễn: Chatbot nội bộ, search engine hỏi đáp tài liệu.
- Vector Database:
- Khái niệm embedding, vector store.
- Sử dụng Qdrant, ChromaDB để index và search dữ liệu phi cấu trúc.
- Kết nối LLM với nguồn dữ liệu ngoài:
- Xây dựng pipeline RAG với LangChain, LlamaIndex.
- Cách lấy embedding từ LLM, so khớp câu hỏi – tài liệu.
- Thực hành:
- Xây dựng hệ thống Q&A cho tài liệu PDF doanh nghiệp.
- Kết nối search engine với chatbot LLM.
- Đánh giá chất lượng bằng grounding score (so khớp câu trả lời với tài liệu gốc).
- Khái niệm và lợi ích của RAG:
4. Fine-tuning LLMs
-
- Các phương pháp fine-tuning:
- Full fine-tuning: Yêu cầu tài nguyên lớn, áp dụng khi cần training lại hoàn toàn.
- Parameter Efficient Fine-tuning (PEFT):
- LoRA (Low Rank Adaptation): Tinh chỉnh vài tham số, tiết kiệm RAM/VRAM.
- Prompt Tuning, Adapter, Prefix Tuning: Tổng quan, so sánh hiệu quả.
- RLHF (Reinforcement Learning from Human Feedback): Fine-tune bằng phản hồi từ con người, tạo chatbot tuân thủ quy tắc doanh nghiệp.
- Chuẩn bị dữ liệu cho fine-tuning:
- Chuẩn hóa, gắn nhãn, tạo dataset Q&A hoặc summarization thực tế.
- Định dạng dữ liệu theo chuẩn OpenAI/SFT.
- Thực hành:
- Fine-tune LLaMA 2/Mistral trên domain-specific Q&A, tổng hợp dữ liệu tiếng Việt.
- So sánh output với mô hình gốc, đo lường hiệu quả bằng chỉ số BLEU, ROUGE, hoặc grounding score.
- Các phương pháp fine-tuning:
5. AI Agents
-
- Khái niệm và kiến trúc AI Agent:
- Reasoning & planning: Lập kế hoạch và tự động hóa hành động.
- Các framework: LangChain Agent, MCP Server, Autogen.
- Xây dựng workflow với Agent:
- Tự động hóa nhiều bước: gọi API, thu thập dữ liệu, tổng hợp, gửi mail, update database, tương tác với Notion, Google Sheet, Slack…
- Thực hành:
- Xây dựng Agent tự động đọc email, phân loại nội dung, tạo ghi chú trên Notion.
- Agent tích hợp với search engine nội bộ, gọi API ngoài (weather, news).
- Theo dõi và log các bước reasoning của Agent, debugging workflow.
- Khái niệm và kiến trúc AI Agent:
6. Đánh giá & Kiểm duyệt
-
- Đánh giá LLM & RAG:
- RAG evaluation: kiểm tra tính đúng đắn (factual correctness) của câu trả lời.
- Grounding score: Đo mức độ bám sát tài liệu gốc.
- Các chỉ số: BLEU, ROUGE, Accuracy, F1-score cho QA và summarization.
- Kiểm duyệt nội dung (Content Moderation):
- Phát hiện toxic, bias, kiểm soát output trước khi gửi cho người dùng.
- Sử dụng OpenAI Moderation API hoặc xây dựng rule/ML-based moderation riêng.
- Thực hành:
- Tạo pipeline kiểm duyệt câu trả lời từ LLM, gắn nhãn câu trả lời nhạy cảm, cấm từ khóa, kiểm tra đạo văn.
- Đánh giá LLM & RAG:
7.Tối ưu hóa vận hành LLM
-
- So sánh LLM mã nguồn mở vs thương mại:
- Ưu/nhược điểm, khi nào nên chọn loại nào, case study thực tế.
- Kỹ thuật giảm chi phí và tối ưu hóa inference:
- Quantization (INT8, 4-bit, 3-bit), giảm kích thước mô hình.
- Model pruning, distillation: Tạo mô hình nhỏ hơn, chạy nhanh hơn.
- Caching, batching request để tiết kiệm GPU/CPU.
- Triển khai thực tế:
- Deploy LLM lên GPU thấp, serverless (AWS Lambda, Cloud Run…)
- Theo dõi tài nguyên, chi phí, auto-scaling.
- Thực hành:
- Triển khai LLM đã fine-tune trên cloud giá rẻ, đo benchmark thời gian inference và cost.
- So sánh LLM mã nguồn mở vs thương mại:
8. BÀI THỰC HÀNH CUỐI KHÓA
Học viên lựa chọn hoặc tự đề xuất đề tài, ví dụ:
-
- Đề tài 1: Xây dựng Chatbot nội bộ doanh nghiệp dựa trên RAG + LangChain, chatbot có thể trả lời chính xác dựa trên tài liệu/policy thực tế công ty.
- Đề tài 2: Xây dựng hệ thống tóm tắt báo cáo nội bộ: upload file, xử lý tóm tắt, kiểm duyệt và xuất bản báo cáo.
- Đề tài 3: AI Agent tự động lấy dữ liệu từ API công khai (weather, news), tổng hợp gửi báo cáo qua email hoặc Slack hàng ngày.
- Yêu cầu chung:
- Thiết kế kiến trúc hệ thống (diagram).
- Quản lý mã nguồn trên GitHub, viết README chi tiết.
- Đóng gói, triển khai demo sản phẩm thực tế.
- Trình bày báo cáo kết quả, demo cho lớp/team đánh giá.
LỊCH KHAI GIẢNG
(Đang cập nhật)

Bài viết liên quan
