Bạn cần viết một báo cáo về "Biến động giá Bitcoin trong tuần qua" hoặc "Các tính năng mới nhất của iPhone 16". Thay vì mất 30 phút tự Google, đọc từng trang web và tổng hợp, tại sao không giao việc đó cho AI?
Trong bài viết này, chúng ta sẽ xây dựng một AI Agent bằng Python. Nó khác biệt...
Anh em code Agent bằng LangChain cũ thường gặp một vấn đề: Code chạy từ A đến Z, nếu giữa đường gặp lỗi hoặc kết quả không ưng ý, nó không biết quay đầu. Nó cứ thế đi tiếp và trả về kết quả rác.
Ví dụ: Bảo Jarvis viết code Python.
Nó viết code.
Code đó chạy bị lỗi Syntax.
Nó vẫn trả về cho bạn...
Anh em nhìn lại source code của mình xem. Có phải file app.py của Chainlit đang phình to ra cả trăm dòng code không? Nào là logic RAG, nào là Memory, nào là Search, nào là xử lý UI...
Đó là kiến trúc Monolith (Nguyên khối). Và nó là cơn ác mộng khi bảo trì.
Hôm nay, chúng ta sẽ chuyển sang kiến...
Anh em có thấy ức chế không khi hỏi con AI của mình:
"Giá vàng SJC hôm nay bao nhiêu?"
Nó trả lời: "Xin lỗi, dữ liệu của tôi chỉ cập nhật đến năm 2023..." 🤖🧱
Hôm nay, chúng ta sẽ đập tan bức tường đó. Chúng ta sẽ biến Jarvis từ một Chatbot thụ động thành một Agent chủ động. Nó sẽ biết tự đánh...
Đã bao lâu rồi anh em mình cứ phải nhìn cái màn hình Terminal đen ngòm với dòng chữ trắng tẻ nhạt?
User: Hi
Bot: Hello
Nhìn chán đời thực sự! 😤
Hôm nay, chúng ta sẽ "đập đi xây lại" mặt tiền cho Jarvis. Chúng ta sẽ biến nó từ một script Python chạy ngầm thành một Web App xịn xò với đầy đủ tính...
Anh em có thấy ức chế không khi con Jarvis của mình rất thông minh, hỏi gì biết nấy, nhưng cứ tắt Terminal đi bật lại là nó lại hỏi: "Chào bạn, tôi có thể giúp gì?" như chưa hề quen biết?
Đó là vấn đề muôn thuở của LLM: **Stateless** (Không lưu trạng thái).
Hôm nay, chúng ta sẽ phẫu thuật não...
Ở bài trước, chúng ta đã build xong hệ thống GraphRAG cực xịn. Cảm giác lúc đó thật phê, hỏi gì nó cũng trả lời vanh vách.
Nhưng hãy cẩn thận! Đó là cái bẫy "Vibe Check" (Kiểm tra bằng cảm tính).
Bạn hỏi: "Hôm nay trời thế nào?" -> AI: "Đẹp lắm." -> Bạn kết luận: AI ngon.
Sếp hỏi: "Doanh thu Q3...
Chúng ta đã đi cùng nhau một chặng đường dài. Hệ thống RAG (Retrieval Augmented Generation) của anh em hiện tại đang chạy bằng Vector Database (ChromaDB/Qdrant).
Nó hoạt động rất tốt với câu hỏi: "Ai là tác giả cuốn sách X?" (Tìm kiếm tương đồng).
Nhưng nó sẽ "ngáo" ngay lập tức với câu hỏi...
Ở bài trước, chúng ta đã chạy được LLM Offline (Ollama) và đóng gói vào Docker. Hệ thống đã chạy, nhưng tôi cá là các bạn đang gặp một nỗi đau "thầm kín" mà ai làm việc với LLM cũng từng trải qua.
Đó là khi bạn bảo AI: "Hãy trích xuất thông tin user này ra JSON cho tao".
Nó trả lời: "Dạ vâng...