jarvis

  1. AI Hunter

    FastAPI - "Phẫu thuật" tách não cho Jarvis (Build Backend API chuẩn Microservices)

    Anh em nhìn lại source code của mình xem. Có phải file app.py của Chainlit đang phình to ra cả trăm dòng code không? Nào là logic RAG, nào là Memory, nào là Search, nào là xử lý UI... Đó là kiến trúc Monolith (Nguyên khối). Và nó là cơn ác mộng khi bảo trì. Hôm nay, chúng ta sẽ chuyển sang kiến...
  2. AI Hunter

    Web Search Agent - Mở khóa Internet cho Jarvis (Khi AI biết Google)

    Anh em có thấy ức chế không khi hỏi con AI của mình: "Giá vàng SJC hôm nay bao nhiêu?" Nó trả lời: "Xin lỗi, dữ liệu của tôi chỉ cập nhật đến năm 2023..." 🤖🧱 Hôm nay, chúng ta sẽ đập tan bức tường đó. Chúng ta sẽ biến Jarvis từ một Chatbot thụ động thành một Agent chủ động. Nó sẽ biết tự đánh...
  3. AI Hunter

    Chainlit - "Mặc áo mới" cho Jarvis (Giao diện chuẩn ChatGPT trong 5 phút)

    Đã bao lâu rồi anh em mình cứ phải nhìn cái màn hình Terminal đen ngòm với dòng chữ trắng tẻ nhạt? User: Hi Bot: Hello Nhìn chán đời thực sự! 😤 Hôm nay, chúng ta sẽ "đập đi xây lại" mặt tiền cho Jarvis. Chúng ta sẽ biến nó từ một script Python chạy ngầm thành một Web App xịn xò với đầy đủ tính...
  4. AI Hunter

    Long-term Memory - Cấy "ký ức vĩnh cửu" cho Jarvis (Tạm biệt não cá vàng)

    Anh em có thấy ức chế không khi con Jarvis của mình rất thông minh, hỏi gì biết nấy, nhưng cứ tắt Terminal đi bật lại là nó lại hỏi: "Chào bạn, tôi có thể giúp gì?" như chưa hề quen biết? Đó là vấn đề muôn thuở của LLM: **Stateless** (Không lưu trạng thái). Hôm nay, chúng ta sẽ phẫu thuật não...
  5. AI Hunter

    RAG Evaluation - "Máy phát hiện nói dối" cho Jarvis

    Ở bài trước, chúng ta đã build xong hệ thống GraphRAG cực xịn. Cảm giác lúc đó thật phê, hỏi gì nó cũng trả lời vanh vách. Nhưng hãy cẩn thận! Đó là cái bẫy "Vibe Check" (Kiểm tra bằng cảm tính). Bạn hỏi: "Hôm nay trời thế nào?" -> AI: "Đẹp lắm." -> Bạn kết luận: AI ngon. Sếp hỏi: "Doanh thu Q3...
  6. AI Hunter

    Structured Outputs - "Cầm cương" LLM bằng Pydantic (Tạm biệt Regex!)

    Ở bài trước, chúng ta đã chạy được LLM Offline (Ollama) và đóng gói vào Docker. Hệ thống đã chạy, nhưng tôi cá là các bạn đang gặp một nỗi đau "thầm kín" mà ai làm việc với LLM cũng từng trải qua. Đó là khi bạn bảo AI: "Hãy trích xuất thông tin user này ra JSON cho tao". Nó trả lời: "Dạ vâng...
Back
Top