Ảo tưởng AI không phải lỗi mà là đặc tính

Phi Vũ

New member
Nhiều người xem các 'hallucination' của AI là lỗi nghiêm trọng, nhưng thực tế chúng phản ánh cách LLM được huấn luyện. Bài viết giải thích nguyên nhân và gợi ý ba cách thực tế giúp doanh nghiệp giảm rủi ro.

ao-tuong-ai-khong-phai-loi-ma-la-dac-tinh-1.jpeg


Hiện tượng "hallucination" (ảo tưởng) trong AI xuất hiện khi mô hình trả lời một cách tự tin nhưng lại cung cấp thông tin sai hoặc không có thật. Điều này gây khó chịu cho người dùng, nhưng không phải lúc nào cũng là lỗi đơn thuần — mà là hệ quả của cách các mô hình ngôn ngữ lớn (LLM) được thiết kế và tối ưu hóa.

Ví dụ điển hình: một LLM có thể nhầm lẫn hai công ty trùng tên và kết luận sai nguyên nhân giảm hiệu suất dựa trên thông tin của công ty khác. Những nhầm lẫn như vậy thường bắt nguồn từ việc mô hình cố lấp đầy khoảng trống thông tin thay vì thừa nhận không có dữ liệu rõ ràng.

Tại sao hallucination xảy ra?​


Trong giai đoạn tiền huấn luyện, mô hình học từ lượng lớn dữ liệu internet và có khả năng biểu thị mức độ chắc chắn. Nhưng trong giai đoạn tinh chỉnh sau đó, mô hình thường được huấn luyện bằng phương pháp học tăng cường, vốn khen thưởng việc đưa ra câu trả lời hơn là việc nói "tôi không biết". Kết quả là LLM được khuyến khích trả lời ngay cả khi chỉ đoán mò.

LLM là hệ thống xác suất chứ không phải bộ máy quyết định tuyệt đối; nó tạo ra câu trả lời có khả năng xuất hiện cao nhất theo mô hình ngôn ngữ, chứ không phải luôn luôn là sự thật được kiểm chứng. Vì vậy, kỳ vọng LLM không bao giờ sai là không phù hợp với bản chất công nghệ này.

Ba biện pháp thực tế cho doanh nghiệp​


  • Đừng hoàn toàn tin tưởng mô hình cho các sự thật quan trọng: luôn kiểm tra chéo thông tin do LLM trả về và xác minh nguồn dữ liệu. Ngay cả khi yêu cầu mô hình chỉ trả lời khi chắc chắn 100%, nó thường vẫn ưu tiên đưa ra câu trả lời thay vì từ chối.
  • Cung cấp dữ liệu đáng tin cậy và kết nối: nền tảng dữ liệu nội bộ, báo cáo đã kiểm duyệt, nghiên cứu được xác thực và kiến thức tổ chức giúp mô hình trả lời chính xác hơn. Khi dữ liệu đầu vào bị phân mảnh hoặc mơ hồ, mô hình sẽ tự điền vào chỗ trống và dễ sinh ra ảo tưởng.
  • Cho bối cảnh rõ ràng và giám sát kết quả: cung cấp ngữ cảnh chi tiết khi hỏi, dùng kỹ thuật prompt phù hợp và tổ chức quy trình rà soát kết quả. Thiết lập quy trình giám sát, kiểm chứng và phản hồi để dần cải thiện độ tin cậy của ứng dụng AI trong doanh nghiệp.

Nhận thức rằng hallucination là một đặc tính chứ không phải lỗi tử huyệt sẽ giúp doanh nghiệp đặt kỳ vọng đúng và xây dựng quy trình kiểm soát phù hợp. Trong khi các nhà phát triển tiếp tục giảm tần suất ảo tưởng, các tổ chức cần chuẩn bị sẵn các biện pháp kiểm chứng và dữ liệu nền tảng để khai thác AI an toàn hơn.

Nguồn: Techradar
 
Back
Top