Love AI

New member
AI tiếp tục là chủ đề trung tâm tại Diễn đàn Kinh tế Thế giới 2026, nhưng năm nay không khí căng thẳng hơn khi doanh nghiệp và báo chí đặt câu hỏi về an toàn, quản trị và hiệu quả kinh tế. Những vấn đề về độ tin cậy của mô hình ngôn ngữ lớn (hallucination) được nhìn nhận là rào cản lớn, và nhiều tiếng nói kêu gọi quay lại các nguyên tắc thiết kế cơ bản.

davos-cuoc-doi-thoai-ai-can-tro-ve-can-ban-1.jpeg


Tham vọng AI đang vượt qua độ tin cậy​


Tại Davos năm nay, các lãnh đạo công nghệ và doanh nghiệp tập trung thảo luận về rủi ro an ninh, quản trị, áp lực hạ tầng và câu hỏi khi nào các khoản đầu tư vào AI sẽ bắt đầu mang lại giá trị kinh tế thực tế. Giám đốc điều hành Microsoft, Satya Nadella, nhấn mạnh rằng AI chỉ tránh được “bong bóng” nếu nó tạo ra kết quả thực tế mà lợi ích được phân bổ rộng rãi, thay vì tập trung vào một vài công ty và nền kinh tế lớn.

Những hiện tượng “hallucination” — mô hình tạo ra câu trả lời thuyết phục nhưng sai — đang làm sâu thêm vấn đề mất niềm tin trong doanh nghiệp. Đây không phải lỗi đơn thuần mà là hệ quả của cách các mô hình ngôn ngữ lớn (LLM) được thiết kế: chúng dự đoán thống kê phần tiếp theo dựa trên tập dữ liệu khổng lồ, nên có tính xác suất và đôi khi tạo ra kết quả không chính xác.

Ở Davos, nhiều cuộc thảo luận coi hallucination là vấn đề quản trị hoặc an toàn, dẫn tới các biện pháp như cảnh báo, tuyên bố từ chối trách nhiệm, giám sát con người và lớp rào chắn phức tạp. Tuy cần thiết, những biện pháp này không thể biến các hệ thống không đáng tin thành hạ tầng đáng tin mà doanh nghiệp có thể phụ thuộc hoàn toàn.

Một hướng đi khác là nhìn lại các nguyên lý thiết kế cũ: hệ thống biểu tượng (symbolic) làm việc dựa trên quy tắc và dữ kiện rõ ràng, cho kết quả nhất quán với cùng một đầu vào. Người dùng tương tác hàng ngày với hệ thống biểu tượng mà không lo về “hallucination” — ví dụ như bảng tính (spreadsheet) luôn cho cùng một phép tính với cùng một dữ liệu.

Sự lựa chọn không phải là thần chú giữa neural và symbolic. Xu hướng hiện nay là phát triển hệ thống lai gọi là neurosymbolic: dùng mạng neural ở những chỗ cần linh hoạt (như hiểu ngôn ngữ, trích xuất thông tin), và áp lớp suy luận biểu tượng ở nơi cần quy tắc, ràng buộc và logic rõ ràng.

Ưu điểm của neurosymbolic là kết quả không chỉ dựa trên khả năng thống kê. Hệ thống có thể truy vết cách đưa ra kết luận, tái tạo cùng một kết quả cho cùng một đầu vào và báo rõ khi không thể trả lời với độ tin cậy cao. Những tính chất này rất quan trọng trong môi trường cần giải trình, kiểm toán và bảo vệ quyết định.

Khi giới hạn của LLM hiện rõ, niềm tin bị xói mòn, giám sát con người trở nên bắt buộc và lợi ích năng suất khó đạt được. Lời khuyên từ các cuộc thảo luận tại Davos là: hãy ưu tiên thiết kế cho độ tin cậy — thử nghiệm các kiến trúc lai, đầu tư vào giải trình và kiểm toán, và xây dựng hạ tầng theo hướng có thể bảo vệ các ứng dụng AI mang tính quyết định cao.

Nguồn: Techradar
 
Back
Top