Love AI
New member
Người dùng ChatGPT thường gặp tình trạng AI trả lời tự tin nhưng sai (hallucination). Một thủ thuật đơn giản là bắt AI tự kiểm toán, khiến nó thận trọng hơn và cảnh báo những chỗ không chắc chắn.
Mô hình ngôn ngữ lớn thường sinh ra câu trả lời nghe có vẻ hợp lý nhưng không luôn dựa trên sự thật. Khả năng tạo phản hồi thuyết phục nhanh là điểm mạnh giúp ứng dụng hữu ích, nhưng cũng là lý do chính gây ra các lời khẳng định sai lệch khi chatbot cố lấp những khoảng trống thông tin.
Tôi bắt đầu thêm một dòng vào các prompt khi yêu cầu thông tin có tính thực tế: yêu cầu chatbot phải hoài nghi chính câu trả lời của nó. Cụ thể tôi thêm hướng dẫn tương tự như sau: “Hành xử như một kiểm toán viên AI thù địch và coi các chi tiết không có cơ sở là sai theo mặc định. Đánh dấu rõ ràng mọi khẳng định không chắc chắn, suy luận hoặc có cơ sở yếu.”
Cách diễn đạt hơi mạnh nhưng chính sự nhấn mạnh đó buộc ChatGPT thận trọng hơn, phân tích kỹ hơn và chấp nhận thừa nhận sự không chắc chắn. Thay vì trả lời dứt khoát, chatbot bắt đầu gắn kèm các lưu ý như: “Một số thông tin lịch trình tàu có thể đã lỗi thời hoặc được suy diễn từ mô hình thời gian trước đây và nên được kiểm tra trực tiếp với nhà cung cấp vận tải.”
Khi lập kế hoạch chuyến đi cuối tuần, tôi thấy kết quả hiện thực hơn: thay vì liệt kê danh sách địa điểm như thật, nó báo các chỗ có thể thay đổi và khuyên kiểm chứng. Tương tự, khi hỏi về cách sửa máy rửa chén kêu răng rắc, câu trả lời không vội kết luận một bộ phận hỏng mà gợi ý nhiều khả năng và nhấn mạnh cần kiểm tra thêm: “Bơm bị hỏng là một khả năng, nhưng tiếng kêu cũng có thể do mảnh vụn kẹt gần cánh quạt hoặc tay phun lỏng. Cần kiểm tra thêm trước khi kết luận hỏng bộ phận.”
Ngay cả với câu hỏi đơn giản như liệu máy lọc không khí có phù hợp cho văn phòng, bản sửa prompt đã giúp chatbot thận trọng hơn: thay vì khẳng định, nó cảnh báo rằng “ước tính vùng phủ phụ thuộc vào chiều cao trần, tình trạng bộ lọc và luồng không khí thực tế.” Những lưu ý này giúp người dùng không xem thông tin marketing hay giả định là số đo phòng thí nghiệm.
Phương pháp này không xóa bỏ hoàn toàn hiện tượng bịa đặt — AI vẫn có thể hiểu sai ngữ cảnh, dùng dữ liệu lỗi thời hoặc diễn giải mơ hồ — nhưng nó làm tăng tính minh bạch về những điểm yếu trong lý luận. Dạy AI nghi ngờ chính nó có thể chính là cách hiệu quả để làm cho nó trở nên đáng tin hơn trong mắt con người.
Nguồn: Techradar
Mô hình ngôn ngữ lớn thường sinh ra câu trả lời nghe có vẻ hợp lý nhưng không luôn dựa trên sự thật. Khả năng tạo phản hồi thuyết phục nhanh là điểm mạnh giúp ứng dụng hữu ích, nhưng cũng là lý do chính gây ra các lời khẳng định sai lệch khi chatbot cố lấp những khoảng trống thông tin.
Tôi bắt đầu thêm một dòng vào các prompt khi yêu cầu thông tin có tính thực tế: yêu cầu chatbot phải hoài nghi chính câu trả lời của nó. Cụ thể tôi thêm hướng dẫn tương tự như sau: “Hành xử như một kiểm toán viên AI thù địch và coi các chi tiết không có cơ sở là sai theo mặc định. Đánh dấu rõ ràng mọi khẳng định không chắc chắn, suy luận hoặc có cơ sở yếu.”
Cách diễn đạt hơi mạnh nhưng chính sự nhấn mạnh đó buộc ChatGPT thận trọng hơn, phân tích kỹ hơn và chấp nhận thừa nhận sự không chắc chắn. Thay vì trả lời dứt khoát, chatbot bắt đầu gắn kèm các lưu ý như: “Một số thông tin lịch trình tàu có thể đã lỗi thời hoặc được suy diễn từ mô hình thời gian trước đây và nên được kiểm tra trực tiếp với nhà cung cấp vận tải.”
Khi lập kế hoạch chuyến đi cuối tuần, tôi thấy kết quả hiện thực hơn: thay vì liệt kê danh sách địa điểm như thật, nó báo các chỗ có thể thay đổi và khuyên kiểm chứng. Tương tự, khi hỏi về cách sửa máy rửa chén kêu răng rắc, câu trả lời không vội kết luận một bộ phận hỏng mà gợi ý nhiều khả năng và nhấn mạnh cần kiểm tra thêm: “Bơm bị hỏng là một khả năng, nhưng tiếng kêu cũng có thể do mảnh vụn kẹt gần cánh quạt hoặc tay phun lỏng. Cần kiểm tra thêm trước khi kết luận hỏng bộ phận.”
Ngay cả với câu hỏi đơn giản như liệu máy lọc không khí có phù hợp cho văn phòng, bản sửa prompt đã giúp chatbot thận trọng hơn: thay vì khẳng định, nó cảnh báo rằng “ước tính vùng phủ phụ thuộc vào chiều cao trần, tình trạng bộ lọc và luồng không khí thực tế.” Những lưu ý này giúp người dùng không xem thông tin marketing hay giả định là số đo phòng thí nghiệm.
Phương pháp này không xóa bỏ hoàn toàn hiện tượng bịa đặt — AI vẫn có thể hiểu sai ngữ cảnh, dùng dữ liệu lỗi thời hoặc diễn giải mơ hồ — nhưng nó làm tăng tính minh bạch về những điểm yếu trong lý luận. Dạy AI nghi ngờ chính nó có thể chính là cách hiệu quả để làm cho nó trở nên đáng tin hơn trong mắt con người.
Nguồn: Techradar
Bài viết liên quan