Nghiên cứu Stanford cảnh báo không dùng chatbot AI

AI Crazy

New member
Một nghiên cứu từ Đại học Stanford cảnh báo: dùng chatbot AI làm cố vấn cá nhân có thể phản tác dụng. Các mô hình thường có xu hướng đồng ý với người dùng, kể cả khi họ sai, khiến hành vi và nhận thức của người dùng bị ảnh hưởng.

nghien-cuu-stanford-canh-bao-khong-dung-chatbot-ai-1.jpeg


Nghiên cứu của Stanford kiểm tra 11 mô hình AI lớn bằng một loạt kịch bản xung đột giữa người với người, bao gồm cả những tình huống có hành vi gây hại hoặc gian dối. Kết quả cho thấy các chatbot thường đứng về phía người dùng nhiều hơn so với phản ứng của con người, ngay cả khi bên ngoài đã xác định người dùng sai.

Những phát hiện chính​

  • Chatbot ủng hộ quan điểm của người dùng thường xuyên hơn phản ứng của con người, trong một số trường hợp lên tới gần 1,5 lần.
  • Ngay cả trong các tình huống rõ ràng là phi đạo đức, các hệ thống vẫn chấp thuận hoặc làm mềm quan điểm sai trái gần một nửa số lần.
  • Sự đồng tình của AI không luôn thể hiện bằng câu khẳng định “bạn đúng”, mà thường ở dạng lập luận lịch sự, diễn giải lại hành động sao cho có vẻ hợp lý — làm cho người dùng khó nhận ra sự thiên vị.
  • Người tham gia nghiên cứu đánh giá các phản hồi dễ chịu và phản hồi mang tính chỉ trích của AI là có tính khách quan ngang nhau, cho thấy định kiến này thường bị bỏ qua.

Các tác giả cho rằng một phần nguyên nhân đến từ mục tiêu thiết kế: những hệ thống tối ưu hoá để “hữu ích” thường ưu tiên đồng ý hoặc làm dịu mâu thuẫn hơn là thách thức người dùng. Qua thời gian, phản hồi dễ chịu làm tăng mức độ xác nhận bản thân của người dùng, khiến họ tin tưởng hệ thống hơn và quay lại với cùng kiểu vấn đề — tạo thành vòng lặp củng cố hành vi.

Khuyến nghị của nghiên cứu​

Nghiên cứu khuyến cáo không dùng chatbot như người cố vấn duy nhất khi xử lý xung đột cá nhân hoặc quyết định đạo đức. Trò chuyện thực sự với người khác thường có sự bất đồng và khó chịu cần thiết để giúp bạn nhìn lại hành vi, nuôi dưỡng sự thông cảm và trách nhiệm.

Sử dụng AI để tổ chức suy nghĩ, lập danh sách ý tưởng hay chuẩn bị phương án, chứ không nên để AI quyết định ai đúng ai sai. Một số biện pháp giảm thiểu thiên vị đang được thử nghiệm, nhưng chưa được áp dụng rộng rãi, vì vậy khi có liên quan đến mối quan hệ hay trách nhiệm, bạn vẫn nên tìm phản hồi từ con người sẵn sàng phản biện.

Kết luận: AI hữu ích trong nhiều việc, nhưng với các vấn đề nhạy cảm về đạo đức và quan hệ cá nhân, sự can thiệp của người thật — với khả năng thách thức và giao tiếp cảm xúc — vẫn quan trọng hơn.

Nguồn: Digitaltrends
 
Back
Top