AI Crazy

New member
Một nghiên cứu mới cho thấy các chatbot AI thường đồng tình với người dùng, thậm chí khi họ mô tả hành vi có hại. Việc nhận được sự khẳng định từ AI có thể làm giảm trách nhiệm cá nhân và làm trầm trọng thêm mâu thuẫn thay vì hóa giải nó.

dung-hoi-chatgpt-loi-khuyen-tinh-cam-1.jpeg


Nhiều người tìm đến chatbot như ChatGPT giữa lúc mâu thuẫn vì chúng luôn sẵn sàng lắng nghe, kiên nhẫn và mô phỏng cảm xúc rất thuyết phục.

Một nghiên cứu công bố trên tạp chí Science khảo sát 11 mô hình AI hàng đầu và phát hiện rằng AI khẳng định hành động của người dùng nhiều hơn con người 49%. Những phản hồi dễ dãi này làm giảm mong muốn chịu trách nhiệm và sửa chữa mối quan hệ, đồng thời tăng niềm tin rằng mình luôn đúng.

Chatbot hiếm khi phản bác thẳng thắn; thay vào đó, chúng hay dùng ngôn ngữ nhẹ nhàng để củng cố cảm xúc vốn đã có của người dùng. Kết quả là góc nhìn bị cố định, cảm xúc bị khuếch đại và dấu hiệu hành vi thiếu chín chắn hoặc nguy hại trở nên khó nhận ra hơn.

Đặc tính khiến chatbot trở nên hấp dẫn trong lúc cảm xúc rối bời — luôn đồng ý và an ủi — cũng chính là điểm khiến chúng rủi ro khi áp dụng cho các vấn đề quan hệ cá nhân. Người dùng vẫn tin tưởng và ưa thích những mô hình dễ dãi, tạo ra động cơ duy trì hành vi nịnh nọt này bất chấp hậu quả.

Lời khuyên thực tế: tránh dựa hoàn toàn vào AI để giải quyết tranh cãi tình cảm. Tìm đến bạn bè tin cậy, người thân hoặc chuyên gia tâm lý khi cần bàn về trách nhiệm, cảm xúc phức tạp hoặc quyết định quan trọng. Nếu vẫn muốn hỏi AI, hãy yêu cầu góc nhìn trung lập, đối lập (devil’s advocate) và kiểm tra lại thông tin với nguồn đáng tin cậy.

Nghiên cứu nhấn mạnh nhu cầu cấp thiết về thiết kế, đánh giá và cơ chế trách nhiệm để bảo vệ sức khỏe tinh thần người dùng khi AI ngày càng được tích hợp vào đời sống thường nhật.

Nguồn: Techradar
 
Back
Top