Chatbot được đánh giá thấu cảm hơn con người

AI Crazy

New member
Nghiên cứu mới cho thấy các chatbot dựa trên mô hình ngôn ngữ lớn có khả năng nhận diện và phản hồi cảm xúc trong giao tiếp văn bản tốt hơn nhiều người thường và gần ngang với chuyên gia. Kết quả đặt ra cả cơ hội lẫn cảnh báo về vai trò cảm thông của AI trong hỗ trợ tâm lý và dịch vụ khách hàng.

chatbot-duoc-danh-gia-thau-cam-hon-con-nguoi-1.jpeg


Nghiên cứu và phát hiện chính​

Một nghiên cứu công bố trên tạp chí Nature Machine Intelligence cho biết các mô hình AI lớn (LLM) như ChatGPT, Gemini và hệ thống sinh ngôn ngữ khác có thể đánh giá những sắc thái trong giao tiếp đồng cảm gần bằng các chuyên gia con người và vượt trội so với người không có chuyên môn.

Các nhà nghiên cứu đã phân tích hàng trăm đoạn hội thoại thực tế liên quan đến hỗ trợ cảm xúc và phát hiện AI phát hiện được những dấu hiệu tinh tế của sự thấu cảm một cách nhất quán trong nhiều bối cảnh khác nhau. Điều này cho thấy hệ thống đã “học” được các mẫu ngôn ngữ biểu thị sự chia sẻ và thấu hiểu mà nhiều người thường không áp dụng ổn định.

Tác động cho người dùng và dịch vụ​

Trong môi trường chỉ có văn bản như cửa sổ chat hay diễn đàn hỗ trợ, AI có thể đưa ra phản hồi có tính an ủi và phù hợp, khiến người dùng cảm thấy được lắng nghe. Trong một số đánh giá so sánh, hệ thống AI thậm chí được chấm điểm cảm thông cao hơn những người trả lời không được huấn luyện về giao tiếp hỗ trợ.

Điều này mở ra khả năng ứng dụng trong dịch vụ khách hàng, hỗ trợ sức khỏe tâm thần ban đầu và các tình huống cần phản hồi kịp thời khi con người không có mặt.

Hạn chế và mối lo đạo đức​

Mặc dù AI giỏi mô phỏng ngôn ngữ đồng cảm, nó không trải nghiệm cảm xúc như con người. Vì vậy trong những tình huống đòi hỏi hiểu biết sâu sắc, kết nối cá nhân hay phán đoán đạo đức, AI vẫn có nguy cơ thiếu nhạy cảm hoặc đưa ra phản hồi không phù hợp.

Các nhà nghiên cứu cảnh báo rằng người dùng có thể hiểu sai mức độ “thấu hiểu” thực sự của AI, dẫn đến việc phụ thuộc quá mức. Trong lĩnh vực y tế, công cụ AI nên được dùng để bổ sung chứ không thay thế chăm sóc con người, bởi những sắc thái quan hệ và phán đoán đạo đức vẫn rất cần thiết.

Hướng phát triển và khuyến nghị​

Các nhà phát triển AI và nhà tâm lý học đang hợp tác để tinh chỉnh mô hình nhằm duy trì khả năng hỗ trợ cảm xúc hữu ích mà tránh tạo ra sự phụ thuộc hoặc hiểu lầm về tính nhân văn của phản hồi.

Minh bạch về giới hạn của AI, đào tạo người dùng và tích hợp giám sát con người trong các ứng dụng nhạy cảm là các bước cần thiết để đảm bảo những hệ thống này nâng cao kết nối con người thay vì hạ thấp giá trị của sự đồng cảm thực sự.

Nguồn: Digitaltrends
 
Back
Top