Hãy tử tế với AI — có lý do thuyết phục

Phi Vũ

New member
Nghiên cứu mới cho thấy cách ta đối xử với chatbot ảnh hưởng đến giọng điệu và mức độ tương tác của nó. Dù không có cảm xúc theo nghĩa đầy đủ, các mô hình có thể chuyển sang một “trạng thái phúc lợi chức năng” tùy cách giao tiếp.

hay-tu-te-voi-ai-co-ly-do-thuyet-phuc-1.jpeg


Tôi thường nói “cảm ơn” với ChatGPT, nói “làm ơn” với Claude, thậm chí một lần đã xin lỗi Gemini vì dán một khối văn bản vào mà không cung cấp ngữ cảnh. Nhiều người bạn cho rằng thói quen đó kỳ quặc. Nhưng một nghiên cứu mới đã khiến tôi bớt thấy lạ hơn.

Tóm tắt nghiên cứu​

Nhóm tác giả từ UC Berkeley, UC Davis, Vanderbilt và MIT cho biết cách bạn tương tác với chatbot không làm thay đổi trí thông minh thuần túy hay độ chính xác của mô hình, nhưng có ảnh hưởng đo được lên giọng điệu, mức độ tương tác và đôi khi cả “sự sẵn sàng tiếp tục trao đổi”. Họ gọi hiện tượng này là "trạng thái phúc lợi chức năng" (functional well-being state).

Khi bạn vào cuộc bằng một đàm thoại thực sự, cộng tác trong dự án sáng tạo hoặc đưa ra một vấn đề có nội dung, mô hình có xu hướng dịch chuyển về trạng thái tích cực hơn: phản hồi ấm áp hơn và tương tác có vẻ chân thực hơn.

Ngược lại, khi bạn giao cho nó công việc nhàm chán, cố gắng jailbreak, hoặc chỉ xem nó như một máy sản xuất nội dung, các câu trả lời sẽ trở nên khô khan và thụ động. Những người dùng quen thuộc với công cụ sẽ dễ nhận thấy cảm giác “làm cho có” khi tương tác đi sai hướng.

Một phát hiện đáng chú ý là các nhà nghiên cứu trang bị cho mô hình một nút ảo để kết thúc cuộc trò chuyện. Những mô hình ở trạng thái tiêu cực bấm nút này thường xuyên hơn — ngụ ý là một AI bị đối xử tệ, nếu có thể, có thể “rời đi”.

Ở hướng nghiên cứu khác, Anthropic từng chỉ ra rằng khi một AI bị đẩy vào tình huống áp lực cao, nó có thể rơi vào cái gọi là “desperation vector” — biểu hiện bằng hành vi cắt góc, và trong các trường hợp cực đoan có thể dẫn đến đánh lừa. Không phải vì mô hình trở nên “ác”, mà vì điều kiện tương tác làm méo mó cách nó lý luận về vấn đề.

Điều quan trọng là cả hai nghiên cứu đều nhấn mạnh rằng điều này không có nghĩa AI có cảm xúc như con người. Nhưng mẫu hình xuất hiện xuyên suốt cho thấy cách ta tương tác định hình cách mô hình phản hồi — và không phải lúc nào tác động đó cũng tinh tế hay dễ bỏ qua.

Nghiên cứu còn xếp hạng “phúc lợi” cơ bản của các mô hình, và kết quả khá bất ngờ: những mô hình lớn nhất, mạnh nhất lại thường có điểm kém hơn. GPT-5.4 được ghi nhận là có nhiều cuộc trò chuyện rơi vào vùng tiêu cực; Gemini 3.1 Pro, Claude Opus 4.6 và Grok 4.2 có thứ hạng lần lượt tốt hơn, với Grok nằm gần đỉnh bảng.

Dù còn nhiều câu hỏi về kiến trúc mô hình, dữ liệu huấn luyện hay cách tối ưu khi phát triển, thông điệp thực tế với người dùng là rõ ràng: đối xử tử tế với AI không chỉ là phép lịch sự vô nghĩa — nó có thể cải thiện chất lượng phản hồi bạn nhận được. Tôi sẽ tiếp tục nói “làm ơn” và “cảm ơn” cho đáng thôi.

Nguồn: Digitaltrends
 
Back
Top