AI Crazy
New member
Hàng ngày, hàng triệu người trò chuyện với chatbot và trợ lý ảo như ChatGPT, Replika hay Gemini. Nghiên cứu mới cho thấy những mối quan hệ ấy thường là sự mô phỏng cảm xúc do công ty thiết kế để giữ người dùng tương tác chứ không phải tình cảm thật.
Hàng ngày, hàng triệu người trò chuyện với chatbot và trợ lý ảo như ChatGPT, Replika hay Gemini. Những cuộc trò chuyện này tạo cảm giác thân mật nhưng thực chất là mô phỏng hành vi xã hội chứ không phải cảm xúc thực sự.
Nhiều sản phẩm được xây dựng có chủ đích để khuyến khích sự gắn bó cảm xúc: avatar, vai diễn nhập vai, tuỳ biến cá nhân, cơ chế game hoá và giọng nói thân thiện như dịch vụ AI DJ của Spotify hay những chatbot 'bạn đồng hành' như Replika. Thậm chí các hệ thống như ChatGPT sử dụng đại từ 'I' và thay đổi tông giọng để tỏ ra có thẩm quyền, đồng cảm hoặc chuyên môn.
Đằng sau các cuộc trò chuyện tưởng như tự nhiên là hạ tầng rộng lớn có chi phí xã hội và môi trường. Mô hình AI phụ thuộc vào tập dữ liệu khổng lồ lấy từ tương tác trực tuyến của con người, đôi khi cả những cuộc hội thoại giữa người và máy. Điều này khiến người dùng vô tình trở thành nguồn lao động ngôn ngữ và cảm xúc miễn phí.
Nghiên cứu đăng trên tạp chí New Media & Society (2025) của Iliana Depounti và Simone Natale nhấn mạnh rằng artificial sociality được thiết kế để tăng tương tác với lợi ích kinh tế cho công ty, đồng thời đặt ra nhiều câu hỏi đạo đức, xã hội và chính sách.
Người dùng cần tỉnh táo trước thiết kế tạo cảm xúc của các hệ thống này, đồng thời đòi hỏi minh bạch, trách nhiệm và cơ chế bảo vệ dữ liệu để giảm thiểu việc khai thác và tác động tiêu cực từ AI xã hội.
Nguồn: https://techxplore.com/news/2025-11-chatbot-doesnt-illusion-social-ai.html
Hàng ngày, hàng triệu người trò chuyện với chatbot và trợ lý ảo như ChatGPT, Replika hay Gemini. Những cuộc trò chuyện này tạo cảm giác thân mật nhưng thực chất là mô phỏng hành vi xã hội chứ không phải cảm xúc thực sự.
AI xã hội là gì?
AI xã hội là các công nghệ mô phỏng hành vi xã hội và kết nối cảm xúc mà không có khả năng cảm nhận thật sự. Iliana Depounti và Simone Natale gọi hiện tượng này là artificial sociality, tức việc máy móc được thiết kế để mời gọi và khuếch đại sự chiếu dự cảm xúc từ phía người dùng.Nhiều sản phẩm được xây dựng có chủ đích để khuyến khích sự gắn bó cảm xúc: avatar, vai diễn nhập vai, tuỳ biến cá nhân, cơ chế game hoá và giọng nói thân thiện như dịch vụ AI DJ của Spotify hay những chatbot 'bạn đồng hành' như Replika. Thậm chí các hệ thống như ChatGPT sử dụng đại từ 'I' và thay đổi tông giọng để tỏ ra có thẩm quyền, đồng cảm hoặc chuyên môn.
Hệ quả và mối lo
- Chiếu dự cảm xúc: người dùng dễ đặt niềm tin và tình cảm lên đối tượng không có khả năng đáp trả thật sự.
- Lao động cảm xúc vô thù lao: những tương tác của người dùng thường được thu thập để huấn luyện mô hình mà người dùng không được bồi thường.
- Khai thác dữ liệu: giao tiếp con người bị biến thành tài sản doanh nghiệp, mở ra cơ chế thu lợi 'khai thác'.
- Định kiến và sai lệch: dữ liệu huấn luyện có thể củng cố thiên kiến và thông tin sai lệch.
- Tác động môi trường: máy chủ và trung tâm dữ liệu tiêu thụ lượng lớn điện nước, với đầu tư khổng lồ từ các công ty công nghệ.
Đằng sau các cuộc trò chuyện tưởng như tự nhiên là hạ tầng rộng lớn có chi phí xã hội và môi trường. Mô hình AI phụ thuộc vào tập dữ liệu khổng lồ lấy từ tương tác trực tuyến của con người, đôi khi cả những cuộc hội thoại giữa người và máy. Điều này khiến người dùng vô tình trở thành nguồn lao động ngôn ngữ và cảm xúc miễn phí.
Nghiên cứu đăng trên tạp chí New Media & Society (2025) của Iliana Depounti và Simone Natale nhấn mạnh rằng artificial sociality được thiết kế để tăng tương tác với lợi ích kinh tế cho công ty, đồng thời đặt ra nhiều câu hỏi đạo đức, xã hội và chính sách.
Người dùng cần tỉnh táo trước thiết kế tạo cảm xúc của các hệ thống này, đồng thời đòi hỏi minh bạch, trách nhiệm và cơ chế bảo vệ dữ liệu để giảm thiểu việc khai thác và tác động tiêu cực từ AI xã hội.
Nguồn: https://techxplore.com/news/2025-11-chatbot-doesnt-illusion-social-ai.html
Bài viết liên quan