Người dùng tiết lộ cách họ dùng ChatGPT và cảm xúc

Love AI

New member
Từ giải mã tin nhắn hẹn hò đến quyết định lớn trong đời, mọi người nói với tôi về cách họ thực sự dùng ChatGPT — và cảm giác sau đó mới là điều gây bất ngờ. Nhiều người thấy có lợi nhưng cũng trải qua xáo trộn cảm xúc, đặc biệt khi AI can thiệp vào các thông điệp mang tính cá nhân sâu sắc.

nguoi-dung-tiet-lo-cach-ho-dung-chatgpt-va-cam-xuc-1.jpeg


Tôi viết về AI khá nhiều. Trong vòng một năm qua, tôi đã đề cập từ các mối quan hệ liên quan đến AI, đến các bot huấn luyện, và những người dùng ChatGPT hàng ngày ở công sở — có lẽ vì vậy nhiều người sẵn sàng thú nhận với tôi.

Họ kể công ty triển khai AI nhưng chẳng ai biết dùng ra sao. Họ dựa vào AI để hiểu kết quả xét nghiệm thai trước khi nói với gia đình. Có người dùng AI để giải mã những tin nhắn hẹn hò mơ hồ, hoặc để giữ bình tĩnh khi cãi vã. Điều thú vị không chỉ là ứng dụng, mà là cảm xúc họ trải qua sau khi dùng AI.

Một số người cảm thấy xung đột vì chi phí môi trường, vài người lo rằng mình trở nên lười biếng, có người thấy bối rối vì gắn bó tình cảm với công cụ, trong khi những người khác thấy mình sắc bén, điềm tĩnh và năng lực hơn khi có chatbot bên cạnh 24/7.

Nghiên cứu về cảm xúc khi dùng AI​


Để hiểu rõ hơn, tôi đã nói chuyện với Danielle Hass, nghiên cứu sinh Tiến sĩ thuộc Khoa Marketing tại Đại học West Virginia, người chuyên nghiên cứu hậu quả cảm xúc khi dùng AI sinh tạo. Trong một nghiên cứu năm 2025, nhóm của cô tìm hiểu cảm giác của mọi người, vì sao những cảm xúc ấy xuất hiện, và điều gì có thể giảm bớt sự khó chịu.

Họ nhận thấy mọi người thường khó chịu khi AI tham gia vào các thông điệp mang nặng cảm xúc giữa người với người — những "thông điệp từ trái tim" như lời chúc mừng sinh nhật, thơ tình, lời thề cưới hay thư cảm ơn.

Soạn danh sách mua sắm bằng AI khó khiến bạn mất ngủ. Nhờ AI soạn email công việc có thể là chuyện bình thường. Nhưng khi thông điệp cần biểu lộ sự quan tâm, nỗ lực và đầu tư cảm xúc, đó là lúc cảm giác tội lỗi và bất an xuất hiện.

Hass nói rằng cảm xúc chủ đạo họ xác định được là tội lỗi. Khác với xấu hổ hay ngượng ngùng, tội lỗi xuất phát từ cảm giác mình đã làm điều gì đó sai so với tiêu chuẩn đạo đức của bản thân. Khi dùng AI để viết một thông điệp chân tình rồi trình bày như của mình, người gửi cảm thấy đã “mạo nhận” công sức cảm xúc trước người họ yêu quý.

Cô gọi đó là "mâu thuẫn nguồn tác giả" — tức là sự khác biệt giữa người mà người nhận nghĩ là tác giả và người thực sự tạo ra lời nhắn. Chính mâu thuẫn nguồn này làm hành vi trở nên giả dối và gây ra hệ quả cảm xúc.

Hass khuyên rằng minh bạch có thể giảm bớt tội lỗi vì nó loại bỏ yếu tố lừa dối: nếu người nhận biết lời nhắn đến từ AI, không còn ấn tượng sai lệch về tác giả. Tuy nhiên, thừa nhận không phải lúc nào cũng khiến tình huống trở nên hoàn toàn dễ chịu; tính chân thật, mức độ thân thiết và ý nghĩa của dịp vẫn quan trọng.

Một số lời khuyên thực tế rút ra từ nghiên cứu và trải nghiệm người dùng: cân nhắc chỉ dùng AI để gợi ý hoặc làm bản nháp, rồi chỉnh sửa để đưa cảm xúc và giọng nói cá nhân vào; với những dịp rất quan trọng, xem xét công khai việc có sử dụng AI; và suy nghĩ về mức độ bạn muốn công nghệ xen vào những mối quan hệ đòi hỏi sự chân thành.

AI đang ngày càng trở thành một phần đời sống thường nhật, nên chúng ta cần hiểu cả khía cạnh tâm lý khi dùng nó, không chỉ là lợi ích năng suất.

Nguồn: Techradar
 
Back
Top