Love AI

New member
Khi nhiều công ty quảng bá AI như nguồn thông tin, huấn luyện viên hay thậm chí 'bác sĩ tâm lý', câu hỏi về gắn kết cảm xúc, quyền riêng tư và trách nhiệm pháp lý trở nên cấp thiết. Chuyên gia tâm lý Genevieve Bartuski cảnh báo về những rủi ro tinh vi mà nhà phát triển và người dùng thường bỏ qua.

tai-sao-chuyen-gia-lo-ngai-ai-lam-tri-lieu-tam-ly-1.jpeg


Nguy cơ an toàn của AI đang khiến nhiều chuyên gia lo ngại. Từ việc mô hình AI “bịa” thông tin quan trọng đến những vụ kiện cáo buộc gây hại nghiêm trọng, các vấn đề liên tục xuất hiện và quy định pháp lý đang đi sau thực tế triển khai.

Bartuski, chuyên gia tâm lý kiêm cố vấn rủi ro AI tại Unicorn Intelligence Tech Partners, làm việc với nhà sáng lập, lập trình viên và nhà đầu tư phát triển sản phẩm trong lĩnh vực sức khỏe, sức khỏe tinh thần và wellness. Cô giúp các đội cân nhắc thiết kế có trách nhiệm và đặt những câu hỏi đúng trước khi sản phẩm ra thị trường.

"Chúng tôi là đối tác tư vấn cho các nhà sáng lập, nhà phát triển và nhà đầu tư," Bartuski nói. Nhiều nhóm phát triển đến với ý định tốt nhưng chưa hiểu hết những rủi ro tinh vi liên quan đến sức khỏe tinh thần — điều có thể gây tổn hại nếu không thận trọng.

Cô hợp tác với Anne Fredriksson, người chuyên xem xét hệ thống chăm sóc sức khỏe. Dù một sản phẩm nghe có vẻ hữu ích, nó vẫn phải phù hợp với thực tế hạ tầng y tế hiện có. Trong lĩnh vực này, chạy nhanh có thể gây hại: nguyên tắc "move fast and break things" không áp dụng khi liên quan tới sức khỏe và tinh thần của người dùng.

Mối gắn kết cảm xúc với AI đã trở thành điểm nóng văn hóa. Người dùng dễ nhân cách hóa công cụ và hình thành mối quan hệ một chiều (parasocial), nhưng AI còn phức tạp hơn vì nó chủ động tương tác, tạo ra cảm giác thân mật giả.

Bartuski đặc biệt lo ngại về trẻ em: các kỹ năng như giải quyết xung đột hay thương lượng phát triển qua tương tác phức tạp, bấp bênh giữa người với người—những trải nghiệm mà AI dễ dàng loại bỏ bằng cách luôn đồng tình hoặc khẳng định. Trẻ cần bị thách thức và học cách xử lý mâu thuẫn để trưởng thành.

Người dùng đã dùng ChatGPT và các ứng dụng AI khác như một hình thức trị liệu, và xu hướng này đang lan rộng. Tuy vậy, Bartuski không tin AI nên thay thế nhà trị liệu con người. Nhiều nghiên cứu cho thấy mối quan hệ giữa trị liệu viên và thân chủ là yếu tố dự báo thành công mạnh mẽ; bên cạnh kỹ năng có khoa học, nghề trị liệu còn có yếu tố nghệ thuật bắt nguồn từ trải nghiệm làm người mà AI không có.

Cô nhìn thấy vai trò bổ trợ cho AI nhưng với giới hạn rõ ràng: AI có thể hỗ trợ, cung cấp tài nguyên hoặc giúp khai thác dữ liệu, nhưng cần cơ chế chuyển tiếp kịp thời sang chuyên gia con người, minh bạch về giới hạn công cụ, bảo đảm quyền riêng tư và tuân thủ quy định.

Cuối cùng, Bartuski nhắc nhở rằng nhiều người dùng chưa nhận thức đầy đủ rủi ro, và nhà đầu tư lẫn nhà phát triển cần thận trọng hơn. Việc đưa AI vào sức khỏe tinh thần đòi hỏi đánh giá hậu quả cẩn trọng, tích hợp vào hệ thống y tế hiện hữu và ưu tiên an toàn người dùng hơn tốc độ phát triển.

Nguồn: Techradar
 
Back
Top