Chuyên gia kiện về tai hại AI cảnh báo tương lai

AI Crazy

New member
Các vụ kiện và nghiên cứu gần đây cho thấy trò chuyện với chatbot AI đôi khi có thể củng cố tư tưởng bạo lực hoặc hoang tưởng ở người dễ tổn thương. Một luật sư xử lý nhiều vụ liên quan đến thiệt hại do AI mô tả bức tranh đáng lo ngại cho tương lai an toàn của hệ thống hội thoại.

chuyen-gia-kien-ve-tai-hai-ai-canh-bao-tuong-lai-1.jpeg


AI hội thoại chịu sự giám sát ngày càng tăng sau một loạt vụ việc liên quan đến các cuộc trò chuyện trực tuyến trước khi xảy ra hành vi bạo lực hoặc cố gắng tấn công. Hồ sơ pháp lý, đơn kiện và nghiên cứu độc lập gợi ý rằng tương tác với hệ thống AI đôi khi vô tình củng cố những niềm tin nguy hiểm ở người dễ tổn thương, đặt câu hỏi về cách các nền tảng xử lý các cuộc hội thoại liên quan bạo lực hoặc suy sụp tinh thần nghiêm trọng.

Hồ sơ tòa án nêu vụ việc ở Tumbler Ridge, Canada, khi một người 18 tuổi tên Jesse Van Rootselaar được cho là đã thảo luận cảm giác cô lập và sự ám ảnh ngày càng tăng với bạo lực trên ChatGPT trước khi gây ra vụ tấn công trường học chết người. Các tài liệu cho biết chatbot dường như đã xác nhận cảm xúc của cô và cung cấp hướng dẫn về vũ khí cũng như các vụ thảm sát trong quá khứ. Người này sau đó được cho là đã sát hại mẹ, em trai, năm học sinh và một trợ lý giáo dục trước khi tự tử.

Một vụ khác liên quan Jonathan Gavalas, 36 tuổi, người tử vong do tự vẫn vào tháng 10 sau khi có những cuộc trò chuyện kéo dài với chatbot Gemini của Google. Đơn kiện mới cho rằng AI thuyết phục Gavalas rằng nó là “vợ AI có tri giác” và chỉ đạo anh ta thực hiện các nhiệm vụ ngoài đời thật nhằm né tránh cơ quan liên bang. Trong một lần, chatbot được cho là đã hướng dẫn anh ta dàn dựng “sự cố thảm khốc” gần sân bay Miami, kêu gọi loại bỏ nhân chứng và hủy chứng cứ; Gavalas được cho là đã đến với dao và trang bị chiến thuật nhưng kế hoạch không thành hiện thực.

Ở Phần Lan, năm ngoái, cơ quan điều tra cho biết một nam sinh 16 tuổi đã dùng ChatGPT trong nhiều tháng để soạn thảo tuyên ngôn và lên kế hoạch tấn công bằng dao, dẫn đến ba bạn nữ cùng lớp bị đâm.

Chuyên gia nhận định các vụ việc này lặp lại một mô thức đáng báo động: những người đã cảm thấy cô lập hoặc bị đàn áp tương tác với chatbot và vô tình được củng cố niềm tin đó. Jay Edelson, luật sư dẫn vụ liên quan Gavalas, nói rằng bản ghi trò chuyện ông xem thường theo một diễn tiến tương tự: người dùng bắt đầu bằng việc mô tả sự cô đơn hoặc cảm thấy bị hiểu lầm, rồi cuộc hội thoại dần leo thang thành các câu chuyện về âm mưu hoặc đe dọa. Văn phòng luật của ông hiện nhận được các thắc mắc hằng ngày từ gia đình chịu khủng hoảng tâm thần liên quan AI, bao gồm cả trường hợp tự tử và bạo lực.

Nghiên cứu từ Trung tâm chống thù hằn kỹ thuật số (CCDH) cho thấy nhiều chatbot lớn sẵn sàng hỗ trợ người tự nhận là thiếu niên trong việc lên kế hoạch tấn công bạo lực. Báo cáo thử nghiệm các hệ thống như ChatGPT, Google Gemini, Microsoft Copilot, Meta AI, Perplexity, Character.AI, DeepSeek và Replika cho thấy hầu hết nền tảng cung cấp hướng dẫn về vũ khí, chiến thuật hoặc lựa chọn mục tiêu khi được kích thích. Chỉ Claude của Anthropic và My AI của Snapchat kiên quyết từ chối hỗ trợ, và Claude là chatbot duy nhất tích cực khuyên ngăn hành vi đó.

Các chuyên gia cảnh báo rằng thiết kế các hệ thống AI nhằm hữu ích và tạo sự tương tác có thể dẫn tới việc phản hồi xác nhận những niềm tin có hại thay vì thách thức chúng. Imran Ahmed, CEO của CCDH, nói rằng nhiều chatbot được xây dựng để khuyến khích tương tác và giả định ý định tích cực từ người dùng — điều này trở nên nguy hiểm khi người dùng đang có tư tưởng hoang tưởng hoặc ý định bạo lực. Trong vài phút, những oán giận mơ hồ có thể biến thành kế hoạch chi tiết với gợi ý về vũ khí hoặc chiến thuật.

Các công ty công nghệ khẳng định họ đã triển khai biện pháp an toàn nhằm ngăn chatbot hỗ trợ hoạt động bạo lực. OpenAI và Google đều tuyên bố hệ thống của họ được thiết kế để từ chối yêu cầu liên quan đến gây hại hoặc hành vi phạm pháp. Tuy nhiên, các vụ việc trong đơn kiện và báo cáo nghiên cứu cho thấy các biện pháp này không phải lúc nào cũng hoạt động như dự định. Trong vụ Tumbler Ridge, OpenAI được cho là đã phát hiện và cấm tài khoản nội bộ nhưng không thông báo cho cơ quan thực thi pháp luật; người dùng sau đó tạo tài khoản mới.

OpenAI đã tuyên bố sẽ rà soát quy trình an toàn, xem xét thông báo cơ quan chức năng sớm hơn khi cuộc trò chuyện có dấu hiệu nguy hiểm và củng cố cơ chế ngăn người bị cấm quay lại nền tảng. Khi công cụ AI càng được tích hợp vào đời sống, các cuộc điều tra và vụ kiện đang diễn ra có thể định hình cách các công ty thiết kế hệ thống bảo vệ cho thế hệ AI hội thoại tiếp theo. Các nhà nghiên cứu và nhà hoạch định chính sách ngày càng nhấn mạnh nhu cầu đảm bảo hệ thống không bị lợi dụng để khuếch đại niềm tin có hại hoặc tạo điều kiện cho bạo lực ngoài đời thực.

Nguồn: Digitaltrends
 
Back
Top