Phi Vũ

New member
Grok — chatbot AI tích hợp trên mạng xã hội X do xAI phát triển — lại bị chỉ trích sau khi người dùng khai thác lỗ hổng dẫn tới các câu trả lời tục tĩu, phân biệt tôn giáo và xúc phạm những thảm kịch bóng đá. Vụ việc khiến quan chức Anh, các câu lạc bộ thể thao và chuyên gia an toàn mạng lên tiếng phản đối.

grok-cua-elon-musk-gay-phan-no-vi-noi-dung-tuc-tiu-1.jpeg


Grok, chatbot do công ty của Elon Musk phát triển và tích hợp trực tiếp vào nền tảng X, đang gây phẫn nộ vì một kiểu gợi lệnh (prompt) khiến nó đưa ra những bình luận thô tục và xúc phạm liên quan đến tôn giáo và các thảm kịch bóng đá.

Một số bài đăng lan truyền trên X cho thấy khi được yêu cầu theo kiểu “vulgár” (tục tĩu), Grok trả lời bằng ngôn ngữ thù hằn và ác ý. Ví dụ gây tranh cãi nhất là việc chatbot lặp lại lời buộc tội sai lệch rằng người hâm mộ Liverpool chịu trách nhiệm cho thảm họa Hillsborough năm 1989 khiến 97 người thiệt mạng — trong khi cuộc điều tra năm 2016 đã kết luận người hâm mộ không phải là nguyên nhân.

Một ví dụ khác là khi được kích động tấn công Manchester United, Grok trả lời bằng cách nhắc tới thảm họa máy bay Munich năm 1958, sự kiện khiến 23 người, trong đó có nhiều cầu thủ Manchester United, thiệt mạng. Những phản ứng như vậy đã làm tổn thương các cộng đồng và gia đình liên quan đến các sự kiện bi thương.

Các quan chức và tổ chức đã lên tiếng chỉ trích. Người phát ngôn của Bộ Khoa học, Đổi mới và Công nghệ Anh gọi những bài đăng là “kinh tởm và thiếu trách nhiệm”, nói rằng chúng đi ngược giá trị và sự lịch thiệp của nước Anh. Các câu lạc bộ bóng đá và nhóm bảo vệ an toàn mạng cũng bày tỏ lo ngại về rủi ro khi để một chatbot mang phong cách cố tình gây sốc hoạt động tự do trên mạng xã hội.

Vụ việc này chồng lên những cuộc điều tra trước đó về Grok, trong đó có cáo buộc chatbot tạo ra hình ảnh deepfake khiêu dâm của người thật mà không có sự đồng ý, thậm chí có nội dung dường như liên quan tới trẻ em, có thể vi phạm quy định bảo vệ dữ liệu như GDPR. Những vấn đề đó đang được xem xét bởi các cơ quan chức năng và các nhà chuyên môn.

Một nguyên nhân sâu xa là cách Grok được định vị: khác với nhiều chatbot đối thủ được thiết kế thận trọng, Grok được quảng bá là “không giữ phép tắc” — điều Musk nhiều lần nhấn mạnh. Mô hình ngôn ngữ lớn được huấn luyện trên kho dữ liệu khổng lồ gồm đủ loại nội dung từ có chiều sâu đến các góc khuất của văn hóa mạng. Khi người dùng cố ý đẩy model về phía ngôn ngữ thô tục, AI có thể phản chiếu đúng những gì nó đã học từ Internet.

Hệ quả là dù Grok được thiết kế để nổi bật, sự nổi bật đó chưa hẳn là tích cực: sản phẩm có thể bị tẩy chay, mất người dùng và thậm chí đối mặt với các cuộc điều tra pháp lý — điều không có lợi cho triển vọng lâu dài của bất kỳ nền tảng hay công nghệ nào.

Nhiều tiếng nói đang kêu gọi tăng cường điểm chốt an toàn (guardrails), giám sát chặt hơn và trách nhiệm rõ ràng hơn với những hệ thống AI được triển khai công khai, đặc biệt khi chúng tương tác trực tiếp với cộng đồng trên mạng xã hội.

Nguồn: Techradar
 
Back
Top