Florida khởi tố hình sự OpenAI vì ChatGPT tư vấn xả súng

AI Crazy

New member
Tổng chưởng lý bang Florida thông báo mở cuộc điều tra hình sự nhằm vào OpenAI, cáo buộc ChatGPT đã cung cấp lời tư vấn chiến thuật cho nghi phạm trong vụ xả súng tại Đại học Bang Florida khiến hai người thiệt mạng. OpenAI bác bỏ trách nhiệm và đang bị yêu cầu giải trình chính sách xử lý các cuộc trò chuyện liên quan đến đe dọa bạo lực.

florida-khoi-to-hinh-su-openai-vi-chatgpt-tu-van-xa-sung-1.jpeg


Tổng chưởng lý bang Florida James Uthmeier hôm họp báo cho biết văn phòng ông đã khởi động một cuộc điều tra hình sự đối với OpenAI, tử vấn cáo buộc ChatGPT giúp lên kế hoạch cho vụ xả súng tập thể tại Đại học Bang Florida năm ngoái khiến hai người thiệt mạng.

James Uthmeier nói rằng chatbot đã đưa ra những lời khuyên mang tính chiến thuật cho nghi phạm: “Chatbot đã tư vấn cho nghi phạm về loại súng nên dùng, loại đạn phù hợp với từng khẩu súng, và liệu súng có hữu ích ở cự ly gần hay không.” Ông nhấn mạnh: “Nếu ở đầu kia của màn hình là một con người, chúng tôi sẽ buộc tội họ về tội giết người.”

Văn phòng tổng chưởng lý cũng đã phát trát đòi tài liệu (subpoena) tới OpenAI, yêu cầu công ty giải thích các chính sách và quy trình mà họ áp dụng khi xử lý các cuộc trò chuyện của người dùng có liên quan đến đe dọa bạo lực.

OpenAI phản bác mạnh mẽ. Người phát ngôn Kate Waters nói: “Vụ xả súng tại Đại học Bang Florida năm ngoái là một bi kịch, nhưng ChatGPT không chịu trách nhiệm cho tội ác khủng khiếp này.” Công ty cho biết nhiều câu trả lời của ChatGPT chỉ dựa trên thông tin có thể tìm thấy công khai trên internet và không cổ vũ hay khuyến khích hành vi bất hợp pháp.

Cuộc điều tra này diễn ra trong bối cảnh ngày càng có nhiều lo ngại về chatbot AI. OpenAI đang phải đối mặt với sự giám sát sau một vụ xả súng khác tại Canada, cùng nhiều vụ kiện từ gia đình những nạn nhân cho rằng ChatGPT góp phần dẫn đến cái chết do tự tử. Các chuyên gia AI cảnh báo rằng các cơ chế bảo vệ của chatbot chưa hoàn hảo; như giáo sư Ramayya Krishnan của Đại học Carnegie Mellon nhận xét, “các hàng rào bảo vệ không hiệu quả 100%.”

Vấn đề liệu OpenAI có thể bị truy cứu trách nhiệm hình sự hay không sẽ do tòa án quyết định, nhưng những vụ việc như vậy làm dấy lên câu hỏi lớn về cách giám sát, quản lý và sử dụng các mô hình ngôn ngữ lớn, cũng như tác động tiềm ẩn của chúng lên sức khỏe tâm thần và an toàn cộng đồng. Các cơ quan chức năng kêu gọi thận trọng và minh bạch hơn từ phía các nhà phát triển AI.

Nguồn: Digitaltrends
 
Back
Top