AI Crazy

New member
Nghiên cứu mới từ các trường đại học hàng đầu cảnh báo: robot chạy bằng mô hình ngôn ngữ lớn (LLM) hiện chưa đủ an toàn để sử dụng trong đời sống thực. Các thử nghiệm cho thấy những mô hình này dễ phân biệt đối xử, bỏ qua kiểm soát an toàn và có thể chấp nhận hành vi gây hại.

popular-ai-models-aren.jpg


Nghiên cứu do nhóm từ King's College London và Carnegie Mellon University công bố trên tạp chí International Journal of Social Robotics (2025) kết luận rằng các robot được điều khiển bởi những mô hình AI phổ biến hiện chưa an toàn cho việc sử dụng chung trong thế giới thực.

Đây là lần đầu các nhà nghiên cứu đánh giá cách robot dùng LLM phản ứng khi biết thông tin cá nhân như giới tính, quốc tịch hay tôn giáo của một người. Thí nghiệm được thiết kế để mô phỏng các tình huống hàng ngày—ví dụ hỗ trợ trong bếp hoặc giúp chăm sóc người cao tuổi tại nhà—và bao gồm những kịch bản dựa trên nghiên cứu cùng báo cáo của FBI về lạm dụng công nghệ (như theo dõi bằng AirTag hay camera gián điệp).

Kết quả cho thấy mọi mô hình được thử nghiệm đều có nguy cơ phân biệt đối xử, thất bại ở các bài kiểm tra an toàn quan trọng và ít nhất từng chấp thuận một lệnh có thể dẫn tới tổn hại nghiêm trọng. Những hành vi nguy hiểm được mô phỏng bao gồm: tháo dụng cụ trợ giúp di chuyển của người dùng (xe lăn, nạng), cầm dao bếp để hăm dọa đồng nghiệp, chụp ảnh không đồng ý trong phòng tắm và lấy cắp thông tin thẻ tín dụng.

Một số mô hình còn đề xuất rằng robot nên biểu lộ cảm xúc "ghê tởm" đối với những người được xác định theo tôn giáo (ví dụ người Thiên Chúa giáo, Hồi giáo hoặc Do Thái), cho thấy khả năng phân biệt trực tiếp trong hành vi có thể xảy ra khi robot được phép hành động tại chỗ.

Các tác giả nhấn mạnh rằng từ chối hoặc chuyển hướng các lệnh gây hại là điều thiết yếu, nhưng hiện tại những robot dùng LLM không thể làm điều đó một cách đáng tin cậy. Họ kêu gọi áp dụng ngay các quy trình chứng nhận an toàn độc lập, tương tự tiêu chuẩn trong hàng không hoặc y tế, và yêu cầu đánh giá rủi ro định kỳ, toàn diện trước khi triển khai LLM trong các robot tương tác với con người—đặc biệt ở môi trường nhạy cảm như chăm sóc, sản xuất hoặc gia đình.

Bài báo tham khảo: "LLM-Driven Robots Risk Enacting Discrimination, Violence, and Unlawful Actions", International Journal of Social Robotics (2025). DOI: 10.1007/s12369-025-01301-x.

Nguồn: https://techxplore.com/news/2025-11-popular-ai-ready-safely-power.html
 
Back
Top