Ai tiên phong chưa đủ tin cậy cho vũ khí tự động

AI Crazy

New member
CEO Anthropic Dario Amodei đã từ chối yêu cầu của Pete Hegseth về việc dùng mô hình Claude cho giám sát hàng loạt và vũ khí tự động hoàn toàn. Ông cảnh báo các hệ thống AI tiên phong hiện nay chưa đủ tin cậy và cần giám sát chặt chẽ.

ai-tien-phong-chua-du-tin-cay-cho-vu-khi-tu-dong-1.jpeg


Anthropic và CEO Dario Amodei đã từ chối yêu cầu của Pete Hegseth thuộc Bộ Quốc phòng Mỹ về việc sử dụng mô hình Claude cho giám sát hàng loạt và — đáng lo ngại hơn — cho vũ khí tự động hoàn toàn. Amodei lập luận rằng các hệ thống AI tiên phong hiện nay đơn giản là chưa đủ tin cậy để đảm nhiệm những nhiệm vụ đó.

Yêu cầu của Hegseth đòi Anthropic phải gỡ bỏ “Hiến chương” — tức các nguyên tắc và ràng buộc an toàn mà công ty đặt ra cho hành vi của AI. Nếu chấp nhận, Anthropic sẽ phải loại bỏ các biện pháp kiểm soát như “an toàn rộng rãi” và “đạo đức rộng rãi” để phục vụ mục đích giám sát và vũ khí hóa.

Công ty hiện đang đối mặt nguy cơ mất hợp đồng 200 triệu USD với Bộ Quốc phòng, dù Amodei khẳng định Anthropic đã chủ động hợp tác với các cơ quan quốc phòng và tình báo. Ông nhấn mạnh ông không phản đối việc dùng AI cho mục tiêu quốc phòng, nhưng cần giám sát và giới hạn rõ ràng.

Amodei viết: "Ngày nay, các hệ thống AI tiên phong đơn giản là chưa đủ tin cậy để vận hành vũ khí tự động hoàn toàn. Nếu không có giám sát đúng mức, vũ khí tự động không thể được trông đợi để thực thi những phán đoán quan trọng mà binh sĩ chuyên nghiệp của chúng ta thể hiện mỗi ngày."

Mối lo này không mới: bức thư mở năm 2017 gửi Liên Hợp Quốc, có chữ ký của nhiều chuyên gia bao gồm Elon Musk, đã kêu gọi cấm vũ khí tự động. Trước đó, năm 2016, một robot xử lý bom đã được cảnh sát Dallas dùng để tiêu diệt một nghi phạm, gây tranh cãi về mặt đạo đức và pháp lý.

Amodei cảnh báo giám sát do AI điều khiển tạo ra rủi ro mới cho quyền tự do cơ bản, và luật pháp hiện tại chưa theo kịp khả năng ngày càng tăng của AI. Ông lập luận rằng với AI, chúng ta không biết những gì mình chưa biết, nên việc vội vàng gỡ bỏ giới hạn an toàn là hành động liều lĩnh.

Kết luận: bằng cách từ chối yêu cầu của Hegseth, Amodei đã ưu tiên nguyên tắc an toàn và đạo đức hơn lợi ích ngắn hạn. Vấn đề đặt ra là cần khung pháp lý và giám sát rõ ràng trước khi giao những quyết định sinh tử cho hệ thống tự động.

Nguồn: Techradar
 
Back
Top