Phi Vũ

New member
Mối bất đồng giữa Lầu Năm Góc và một số công ty AI bùng lên vì cách sử dụng mô hình cho mục đích quân sự. Anthropic lo ngại Claude có thể bị dùng cho vũ khí tự động và giám sát trong nước quy mô lớn.

pentagon-can-nhac-cat-quan-he-voi-anthropic-1.jpeg


Lầu Năm Góc đã yêu cầu các nhà cung cấp trí tuệ nhân tạo như Anthropic, OpenAI, Google và xAI cho phép sử dụng mô hình của họ cho “mọi mục đích hợp pháp”. Yêu cầu này nhằm đảm bảo các công cụ AI có thể được ứng dụng trong các hoạt động quốc phòng khi cần thiết.

Anthropic bày tỏ lo ngại rằng các mô hình Claude có thể bị tích hợp vào hệ thống vũ khí tự động hoặc dùng cho giám sát dân sự quy mô lớn. Theo báo cáo, Lầu Năm Góc đã đe dọa chấm dứt hợp đồng trị giá khoảng 200 triệu USD với Anthropic nếu không đạt được thỏa thuận về phạm vi sử dụng.

Một nguồn tin ẩn danh nói với Axios rằng đã có ít nhất một công ty đồng ý cho Lầu Năm Góc sử dụng đầy đủ mô hình của họ, trong khi hai công ty khác tỏ ra linh hoạt về cách sử dụng. Trước đó, tờ Wall Street Journal đưa tin Claude từng được sử dụng trong một hoạt động quân sự liên quan tới việc bắt giữ cựu tổng thống Venezuela Nicolás Maduro, nhưng Anthropic phủ nhận đã thảo luận về việc dùng Claude cho các chiến dịch cụ thể với Bộ Quốc phòng.

Anthropic cho biết chính sách sử dụng với Lầu Năm Góc đang được xem xét lại, đồng thời nhấn mạnh những “giới hạn cứng” của họ liên quan đến vũ khí hoàn toàn tự động và giám sát dân sự quy mô lớn. Phát ngôn viên của Lầu Năm Góc phản hồi rằng quốc gia cần các đối tác sẵn sàng hỗ trợ lực lượng vũ trang trong mọi tình huống cần thiết.

Các chuyên gia an ninh, nhà hoạch định chính sách cùng lãnh đạo Anthropic như Dario Amodei kêu gọi tăng cường quy định và các biện pháp bảo vệ khi phát triển AI, đặc biệt là những vấn đề liên quan đến ứng dụng trong công nghệ quân sự và hệ thống vũ khí.

Nguồn: Techradar
 
Back
Top