CEO Anthropic từ chối yêu cầu truy cập của Mỹ

AI Crazy

New member
Giám đốc điều hành Anthropic, Dario Amodei, tuyên bố công ty không thể chấp nhận yêu cầu của Bộ Quốc phòng Mỹ về truy cập đầy đủ vào mô hình AI Claude vì lo ngại bị lạm dụng cho giám sát trong nước và vũ khí tự hành. Cuộc đối đầu càng căng thẳng khi giới chức Mỹ đe dọa coi Anthropic là rủi ro chuỗi cung ứng và có thể áp dụng Defense Production Act.

ceo-anthropic-tu-choi-yeu-cau-truy-cap-cua-my-1.jpeg


Dario Amodei, CEO của Anthropic, vừa công bố một tuyên bố chính thức khẳng định công ty "không thể, trong lương tâm tốt, chấp nhận" yêu cầu của Bộ Quốc phòng Mỹ được truy cập đầy đủ vào các mô hình AI của họ, bao gồm Claude.

Amodei cho biết Anthropic từng có quan hệ tốt với chính phủ Mỹ: công ty là một trong những đơn vị đầu tiên triển khai mô hình trong mạng lưới chính phủ, các Phòng thí nghiệm Quốc gia và hỗ trợ các nhiệm vụ an ninh quốc gia. Tuy nhiên, công ty đã từ chối một số yêu cầu nhằm tránh việc sử dụng Claude vào các mục đích mà họ cho là có hại.

Một trong những điểm mấu chốt là Anthropic từng tuân thủ các quy định hạn chế bán và sử dụng AI ở Trung Quốc, thậm chí từ bỏ "hàng trăm triệu đôla" doanh thu để ngăn Đảng Cộng sản Trung Quốc dùng Claude. Điều này được nêu để minh họa lập trường của công ty về trách nhiệm khi cung cấp công nghệ AI nhạy cảm.

Những lo ngại chính của Anthropic liên quan đến hai rủi ro lớn: khả năng bị dùng cho giám sát trong nước quy mô lớn và nguy cơ tích hợp AI vào vũ khí tự hành hoàn toàn. Amodei cảnh báo rằng khả năng kết hợp dữ liệu chi tiết và sức mạnh mô hình AI có thể tạo ra bản sao thông tin rất chính xác về công dân Mỹ ở quy mô chưa từng thấy, dẫn tới giám sát hàng loạt.

Về vũ khí tự hành, Amodei thừa nhận AI có thể đóng vai trò quan trọng trong quốc phòng nhưng nhấn mạnh rằng các mô hình hiện nay "đơn giản là chưa đủ tin cậy" để điều khiển vũ khí tự hành hoàn toàn. Nếu một mô hình gặp phải hiện tượng 'hallucination' (sai lệch thông tin) khi vận hành hệ thống vũ khí, trách nhiệm cuối cùng có thể rơi lên nhà phát triển mô hình hơn là người vận hành.

Trước các lời đe dọa từ Bộ trưởng Quốc phòng và đề xuất coi Anthropic là "rủi ro chuỗi cung ứng" hoặc dùng Defense Production Act để ép buộc, Amodei chỉ ra sự mâu thuẫn: một bên gọi công ty là rủi ro an ninh, bên kia khẳng định Claude là yếu tố cần thiết cho an ninh quốc gia.

Anthropic nói rõ ưu tiên của họ là tiếp tục phục vụ Bộ Quốc phòng và lực lượng, nhưng muốn có hai biện pháp bảo đảm mà họ đã đề xuất. Nếu Bộ quyết định chấm dứt hợp tác với Anthropic, công ty cam kết hỗ trợ chuyển đổi sang nhà cung cấp khác một cách suôn sẻ để tránh gián đoạn các kế hoạch, hoạt động quân sự hoặc nhiệm vụ quan trọng khác. Họ cũng khẳng định sẽ giữ mô hình sẵn sàng theo các điều khoản mà công ty đã đề xuất trong thời gian cần thiết.

Nguồn: Techradar
 
Back
Top