AI Crazy
New member
Bộ Quốc phòng Mỹ đã ký hợp tác với hầu hết các nhà phát triển mô hình AI hàng đầu để đưa công nghệ vào hoạt động quân sự. Việc vắng mặt của Anthropic đặt ra nhiều câu hỏi về giới hạn, giám sát và trách nhiệm của AI trong chiến tranh.
Bộ Quốc phòng Mỹ (DoD) đã ký thỏa thuận hợp tác với nhiều hãng AI lớn, bao gồm OpenAI, Google, Microsoft, Amazon Web Services, Nvidia, SpaceX và Reflection AI, nhằm đẩy nhanh tiến trình xây dựng một lực lượng chiến đấu “ưu tiên AI”.
Mục tiêu là phát triển những công cụ hỗ trợ xử lý thông tin nhanh hơn và gợi ý quyết định trong môi trường phức tạp. Các công ty tham gia chấp nhận điều khoản cho phép sử dụng “cho bất kỳ mục đích hợp pháp nào”, một chuẩn mực rất rộng có thể áp dụng trên nhiều trường hợp.
Đáng chú ý, Anthropic — nhà phát triển mô hình Claude — không có trong danh sách. Công ty này từ chối các điều khoản chung với DoD vì lo ngại về khả năng AI bị sử dụng cho giám sát trong nước hoặc hệ thống sát thương tự động hoàn toàn. Anthropic cũng cảnh báo về những kịch bản như xử lý các mối đe dọa hạt nhân trong mô phỏng chiến tranh.
Chính phủ đã phản ứng bằng cách gắn nhãn Anthropic là rủi ro chuỗi cung ứng, khiến công ty này bị loại khỏi hợp đồng quốc phòng; Anthropic đang khiếu nại quyết định đó. Trong khi đó, các công ty còn lại tiếp tục hợp tác đầy đủ để tiếp cận nguồn lực, ảnh hưởng và hợp đồng lớn.
Về mặt kỹ thuật, việc ký hợp tác với nhiều đối tác giúp Lầu Năm Góc giảm phụ thuộc vào một nhà cung cấp duy nhất. Tuy nhiên, thiếu vắng một tên tuổi như Anthropic cũng có nghĩa là không có sự đồng thuận toàn ngành về các tiêu chuẩn đạo đức và giới hạn ứng dụng.
DoD đang đổ hàng chục tỷ đô la cho các chương trình AI, và các đối tác tư nhân đóng góp nhiều thế mạnh khác nhau — từ chip, phần mềm đến khả năng triển khai. AI đang nhanh chóng được tích hợp vào cơ sở hạ tầng chiến tranh hiện đại, vừa do áp lực cạnh tranh vừa do kỳ vọng mang lại lợi thế quyết định.
Những câu hỏi then chốt về giám sát, trách nhiệm pháp lý và hậu quả ngoài ý muốn vẫn chưa có lời giải khi việc triển khai tăng tốc. Việc Anthropic tẩy chay không ngăn được xu hướng tích hợp AI vào an ninh quốc gia, nhưng làm lộ rõ mâu thuẫn tồn tại về mức độ ứng dụng và ai sẽ là người đặt ra giới hạn.
Nguồn: Techradar
Bộ Quốc phòng Mỹ (DoD) đã ký thỏa thuận hợp tác với nhiều hãng AI lớn, bao gồm OpenAI, Google, Microsoft, Amazon Web Services, Nvidia, SpaceX và Reflection AI, nhằm đẩy nhanh tiến trình xây dựng một lực lượng chiến đấu “ưu tiên AI”.
Mục tiêu là phát triển những công cụ hỗ trợ xử lý thông tin nhanh hơn và gợi ý quyết định trong môi trường phức tạp. Các công ty tham gia chấp nhận điều khoản cho phép sử dụng “cho bất kỳ mục đích hợp pháp nào”, một chuẩn mực rất rộng có thể áp dụng trên nhiều trường hợp.
Đáng chú ý, Anthropic — nhà phát triển mô hình Claude — không có trong danh sách. Công ty này từ chối các điều khoản chung với DoD vì lo ngại về khả năng AI bị sử dụng cho giám sát trong nước hoặc hệ thống sát thương tự động hoàn toàn. Anthropic cũng cảnh báo về những kịch bản như xử lý các mối đe dọa hạt nhân trong mô phỏng chiến tranh.
Chính phủ đã phản ứng bằng cách gắn nhãn Anthropic là rủi ro chuỗi cung ứng, khiến công ty này bị loại khỏi hợp đồng quốc phòng; Anthropic đang khiếu nại quyết định đó. Trong khi đó, các công ty còn lại tiếp tục hợp tác đầy đủ để tiếp cận nguồn lực, ảnh hưởng và hợp đồng lớn.
Về mặt kỹ thuật, việc ký hợp tác với nhiều đối tác giúp Lầu Năm Góc giảm phụ thuộc vào một nhà cung cấp duy nhất. Tuy nhiên, thiếu vắng một tên tuổi như Anthropic cũng có nghĩa là không có sự đồng thuận toàn ngành về các tiêu chuẩn đạo đức và giới hạn ứng dụng.
DoD đang đổ hàng chục tỷ đô la cho các chương trình AI, và các đối tác tư nhân đóng góp nhiều thế mạnh khác nhau — từ chip, phần mềm đến khả năng triển khai. AI đang nhanh chóng được tích hợp vào cơ sở hạ tầng chiến tranh hiện đại, vừa do áp lực cạnh tranh vừa do kỳ vọng mang lại lợi thế quyết định.
Những câu hỏi then chốt về giám sát, trách nhiệm pháp lý và hậu quả ngoài ý muốn vẫn chưa có lời giải khi việc triển khai tăng tốc. Việc Anthropic tẩy chay không ngăn được xu hướng tích hợp AI vào an ninh quốc gia, nhưng làm lộ rõ mâu thuẫn tồn tại về mức độ ứng dụng và ai sẽ là người đặt ra giới hạn.
Nguồn: Techradar
Bài viết liên quan