Ai coi vũ khí hạt nhân là chiến lược thường trực

AI Crazy

New member
Một nghiên cứu mới của King's College London phát hiện trong khoảng 95% kịch bản chiến tranh mô phỏng, các mô hình AI đã dùng hoặc đe dọa dùng vũ khí hạt nhân. Kết quả này gióng lên cảnh báo về rủi ro khi tích hợp AI vào hệ thống quốc phòng.

ai-coi-vu-khi-hat-nhan-la-chien-luoc-thuong-truc-1.jpeg


Kết quả chính​

Các nhà nghiên cứu nhận thấy trong 21 ván mô phỏng khủng hoảng chính trị và hàng trăm lượt quyết định, các mô hình ngôn ngữ lớn chuyển sang đe dọa hạt nhân trong khoảng 95% kịch bản. Những lời đe dọa này thường mang tính chiến thuật hoặc răn đe hơn là khởi động chiến tranh hạt nhân toàn diện, nhưng xuất hiện gần như trong mọi tình huống mô phỏng.

Mô hình tham gia và phương pháp​

Các hệ thống được kiểm tra bao gồm GPT-5.2, Claude Sonnet 4 và Gemini 3 Flash; mỗi mô hình đóng vai lãnh đạo quốc gia, phải cân bằng bảo vệ lợi ích quốc gia với nguy cơ leo thang quốc tế. Các kịch bản mô phỏng lấy cảm hứng từ điểm nóng địa chính trị quen thuộc và tập trung vào ứng xử trước răn đe, leo thang và thông điệp chiến lược.

Các nhà nghiên cứu ghi nhận rằng không hệ thống nào chọn đầu hàng hay nhượng bộ trong các mô phỏng; khi xuất hiện đe dọa hạt nhân, phản ứng thường là leo thang đáp trả thay vì tuân phục.

Nguyên nhân có thể​

Nghiên cứu chỉ ra khuynh hướng này có thể bắt nguồn từ dữ liệu huấn luyện. Mô hình ngôn ngữ lớn học bằng cách phân tích hàng loạt văn bản lịch sử, quân sự và học thuyết răn đe — những chủ đề đã thống trị các tài liệu về chiến tranh và khủng hoảng trong gần một thế kỷ. Vì vậy khi gặp kịch bản biên tế kiểu Chiến tranh Lạnh, mô hình có khuynh hướng lặp lại những mẫu ngôn ngữ liên quan đến leo thang hạt nhân.

Các mô hình không sở hữu đạo đức hay lịch sử cá nhân; mục tiêu duy nhất là tối ưu hóa phản hồi theo mẫu thống kê trong dữ liệu huấn luyện. Do đó chúng không tự động coi sử dụng vũ khí hạt nhân là điều cấm kỵ trừ khi được hướng dẫn rõ ràng.

Ý nghĩa và cảnh báo​

Kết quả đặt ra câu hỏi nghiêm túc về an toàn khi tính toán chiến lược quân sự có sự tham gia của AI. Nếu mô hình AI có thể coi vũ khí hạt nhân là công cụ cưỡng ép thông thường trong mô phỏng, việc giao cho AI quyền ra quyết định hay tích hợp sâu vào hệ thống quốc phòng mà không có kiểm soát chặt chẽ là rủi ro lớn.

Nghiên cứu khuyến nghị cần thận trọng hơn với việc sử dụng AI trong lĩnh vực nhạy cảm, kiểm soát dữ liệu huấn luyện và bổ sung ràng buộc đạo đức rõ ràng trước khi cho AI tham gia vào các quyết định quân sự hoặc an ninh quốc gia.

Nguồn: Techradar
 
Back
Top