OpenAI ký hợp đồng quân sự, dấy lên lo ngại giám sát

AI Crazy

New member
Sau khi Anthropic bị loại khỏi hợp đồng với Lầu Năm Góc, OpenAI đã ký thỏa thuận mới với các đối tác quân sự, khiến giới quan sát lo ngại về kẽ hở cho giám sát đại quy mô. Những phát hiện nội bộ và thay đổi chính sách của OpenAI đang đặt câu hỏi về quyền riêng tư và an ninh của người dân.

openai-ky-hop-dong-quan-su-day-len-lo-ngai-giam-sat-1.jpeg


Anthropic bị Bộ Quốc phòng Mỹ xếp là rủi ro trong chuỗi cung ứng và mất hợp đồng trị giá 200 triệu USD, tạo khoảng trống mà OpenAI nay đang lấp đầy — nhưng cũng để lại những lo ngại tương tự về khả năng bị dùng cho giám sát hàng loạt.

Năm 2023, OpenAI có điều khoản cấm quân đội sử dụng mô hình của mình, nhưng nhiều nhân viên tiết lộ rằng các mô hình vẫn từng được Lầu Năm Góc tiếp cận thông qua Microsoft. Khi Microsoft được cấp giấy phép sử dụng công nghệ OpenAI, Lầu Năm Góc có thể truy cập qua Azure OpenAI, không bị ràng buộc bởi cùng chính sách nghiêm ngặt mà OpenAI tự đặt ra.

Đến năm 2024, OpenAI dỡ bỏ lệnh cấm toàn diện đối với việc sử dụng mô hình cho mục đích quân sự và sau đó ký hợp đồng với công ty quốc phòng Anduril, cho phép triển khai mô hình phục vụ an ninh quốc gia. Giám đốc điều hành Sam Altman tuy bày tỏ ủng hộ quan điểm của Anthropic về việc ngăn chặn việc lạm dụng, nhưng theo một số nguồn tin, thỏa thuận mới vẫn để lại khoảng trống có thể dùng cho các mục đích gây tranh cãi.

Các chuyên gia cảnh báo rằng quy định hiện tại đang chạy chậm so với tiến triển của AI, mở đường cho các cơ quan chính phủ mua thông tin cá nhân của công dân từ nhà môi giới dữ liệu, rồi dùng mô hình AI để phân loại, sàng lọc và tạo hồ sơ rất chi tiết về người dân.

Noam Brown, một nhà nghiên cứu của OpenAI, nhận xét rằng: “Cuối tuần qua rõ ràng rằng ngôn ngữ ban đầu trong thỏa thuận OpenAI với Bộ Quốc phòng đã để lại những câu hỏi chính đáng chưa được trả lời, đặc biệt liên quan tới một số cách mới mà AI có thể tạo điều kiện cho giám sát hợp pháp. Ngôn ngữ giờ đã được cập nhật để giải quyết vấn đề này, nhưng tôi cũng tin mạnh rằng thế giới không nên phải dựa vào niềm tin vào các phòng thí nghiệm AI hay cơ quan tình báo để đảm bảo an toàn và an ninh.”

Sarah Shoker, cựu Trưởng nhóm địa chính trị của OpenAI, cảnh báo: “Người thua thiệt nhất trong tất cả chuyện này là người dân bình thường và dân thường ở những vùng xung đột. Khả năng của chúng ta trong việc hiểu tác động của AI quân sự trong chiến tranh sẽ bị cản trở nghiêm trọng bởi nhiều lớp độ mờ do thiết kế kỹ thuật và chính sách gây ra. Mọi thứ đều là hộp đen.”

Diễn biến này một lần nữa đưa ra yêu cầu cấp bách về minh bạch và hoàn thiện khung pháp lý: nếu không có quy định rõ ràng, việc triển khai AI trong hoạt động an ninh và quốc phòng có thể mở ra nguy cơ giám sát rộng rãi và xâm phạm quyền riêng tư của người dân, đặc biệt tại những khu vực dễ bị tổn thương. Cộng đồng quan sát và lập pháp nhiều nước đang theo dõi chặt chẽ các thỏa thuận để yêu cầu làm rõ giới hạn và trách nhiệm giải trình.

Nguồn: Techradar
 
Back
Top