Nhân viên Google kêu gọi từ chối AI quân sự

Love AI

New member
Hơn 600 nhân viên Google đồng ký một thư ngỏ yêu cầu CEO Sundar Pichai từ chối mọi ứng dụng công nghệ AI cho mục đích quân sự. Thư nêu lo ngại đạo đức nghiêm trọng, cho rằng mạng sống con người đang bị đe dọa và quyền tự do cá nhân có nguy cơ bị xâm phạm.

nhan-vien-google-keu-goi-tu-choi-ai-quan-su-1.jpeg


Hơn 600 nhân viên Google đã ký một bức thư ngỏ kêu gọi CEO Sundar Pichai bác bỏ mọi việc sử dụng công nghệ AI của công ty cho mục đích quân sự.

Bức thư nhấn mạnh những lo ngại đạo đức cấp bách: 'Những mạng sống con người đã và đang mất đi và quyền tự do dân sự bị đe dọa trong và ngoài nước do việc lạm dụng công nghệ mà chúng tôi đóng vai trò then chốt trong việc xây dựng.'

Nhân viên cho rằng, với vai trò làm việc trực tiếp trên AI, họ có trách nhiệm cảnh báo và ngăn chặn những ứng dụng phi đạo đức và nguy hiểm nhất. Thư cũng nêu thực tế rằng các hệ thống AI có thể tập trung quyền lực và vẫn mắc sai sót.

Bối cảnh rộng hơn cho thấy các công ty AI đang đối mặt áp lực tương tự. Tháng 3, CEO Anthropic Dario Amodei từ chối việc cho Lầu Năm Góc sử dụng mô hình Claude vì lo ngại về 'giám sát dân cư diện rộng' và 'vũ khí hoàn toàn tự động', khiến Bộ trưởng Quốc phòng Mỹ gọi Anthropic là 'rủi ro chuỗi cung ứng'.

Ngay sau đó, OpenAI được cho là đã lấp chỗ trống, và CEO Sam Altman đối mặt nhiều chỉ trích vì dường như sẵn sàng cho phép sử dụng quân sự ChatGPT. Hợp đồng ban đầu giữa OpenAI và Lầu Năm Góc có những kẽ hở, nhưng sau đó được sửa đổi để nêu rõ các mô hình của OpenAI sẽ không được dùng cho 'việc theo dõi, giám sát hoặc giám định có chủ ý đối với công dân hoặc người có quốc tịch Mỹ, bao gồm thông tin cá nhân thương mại hoặc thông tin nhận dạng.'

Theo báo cáo, Sam Altman cũng nói rằng Lầu Năm Góc tuyên bố OpenAI không được 'quyết định vận hành' cách quân đội sử dụng công nghệ AI. Điều này làm dấy lên lo ngại về việc công nghệ do các công ty dân sự phát triển có thể bị ứng dụng theo những cách họ không kiểm soát.

Các nhân viên Google khẳng định họ đang gia nhập làn sóng phản đối từ cả bên trong và bên ngoài ngành công nghệ. 'Quyết định sai lầm vào lúc này sẽ gây tổn hại không thể khắc phục tới uy tín, hoạt động kinh doanh và vai trò của Google trên thế giới,' bức thư cảnh báo.

Sau các cuộc phản đối nội bộ năm 2018, Google từng cập nhật Nguyên tắc AI của mình, cam kết không triển khai công cụ AI có khả năng gây hại và không thiết kế hay triển khai công cụ cho mục đích giám sát hoặc vũ khí. Tuy nhiên, các điều khoản này đã bị gỡ bỏ im lặng vào ngày 4 tháng 2 năm 2025, khiến nhân viên lo ngại về chiều hướng chính sách của công ty.

Những kiến nghị hiện nay đặt ra yêu cầu rõ ràng: Google cần có chính sách minh bạch và ràng buộc để ngăn chặn việc sử dụng AI vào các mục tiêu quân sự hoặc giám sát có thể gây hại, bảo vệ quyền lợi công chúng và danh tiếng doanh nghiệp.

Nguồn: Techradar
 
Back
Top