Love AI
New member
Google vừa mở rộng hợp đồng với Bộ Quốc phòng Mỹ để cung cấp Gemini cho các mạng lưới phân loại và cho “mọi mục đích hợp pháp”, đồng thời rút khỏi cuộc thi 100 triệu USD về đàn drone tự hành điều khiển bằng giọng nói. Quyết định này làm dấy lên tranh cãi nội bộ về đạo đức và câu hỏi về giới hạn của chính sách công nghệ.
Google đã mở rộng hợp đồng với Bộ Quốc phòng Mỹ (DoD), cho phép mô hình AI Gemini được triển khai trên các mạng lưới phân loại và sử dụng cho “mọi mục đích hợp pháp”. Cùng lúc, hãng rút khỏi thử thách 100 triệu USD của Lầu Năm Góc về phát triển đàn drone tự hành điều khiển bằng giọng nói.
Google cho biết việc rút lui là do thiếu nguồn lực, nhưng báo chí đưa tin quyết định xuất phát từ một cuộc đánh giá đạo đức nội bộ, cho thấy ban hội thẩm đạo đức vẫn có tiếng nói trong một vài trường hợp. Tuy nhiên, việc mở rộng quyền sử dụng Gemini cho các dự án phân loại khiến nhiều nhân viên bất bình, dù công ty khẳng định họ “tự hào” về hợp đồng với Bộ Quốc phòng.
Từ trước, Google từng có nguyên tắc AI không triển khai công cụ có “khả năng gây hại” cao và tránh phát triển cho mục đích giám sát hoặc vũ khí. Giờ đây, một số nhân viên nhìn nhận rằng công ty đã dịch chuyển xa khỏi khẩu hiệu nổi tiếng “Don’t Be Evil”, khi các giới hạn trước đây bị nới lỏng hoặc biến mất.
Khoản điều khoản “mọi mục đích hợp pháp” trong hợp đồng bị nhiều chuyên gia chỉ ra là không đủ chặn các ứng dụng gây tranh cãi. Luật pháp có thể thay đổi theo thời gian (ví dụ các đạo luật liên quan truy cập dữ liệu), nên những gì hôm nay “phi pháp” có thể được hợp thức hóa sau này — tạo kẽ hở pháp lý cho những ứng dụng mà trước đây bị phản đối.
Hợp đồng còn nêu rõ Google không có quyền “veto” các quyết định hoạt động hợp pháp của chính phủ, nghĩa là Lầu Năm Góc có nhiều tự do hơn trong việc định hướng sử dụng Gemini cho các dự án phân loại. Tình trạng này từng xuất hiện tương tự trong hợp đồng giữa OpenAI và Bộ Quốc phòng.
Lý do lớn khiến các công ty công nghệ tiếp tục làm việc với chính phủ là tiềm năng tài chính khổng lồ. Microsoft, Amazon và giờ là Google đều giành được các hợp đồng về đám mây, AI và an ninh mạng. Sự cạnh tranh này khiến những rào cản đạo đức dễ bị đẩy lùi khi lợi ích thương mại lớn hơn.
Nhân viên Google từng nhiều lần phản đối hợp tác quân sự — ví dụ phong trào chống Project MAVEN năm 2018 dẫn đến việc Google rút lui khỏi dự án đó và làm thay đổi một số nguyên tắc nội bộ. Những cuộc phản đối tương tự cũng xuất hiện khi công ty có khả năng cung cấp công nghệ cho cơ quan di trú và hải quan Mỹ. Gần đây có hơn 600 nhân viên ký thư yêu cầu CEO Sundar Pichai từ chối mọi ứng dụng gây hại của AI cho mục đích quân sự hay giám sát.
Diễn biến này cho thấy một nghịch lý: ban đạo đức nội bộ còn có tiếng nói nhưng các cam kết thương mại và ngôn từ hợp đồng vẫn mở đường cho việc sử dụng AI vào những mục tiêu gây tranh cãi. Hệ quả là cần minh bạch hơn, các ràng buộc pháp lý chặt chẽ và giám sát độc lập nếu muốn cân bằng lợi ích an ninh quốc gia với quyền riêng tư và an toàn dân sự.
Nguồn: Techradar
Google đã mở rộng hợp đồng với Bộ Quốc phòng Mỹ (DoD), cho phép mô hình AI Gemini được triển khai trên các mạng lưới phân loại và sử dụng cho “mọi mục đích hợp pháp”. Cùng lúc, hãng rút khỏi thử thách 100 triệu USD của Lầu Năm Góc về phát triển đàn drone tự hành điều khiển bằng giọng nói.
Google cho biết việc rút lui là do thiếu nguồn lực, nhưng báo chí đưa tin quyết định xuất phát từ một cuộc đánh giá đạo đức nội bộ, cho thấy ban hội thẩm đạo đức vẫn có tiếng nói trong một vài trường hợp. Tuy nhiên, việc mở rộng quyền sử dụng Gemini cho các dự án phân loại khiến nhiều nhân viên bất bình, dù công ty khẳng định họ “tự hào” về hợp đồng với Bộ Quốc phòng.
Từ trước, Google từng có nguyên tắc AI không triển khai công cụ có “khả năng gây hại” cao và tránh phát triển cho mục đích giám sát hoặc vũ khí. Giờ đây, một số nhân viên nhìn nhận rằng công ty đã dịch chuyển xa khỏi khẩu hiệu nổi tiếng “Don’t Be Evil”, khi các giới hạn trước đây bị nới lỏng hoặc biến mất.
Khoản điều khoản “mọi mục đích hợp pháp” trong hợp đồng bị nhiều chuyên gia chỉ ra là không đủ chặn các ứng dụng gây tranh cãi. Luật pháp có thể thay đổi theo thời gian (ví dụ các đạo luật liên quan truy cập dữ liệu), nên những gì hôm nay “phi pháp” có thể được hợp thức hóa sau này — tạo kẽ hở pháp lý cho những ứng dụng mà trước đây bị phản đối.
Hợp đồng còn nêu rõ Google không có quyền “veto” các quyết định hoạt động hợp pháp của chính phủ, nghĩa là Lầu Năm Góc có nhiều tự do hơn trong việc định hướng sử dụng Gemini cho các dự án phân loại. Tình trạng này từng xuất hiện tương tự trong hợp đồng giữa OpenAI và Bộ Quốc phòng.
Lý do lớn khiến các công ty công nghệ tiếp tục làm việc với chính phủ là tiềm năng tài chính khổng lồ. Microsoft, Amazon và giờ là Google đều giành được các hợp đồng về đám mây, AI và an ninh mạng. Sự cạnh tranh này khiến những rào cản đạo đức dễ bị đẩy lùi khi lợi ích thương mại lớn hơn.
Nhân viên Google từng nhiều lần phản đối hợp tác quân sự — ví dụ phong trào chống Project MAVEN năm 2018 dẫn đến việc Google rút lui khỏi dự án đó và làm thay đổi một số nguyên tắc nội bộ. Những cuộc phản đối tương tự cũng xuất hiện khi công ty có khả năng cung cấp công nghệ cho cơ quan di trú và hải quan Mỹ. Gần đây có hơn 600 nhân viên ký thư yêu cầu CEO Sundar Pichai từ chối mọi ứng dụng gây hại của AI cho mục đích quân sự hay giám sát.
Diễn biến này cho thấy một nghịch lý: ban đạo đức nội bộ còn có tiếng nói nhưng các cam kết thương mại và ngôn từ hợp đồng vẫn mở đường cho việc sử dụng AI vào những mục tiêu gây tranh cãi. Hệ quả là cần minh bạch hơn, các ràng buộc pháp lý chặt chẽ và giám sát độc lập nếu muốn cân bằng lợi ích an ninh quốc gia với quyền riêng tư và an toàn dân sự.
Nguồn: Techradar
Bài viết liên quan