AI Crazy
New member
Sau khi OpenAI ký thỏa thuận với quân đội Mỹ, nhiều người dùng phản ứng mạnh, hủy đăng ký ChatGPT và chuyển sang các chatbot khác. Cuộc tranh luận về đạo đức và giới hạn ứng dụng AI đang ngày càng gay gắt.
OpenAI vừa ký một thỏa thuận hợp tác với quân đội Mỹ, khiến cộng đồng người dùng ChatGPT và những người quan tâm đến đạo đức AI phản ứng dữ dội. Nhiều người cho rằng việc này mâu thuẫn với các cam kết về an toàn và giới hạn sử dụng trước đó từ một số công ty AI khác.
Trước đó, Anthropic — nhà phát triển chatbot Claude — đã từ chối ký hợp đồng với Bộ Quốc phòng Mỹ (DoD) vì lo ngại công nghệ của họ có thể bị dùng cho giám sát diện rộng hoặc vũ khí hoàn toàn tự chủ. Anthropic yêu cầu các biện pháp đảm bảo, nhưng DoD không chấp nhận các điều kiện đó.
OpenAI cho biết thỏa thuận của họ với quân đội có "nhiều biện pháp bảo vệ" hơn và đặt ra các "ranh đỏ" nhằm ngăn công nghệ bị dùng cho giám sát hàng loạt hoặc vũ khí tự động. Tuy nhiên, phần ngôn ngữ cho phép sử dụng vì "mọi mục đích hợp pháp" trong hợp đồng đã khiến nhiều người hoài nghi.
Trên mạng xã hội và Reddit đã xuất hiện làn sóng hủy đăng ký ChatGPT; người dùng chia sẻ hướng dẫn cách tắt, xuất dữ liệu hoặc chuyển sang các chatbot khác như Claude. Nhiều bình luận cáo buộc OpenAI "không có đạo đức" hoặc "bán linh hồn" khi đồng ý để công nghệ của mình được tiếp cận bởi quân đội.
Một số người chuyển sang dùng Claude, khiến ứng dụng này vươn lên vị trí cao trên bảng xếp hạng App Store. Đồng thời có thông tin chính phủ Mỹ cân nhắc loại bỏ Claude khỏi một số bộ phận, làm tình hình càng trở nên phức tạp.
Nhà đầu tư công nghệ Aidan Gold lập luận rằng OpenAI trước đó từng ủng hộ lập trường an toàn của Anthropic nhưng rồi vẫn tiến tới ký hợp đồng với DoD. Sự kiện làm nổi bật mâu thuẫn giữa lợi ích thương mại, hợp tác chính phủ và trách nhiệm đạo đức trong phát triển AI.
Sự việc mở ra nhiều câu hỏi: liệu các biện pháp bảo vệ trong hợp đồng có đủ rõ ràng và dễ kiểm chứng? "Mọi mục đích hợp pháp" có thể bao hàm những ứng dụng gây tranh cãi nào? Và người dùng có quyền kiểm soát dữ liệu mình đã đưa vào các mô hình AI như thế nào khi nhà cung cấp hợp tác với các cơ quan quân sự?
Cuộc tranh luận về đạo đức AI, minh bạch hợp đồng và quyền của người dùng có lẽ sẽ còn kéo dài, trong khi các công ty AI và chính phủ tiếp tục đàm phán về giới hạn sử dụng công nghệ.
Nguồn: Techradar
Tổng quan sự kiện
OpenAI vừa ký một thỏa thuận hợp tác với quân đội Mỹ, khiến cộng đồng người dùng ChatGPT và những người quan tâm đến đạo đức AI phản ứng dữ dội. Nhiều người cho rằng việc này mâu thuẫn với các cam kết về an toàn và giới hạn sử dụng trước đó từ một số công ty AI khác.
Anthropic rút lui, OpenAI tiến tới
Trước đó, Anthropic — nhà phát triển chatbot Claude — đã từ chối ký hợp đồng với Bộ Quốc phòng Mỹ (DoD) vì lo ngại công nghệ của họ có thể bị dùng cho giám sát diện rộng hoặc vũ khí hoàn toàn tự chủ. Anthropic yêu cầu các biện pháp đảm bảo, nhưng DoD không chấp nhận các điều kiện đó.
OpenAI cho biết thỏa thuận của họ với quân đội có "nhiều biện pháp bảo vệ" hơn và đặt ra các "ranh đỏ" nhằm ngăn công nghệ bị dùng cho giám sát hàng loạt hoặc vũ khí tự động. Tuy nhiên, phần ngôn ngữ cho phép sử dụng vì "mọi mục đích hợp pháp" trong hợp đồng đã khiến nhiều người hoài nghi.
Phản ứng người dùng và xu hướng hủy dịch vụ
Trên mạng xã hội và Reddit đã xuất hiện làn sóng hủy đăng ký ChatGPT; người dùng chia sẻ hướng dẫn cách tắt, xuất dữ liệu hoặc chuyển sang các chatbot khác như Claude. Nhiều bình luận cáo buộc OpenAI "không có đạo đức" hoặc "bán linh hồn" khi đồng ý để công nghệ của mình được tiếp cận bởi quân đội.
Một số người chuyển sang dùng Claude, khiến ứng dụng này vươn lên vị trí cao trên bảng xếp hạng App Store. Đồng thời có thông tin chính phủ Mỹ cân nhắc loại bỏ Claude khỏi một số bộ phận, làm tình hình càng trở nên phức tạp.
Ý kiến chuyên gia và nhà đầu tư
Nhà đầu tư công nghệ Aidan Gold lập luận rằng OpenAI trước đó từng ủng hộ lập trường an toàn của Anthropic nhưng rồi vẫn tiến tới ký hợp đồng với DoD. Sự kiện làm nổi bật mâu thuẫn giữa lợi ích thương mại, hợp tác chính phủ và trách nhiệm đạo đức trong phát triển AI.
Những vấn đề đặt ra
Sự việc mở ra nhiều câu hỏi: liệu các biện pháp bảo vệ trong hợp đồng có đủ rõ ràng và dễ kiểm chứng? "Mọi mục đích hợp pháp" có thể bao hàm những ứng dụng gây tranh cãi nào? Và người dùng có quyền kiểm soát dữ liệu mình đã đưa vào các mô hình AI như thế nào khi nhà cung cấp hợp tác với các cơ quan quân sự?
Cuộc tranh luận về đạo đức AI, minh bạch hợp đồng và quyền của người dùng có lẽ sẽ còn kéo dài, trong khi các công ty AI và chính phủ tiếp tục đàm phán về giới hạn sử dụng công nghệ.
Nguồn: Techradar
Bài viết liên quan