Phi Vũ
New member
Chính phủ Mỹ đã xếp Anthropic vào nhóm rủi ro chuỗi cung ứng sau khi công ty từ chối ký thỏa thuận tình báo với Lầu Năm Góc. Anthropic tuyên bố sẽ kiện quyết định này và Claude đang ghi nhận lượng người dùng mới lớn mỗi ngày.
Bộ Chính phủ Mỹ vừa chính thức gán nhãn Anthropic là một rủi ro trong chuỗi cung ứng, động thái xuất phát từ việc công ty này không muốn ký một thỏa thuận tình báo với Lầu Năm Góc. Anthropic cho biết họ sẽ đưa quyết định này ra tòa, và CEO Dario Amodei mô tả quyết định là "về mặt pháp lý không vững chắc".
Theo giải thích, nhãn rủi ro chuỗi cung ứng được dùng khi nhà chức trách Mỹ cho rằng hợp tác với một nhà cung cấp có thể gây ảnh hưởng tới an ninh quốc gia. Đây là lần đầu tiên một công ty Mỹ chính thức nhận nhãn này. Amodei cũng nhấn mạnh rằng quyết định này "được tạo ra để bảo vệ chính phủ chứ không phải để trừng phạt nhà cung cấp", và nó không áp dụng cho việc sử dụng bên ngoài phạm vi chính phủ.
Bất chấp tranh cãi chính trị và pháp lý, nền tảng AI Claude của Anthropic đang tăng mạnh về lượng người dùng mới. Theo Mike Kreiger của Anthropic, hiện có hơn một triệu người đăng ký Claude mỗi ngày. Ở đầu năm, Claude được cho là có khoảng 20 triệu người dùng hoạt động hàng tháng.
Một phần đông người dùng mới có thể tìm đến Claude vì lo ngại liên quan đến các thỏa thuận giữa các công ty AI và quân đội. Anthropic rút khỏi bàn thảo luận hợp tác với quân đội vì quan ngại về giám sát quy mô lớn và vũ khí hoàn toàn tự động. Trong khi đó, OpenAI đã ký một thỏa thuận với quân đội Mỹ, hành động này khiến nhiều người dùng ChatGPT chỉ trích và có dấu hiệu chuyển sang dùng Claude. Amodei mô tả thỏa thuận của ChatGPT là "sân khấu an toàn" (safety theater), và bản thân CEO OpenAI, Sam Altman, từng gọi thỏa thuận đó là "vội vã".
Về phía quan hệ giữa Anthropic và chính phủ, vẫn còn khả năng hai bên tìm được tiếng nói chung — có dấu hiệu rằng một thỏa thuận với Lầu Năm Góc vẫn có thể xảy ra. Câu chuyện này có thể còn phát triển trong những ngày tới khi các bên tiếp tục đàm phán và tranh luận pháp lý.
Nguồn: Techradar
Bộ Chính phủ Mỹ vừa chính thức gán nhãn Anthropic là một rủi ro trong chuỗi cung ứng, động thái xuất phát từ việc công ty này không muốn ký một thỏa thuận tình báo với Lầu Năm Góc. Anthropic cho biết họ sẽ đưa quyết định này ra tòa, và CEO Dario Amodei mô tả quyết định là "về mặt pháp lý không vững chắc".
Theo giải thích, nhãn rủi ro chuỗi cung ứng được dùng khi nhà chức trách Mỹ cho rằng hợp tác với một nhà cung cấp có thể gây ảnh hưởng tới an ninh quốc gia. Đây là lần đầu tiên một công ty Mỹ chính thức nhận nhãn này. Amodei cũng nhấn mạnh rằng quyết định này "được tạo ra để bảo vệ chính phủ chứ không phải để trừng phạt nhà cung cấp", và nó không áp dụng cho việc sử dụng bên ngoài phạm vi chính phủ.
Bất chấp tranh cãi chính trị và pháp lý, nền tảng AI Claude của Anthropic đang tăng mạnh về lượng người dùng mới. Theo Mike Kreiger của Anthropic, hiện có hơn một triệu người đăng ký Claude mỗi ngày. Ở đầu năm, Claude được cho là có khoảng 20 triệu người dùng hoạt động hàng tháng.
Một phần đông người dùng mới có thể tìm đến Claude vì lo ngại liên quan đến các thỏa thuận giữa các công ty AI và quân đội. Anthropic rút khỏi bàn thảo luận hợp tác với quân đội vì quan ngại về giám sát quy mô lớn và vũ khí hoàn toàn tự động. Trong khi đó, OpenAI đã ký một thỏa thuận với quân đội Mỹ, hành động này khiến nhiều người dùng ChatGPT chỉ trích và có dấu hiệu chuyển sang dùng Claude. Amodei mô tả thỏa thuận của ChatGPT là "sân khấu an toàn" (safety theater), và bản thân CEO OpenAI, Sam Altman, từng gọi thỏa thuận đó là "vội vã".
Về phía quan hệ giữa Anthropic và chính phủ, vẫn còn khả năng hai bên tìm được tiếng nói chung — có dấu hiệu rằng một thỏa thuận với Lầu Năm Góc vẫn có thể xảy ra. Câu chuyện này có thể còn phát triển trong những ngày tới khi các bên tiếp tục đàm phán và tranh luận pháp lý.
Nguồn: Techradar
Bài viết liên quan