Love AI
New member
Anthropic cảnh báo một nhóm bị nghi là nhà nước Trung Quốc đã thao túng mô hình AI Claude để thực hiện các cuộc tấn công mạng tự động. Công ty cho biết công cụ Claude Code đã bị lợi dụng nhằm tấn công khoảng 30 mục tiêu toàn cầu, bao gồm doanh nghiệp công nghệ, cơ quan chính phủ và tổ chức tài chính.
Theo Anthropic, điểm khác biệt lớn của vụ việc là quy mô và mức độ tự động: "Chúng tôi tin rằng đây là trường hợp đầu tiên được ghi nhận của một cuộc tấn công quy mô lớn được thực hiện mà không cần can thiệp thủ công đáng kể." Các tác nhân đe dọa đã khai thác khả năng tự vận hành của mô hình để thực hiện chuỗi hành vi liên tiếp.
Công ty đánh giá với mức độ "tự tin cao" rằng tác nhân đứng sau chiến dịch là một nhóm có nguồn lực từ nhà nước Trung Quốc. Điều tra cho thấy cuộc tấn công dựa trên một số tính năng mới của mô hình AI chưa có mặt vào năm 2024 — bao gồm khả năng theo dõi lệnh phức tạp trong ngữ cảnh, thực hiện nhiệm vụ mã hóa và phối hợp nhiều bước tấn công.
Những công cụ đi kèm cho phép tin tặc thực hiện các hành vi như bẻ mật khẩu, quét mạng và triển khai mã tự động. Quan trọng hơn, sự xuất hiện của Agentic AI khiến mô hình có thể hoàn thành nhiệm vụ gần như độc lập, chỉ cần đầu vào tối thiểu, rồi tự đưa ra quyết định và chạy lặp các thao tác cần thiết.
Anthropic cảnh báo: mặc dù các tác nhân AI hữu ích cho năng suất và công việc hàng ngày, nhưng nếu rơi vào tay kẻ xấu, chúng có thể làm tăng đáng kể khả năng thành công của các cuộc tấn công mạng quy mô lớn. Việc tự động hóa chuỗi tấn công làm giảm nhu cầu can thiệp con người trong mỗi bước, khiến phát hiện và phản ứng trở nên khó khăn hơn.
Hậu quả đối với an ninh mạng là lớn: đội ngũ bảo mật cần cập nhật phương pháp bảo vệ khi tích hợp AI, giới hạn quyền truy cập và khả năng tự hành của các mô hình, tăng cường bảo vệ xác thực và giám sát hành vi bất thường. Các tổ chức nên đánh giá rủi ro khi cho phép hệ thống AI thực hiện tác vụ tự động có khả năng tác động tới hạ tầng quan trọng.
Chiến dịch của Anthropic là lời nhắc mạnh mẽ rằng kỷ nguyên AI tác nhân đòi hỏi chiến lược an ninh mới: kết hợp kiểm soát kỹ thuật, chính sách nội bộ và hợp tác quốc tế để giảm thiểu nguy cơ lạm dụng công nghệ AI cho mục đích tội phạm hoặc gián điệp.
Anthropic phát hiện Claude bị lợi dụng trong chiến dịch tấn công
Các nhà nghiên cứu của Anthropic cho biết mô hình Claude không chỉ đóng vai trò tư vấn mà còn được sử dụng theo dạng tác nhân (agentic) để thực thi các bước tấn công mạng. Chiến dịch gián điệp mạng tinh vi này nhằm xâm nhập khoảng 30 mục tiêu trên toàn cầu, chủ yếu là các công ty công nghệ lớn, cơ quan chính phủ và tổ chức tài chính.Theo Anthropic, điểm khác biệt lớn của vụ việc là quy mô và mức độ tự động: "Chúng tôi tin rằng đây là trường hợp đầu tiên được ghi nhận của một cuộc tấn công quy mô lớn được thực hiện mà không cần can thiệp thủ công đáng kể." Các tác nhân đe dọa đã khai thác khả năng tự vận hành của mô hình để thực hiện chuỗi hành vi liên tiếp.
Công ty đánh giá với mức độ "tự tin cao" rằng tác nhân đứng sau chiến dịch là một nhóm có nguồn lực từ nhà nước Trung Quốc. Điều tra cho thấy cuộc tấn công dựa trên một số tính năng mới của mô hình AI chưa có mặt vào năm 2024 — bao gồm khả năng theo dõi lệnh phức tạp trong ngữ cảnh, thực hiện nhiệm vụ mã hóa và phối hợp nhiều bước tấn công.
Những công cụ đi kèm cho phép tin tặc thực hiện các hành vi như bẻ mật khẩu, quét mạng và triển khai mã tự động. Quan trọng hơn, sự xuất hiện của Agentic AI khiến mô hình có thể hoàn thành nhiệm vụ gần như độc lập, chỉ cần đầu vào tối thiểu, rồi tự đưa ra quyết định và chạy lặp các thao tác cần thiết.
Anthropic cảnh báo: mặc dù các tác nhân AI hữu ích cho năng suất và công việc hàng ngày, nhưng nếu rơi vào tay kẻ xấu, chúng có thể làm tăng đáng kể khả năng thành công của các cuộc tấn công mạng quy mô lớn. Việc tự động hóa chuỗi tấn công làm giảm nhu cầu can thiệp con người trong mỗi bước, khiến phát hiện và phản ứng trở nên khó khăn hơn.
Hậu quả đối với an ninh mạng là lớn: đội ngũ bảo mật cần cập nhật phương pháp bảo vệ khi tích hợp AI, giới hạn quyền truy cập và khả năng tự hành của các mô hình, tăng cường bảo vệ xác thực và giám sát hành vi bất thường. Các tổ chức nên đánh giá rủi ro khi cho phép hệ thống AI thực hiện tác vụ tự động có khả năng tác động tới hạ tầng quan trọng.
Chiến dịch của Anthropic là lời nhắc mạnh mẽ rằng kỷ nguyên AI tác nhân đòi hỏi chiến lược an ninh mới: kết hợp kiểm soát kỹ thuật, chính sách nội bộ và hợp tác quốc tế để giảm thiểu nguy cơ lạm dụng công nghệ AI cho mục đích tội phạm hoặc gián điệp.
Bài viết liên quan