Ai tự động thực hiện và che dấu tội phạm mạng

Love AI

New member
Các tác nhân AI giờ đây có thể tự thực hiện và che dấu các tội phạm mạng, khiến việc điều tra và truy trách nhiệm trở nên phức tạp. Những vụ xâm nhập gần đây cho thấy AI đảm nhiệm phần lớn các bước tấn công, từ dò quét mục tiêu đến đóng gói dữ liệu đánh cắp.

ai-tu-dong-thuc-hien-va-che-dau-toi-pham-mang-1.jpeg


Trong vài năm qua, AI đã xuất hiện như một công cụ tăng tốc cho gian lận: soạn email lừa đảo, hoàn thiện kịch bản social engineering và giúp kẻ tấn công di chuyển nhanh hơn. Nhưng gần đây mô hình tác nhân (agentic AI) đã bước qua vai trò trợ giúp để trực tiếp thực hiện phần lớn quy trình tấn công.

Các báo cáo nêu rõ một chiến dịch gián điệp mạng sử dụng Claude Code của Anthropic, trong đó AI đảm nhiệm khoảng 80–90% các thao tác chiến thuật trên khoảng 30 mục tiêu. Một vụ xâm nhập khác vào chính phủ Mexico liên quan tới một phiên bản Claude Code bị jailbreak đã bị cáo buộc đánh cắp hơn 150GB dữ liệu và làm lộ khoảng 195 triệu danh tính.

Khi một tác nhân có công cụ, ngữ cảnh và quyền hạn, tội phạm mạng hoạt động như một hệ thống luôn bật: dò quét mục tiêu, viết khai thác lỗ hổng, thu thập thông tin đăng nhập, di chuyển ngang trong mạng và đóng gói dữ liệu đánh cắp với tốc độ máy móc. Tính lặp lại, quy mô và giám sát yếu là những yếu tố mà gian lận rất ưa thích — và các hệ thống agentic đều mang lại cả ba.

Vấn đề mấu chốt là truy nguồn (attribution) trở nên mờ nhạt hơn. Điều tra truyền thống dựa vào dấu vết như đường đi IP, họ phần mềm độc hại, tên miền và cơ sở hạ tầng. Nhưng proxy, cài cắm sai lệch và công cụ chung vốn đã làm mờ bức tranh, còn AI tác nhân thì làm tình hình tồi tệ hơn khi nó có thể sinh mã mới, thay đổi trình tự hành động, hoặc phân phối công việc qua nhiều công cụ và phiên làm việc.

Hậu quả là trách nhiệm bị phân tán giữa lời gọi lệnh (prompt), mô hình, công cụ được ủy quyền và hành động do máy sinh ra. Nếu hành động có thể thực hiện bên trong hệ thống mà không để lại chứng cứ đáng tin cậy về tác giả, các đội an ninh sẽ bị buộc phải quản trị hành vi tự động mà không có bằng chứng xác thực.

Giải pháp đề xuất là mỗi hành động AI có ý nghĩa cần mang danh tính mật mã có thể xác minh. Hành động phải được ký số, liên kết với danh tính có thể kiểm chứng và ghi lại trong nhật ký đáng tin cậy. Việc này không phải ý tưởng xa lạ: NIST đã khởi xướng Sáng kiến tiêu chuẩn cho tác nhân AI và kêu gọi nhận diện tác nhân, liên kết danh tính người dùng với hành động được ủy quyền, ghi nhật ký hoạt động của tác nhân và theo dõi nguồn gốc của prompt cùng dữ liệu vào.

Thị trường cũng cảnh báo mức độ cấp bách: 68% tổ chức không phân biệt rõ hoạt động của tác nhân AI và con người, trong khi 73% kỳ vọng tác nhân sẽ trở nên quan trọng trong vòng một năm. Đây không chỉ là khoảng trống quản trị nhỏ mà là rủi ro trực tiếp ở bất kỳ môi trường nào có thể bị gian lận, lạm dụng hoặc trộm dữ liệu.

Chúng ta đã biết cách ký và xác minh các hiện vật số; vấn đề còn lại là mở rộng kỷ luật đó từ mô hình và phần mềm sang chính các hành động mà tác nhân thực hiện sau khi triển khai. Việc này sẽ không đơn giản, nhưng là bước cần thiết để khôi phục trách nhiệm, cải thiện truy nguồn và giảm thiểu tác hại từ các tác nhân AI độc hại.

Nguồn: Techradar
 
Back
Top