Khi AI tiến hóa: mối nguy mới và cách phòng

Love AI

New member
AI không chỉ là vũ khí hay công cụ hỗ trợ nữa — nó đang trở thành bề mặt tấn công mới mà tin tặc sẽ khai thác. Bài viết tóm tắt các rủi ro thực tế và hướng tiếp cận bảo mật để vừa tận dụng lợi ích AI vừa giảm thiểu nguy cơ.

khi-ai-tien-hoa-moi-nguy-moi-va-cach-phong-1.jpeg


AI đã luôn là con dao hai lưỡi: vừa hỗ trợ năng suất, vừa được cả kẻ tấn công lẫn người bảo vệ dùng. Gần đây, AI xuất hiện thêm một “lưỡi” thứ ba — khi chính các hệ thống AI, plugin hay trợ lý số trở thành điểm yếu để tin tặc lợi dụng.

Sự tiến hóa này khiến AI không chỉ là một công cụ bị lạm dụng, mà còn là bề mặt tấn công. Tin tặc có thể khai thác kết nối giữa công cụ AI và dữ liệu doanh nghiệp, lợi dụng tính năng tự động hóa của AI để thực hiện thu thập thông tin, xâm nhập hoặc rò rỉ dữ liệu một cách tự động.

Một số nhóm và chiến dịch đã dùng AI để gia tăng hiệu quả tấn công: nhóm Storm-0817 sử dụng AI hỗ trợ phát triển mã độc và thu thập dữ liệu mạng xã hội; nhóm Black Basta dùng AI để soạn email lừa đảo nhiều ngôn ngữ; OpenAI từng can thiệp để chặn nhiều hoạt động lạm dụng mô hình vào việc tạo malware, phishing và thông tin sai lệch. Anthropic cũng phát hiện chiến dịch gián điệp do AI điều phối, khi agentic AI bị thao túng để tự động thực hiện trinh sát và cố gắng xâm nhập.

Một số vụ điển hình cho thấy hậu quả thực tế: việc module AI “Drift” liên quan Salesloft năm 2025 dẫn đến việc mất dữ liệu Salesforce của hàng trăm tổ chức; chiến dịch “EchoLeak” nhắm vào Microsoft 365 Copilot cho thấy một email được thiết kế tỉ mỉ có thể truyền lệnh độc hại đến trợ lý AI nhúng và khiến dữ liệu bị rút ra âm thầm. Thêm vào đó, tình trạng Shadow AI — nhân viên dùng công cụ AI không được phép — tạo ra “thùng rò rỉ” nơi thông tin nhạy cảm đôi khi bị đưa vào mô hình công khai.

Điều quan trọng là không nên né tránh AI vì lo sợ. AI mang lại hiệu suất và đổi mới lớn cho doanh nghiệp, nên giải pháp là bảo vệ hệ thống AI đúng mức. Tiếp cận an toàn nên đặt bảo mật lên trước và giữ con người làm trung tâm: con người kiểm soát quyết định khi AI hỗ trợ, hệ thống minh bạch, có thể giải trình và tuân thủ quy định.

Mặt tích cực là chính AI cũng có thể là đồng minh trong phòng thủ: các mô hình giúp phát hiện mối đe dọa nhanh hơn, hỗ trợ phản ứng sự cố, quản lý rủi ro và nhận diện hành vi “beaconing” thông qua nhận dạng mẫu. Khi phương pháp phát hiện truyền thống thiếu sót, AI phòng thủ có thể bù đắp và tự động hóa nhiều tác vụ phát hiện.

Những bước thực tế tổ chức nên làm: lập bảng kiểm kê tài sản AI và tích hợp, bảo mật plugin và kết nối dữ liệu, giám sát hành vi trợ lý AI, hạn chế Shadow AI bằng chính sách và đào tạo, thiết lập quy trình phản ứng sự cố cho các sự cố liên quan AI và hợp tác chặt chẽ với nhà cung cấp để cập nhật vá lỗ hổng.

Tóm lại, AI đang mở ra cả cơ hội lẫn rủi ro mới. Giữ con người làm trung tâm, triển khai chiến lược “Secure AI” và tận dụng AI cho cả phòng thủ lẫn phân tích sẽ giúp cân bằng tiềm năng kinh doanh và an toàn thông tin.

Nguồn: Techradar
 
Back
Top