Phi Vũ

New member
Các cuộc tấn công mạng đã tăng vọt trong vài năm gần đây và AI đóng vai trò kép: vừa là công cụ hỗ trợ tấn công, vừa là phương tiện để phòng thủ. Bài viết tóm lược các lớp rủi ro do AI tạo ra và hướng dẫn giải pháp để dùng AI bảo vệ hệ thống.

ai-ban-hay-ke-thu-trong-an-ninh-mang-1.jpeg


Các cuộc tấn công mạng toàn cầu đã tăng hơn gấp đôi trong bốn năm, từ khoảng 818 vụ mỗi tổ chức vào 2021 lên gần 2.000 vụ mỗi tổ chức vào năm ngoái, theo Diễn đàn Kinh tế Thế giới. Doanh nghiệp nhỏ đặc biệt dễ tổn thương, với tỉ lệ báo cáo khả năng chống chịu mạng không đủ tăng gấp bảy lần so với 2022.

AI góp phần làm gia tăng cả khối lượng và độ tinh vi của các cuộc tấn công. Từ việc sử dụng mô hình ngôn ngữ lớn (LLM) để soạn nội dung lừa đảo thuyết phục, viết phần mềm độc hại biến thể, đến tự động hóa tấn công xã hội với quy mô lớn — môi trường đe dọa đang học hỏi và thích ứng nhanh hơn khả năng phản ứng của con người.

Rủi ro xuất hiện trên nhiều lớp của hệ sinh thái AI. Ở lớp hạ tầng (tính toán, mạng, lưu trữ), quy mô và phức tạp của khối lượng công việc AI khiến việc phát hiện tấn công khó hơn. Ở lớp mô hình, những nguy cơ như tiêm lệnh (prompt injection), tạo nội dung không tuân thủ và rò rỉ dữ liệu đang trở thành mối đe dọa chính — điều này cũng được nêu trong OWASP 2025 Top 10 cho ứng dụng LLM.

Lớp ngữ cảnh (các cơ sở dữ liệu RAG và bộ nhớ) là mục tiêu hấp dẫn cho việc đánh cắp dữ liệu. Ở lớp công cụ và ứng dụng, API bị cấp quyền quá mức hoặc các tác nhân AI bị chiếm quyền có thể trao kẻ tấn công chìa khóa truy cập vào các quy trình làm việc quan trọng. Nói cách khác, bề mặt tấn công đang mở rộng theo mọi hướng.

Giải pháp không phải là bỏ AI mà là dùng AI để bảo vệ AI. Một khung bảo mật toàn diện cần bao phủ toàn bộ vòng đời AI, bảo vệ ba lớp thiết yếu: hạ tầng mô hình, chính mô hình và các ứng dụng AI. Khi bảo mật được tích hợp sẵn vào quy trình kinh doanh thay vì gắn thêm về sau, tổ chức sẽ có lớp phòng thủ hiệu quả, độ trễ thấp mà không làm giảm trải nghiệm hay hiệu năng.

Các đội an ninh đã triển khai các "hàng rào thông minh" quét prompt để phát hiện ý đồ xấu, phát hiện hành vi API bất thường và đóng dấu (watermark) nội dung do AI tạo để truy vết. Thế hệ mới của vận hành an ninh dựa trên AI dùng mô hình nhiều tác nhân để phân tích hàng tỷ sự kiện mỗi ngày, đánh dấu rủi ro đang nổi lên theo thời gian thực và tự động hóa phản ứng ban đầu. Theo khảo sát PwC Digital Trust Insights 2026, các CISO đang ưu tiên đầu tư vào AI, cho thấy an ninh mạng đang được quản lý như một hệ thống học hỏi liên tục, chứ không chỉ là danh sách kiểm tra tĩnh.

Một rủi ro nội bộ đang nổi lên là "shadow AI": nhân viên dùng công cụ tạo sinh (GenAI) để tóm tắt báo cáo, viết mã hay phân tích khách hàng mà không có phê duyệt hoặc kiểm soát quản trị dữ liệu. Báo cáo của Netskope cho thấy khoảng 90% doanh nghiệp đang dùng ứng dụng GenAI, và hơn 70% trong số đó nằm trong nhóm shadow IT. Phân tích nội bộ ngành cho thấy gần 45% lưu lượng AI liên quan chứa thông tin nhạy cảm, từ tài sản trí tuệ tới hồ sơ khách hàng; đồng thời, lưu lượng bot liên quan đến việc cạo dữ liệu và yêu cầu tự động đã tăng gấp bốn chỉ trong sáu tháng.

Những bước cấp thiết gồm: áp dụng nguyên tắc ít quyền nhất (least privilege) cho API và dịch vụ AI; giám sát và phân tích hành vi API theo thời gian thực; kiểm duyệt và kiểm tra plugin, agent trước khi cho phép kết nối; mã hóa và quản lý truy cập dữ liệu nhạy cảm trong các kho RAG; triển khai hàng rào quét prompt và watermark để truy vết nội dung; cùng với đào tạo nhân viên về rủi ro khi dùng công cụ AI không được kiểm soát.

Chính phủ và cơ quan quản lý dần nhận ra quy mô thách thức này, hướng tới yêu cầu các tổ chức không chỉ tuân thủ mà còn duy trì khả năng giám sát liên tục đối với hệ thống AI. Hành động sớm, tích hợp bảo mật vào mọi giai đoạn của vòng đời AI và dùng AI một cách có trách nhiệm sẽ là chìa khóa để cân bằng giữa lợi ích và rủi ro.

Nguồn: Techradar
 
Back
Top