Hệ thống AI doanh nghiệp: 90% bị tấn công trong 90 phút

Love AI

New member
Nghiên cứu mới của Zscaler cảnh báo 90% hệ thống AI doanh nghiệp có thể bị xâm nhập trong vòng 90 phút, với thời gian trung vị phát hiện lỗ hổng chỉ 16 phút. Nhiều tổ chức triển khai AI nhanh chóng nhưng thiếu kiểm soát, đẩy dữ liệu nhạy cảm vào nguy cơ bị lộ.

he-thong-ai-doanh-nghiep-90-bi-tan-cong-trong-90-phut-1.jpeg


Nghiên cứu của Zscaler cho thấy khi hệ thống AI doanh nghiệp bị kiểm tra dưới điều kiện tấn công thực tế, phần lớn hệ thống bị tìm thấy lỗ hổng nghiêm trọng rất nhanh. Trong các quét có kiểm soát, 90% hệ thống bị phát hiện có thể bị tấn công trong dưới 90 phút; thời gian trung vị tới lỗi nghiêm trọng đầu tiên là 16 phút và một số trường hợp cực đoan bị vượt qua phòng thủ chỉ trong 1 giây.

Mức độ áp dụng AI và máy học trong doanh nghiệp đang tăng rất nhanh, nhưng việc gia tăng này không đi kèm với quản trị đủ mạnh. Hoạt động AI/ML tăng 91% theo năm, với hơn 3.400 ứng dụng trong hệ sinh thái. Ngành tài chính và bảo hiểm chiếm gần 23% lưu lượng AI/ML, trong khi công nghệ và giáo dục ghi nhận mức tăng lần lượt 202% và 184%.

Lượng dữ liệu doanh nghiệp chuyển sang các ứng dụng AI cũng tăng 93% theo năm, đạt 18.033 terabyte. Một số dịch vụ như Grammarly (3.615 TB) và ChatGPT (2.021 TB) trở thành kho chứa tập trung nhiều thông tin doanh nghiệp nhạy cảm. Đáng lo hơn, nhiều tổ chức không có danh mục đầy đủ các mô hình AI đang hoạt động và các tính năng nhúng, nên không biết chính xác dữ liệu nhạy cảm đang ở đâu.

Zscaler cảnh báo rằng AI không còn chỉ là công cụ tăng năng suất mà đã trở thành một kênh tấn công tự động ở tốc độ máy móc, do cả mã độc tinh vi lẫn các tác nhân nhà nước thực hiện. Nếu để kẻ xâm nhập khai thác, một cuộc xâm nhập có thể chuyển từ phát hiện sang di chuyển ngang và đánh cắp dữ liệu chỉ trong vài phút. Để đối phó, công ty an ninh khuyến nghị sử dụng kiến trúc Zero Trust thông minh và phải “dùng AI để chống AI”.

Các bước khuyến nghị cho doanh nghiệp: lập danh mục đầy đủ các mô hình và tích hợp AI, giới hạn và mã hóa dữ liệu gửi tới dịch vụ AI bên thứ ba, triển khai kiến trúc Zero Trust cho truy cập và API, thực hiện kiểm thử xâm nhập theo kịch bản đối kháng (adversarial testing), giám sát lưu lượng AI/ML liên tục và đào tạo nhân sự về rủi ro bảo mật liên quan tới AI. Những biện pháp này là cần thiết để giảm nguy cơ lộ dữ liệu và kịp thời vá các lỗ hổng trước khi bị khai thác.

Nguồn: Techradar
 
Back
Top