Love AI
New member
Nghiên cứu của Tenable cảnh báo về một “kẽ hở phơi bày AI” khi nhiều doanh nghiệp triển khai AI nhanh hơn khả năng bảo vệ. Nhiều vụ vi phạm liên quan đến AI xuất phát từ lỗ hổng quản trị và cấu hình, chứ không phải cuộc tấn công mô hình phức tạp.
Với 89% tổ chức đang chạy hoặc thử nghiệm khối lượng công việc AI, Tenable cho rằng xuất hiện một "kẽ hở phơi bày AI" — tức là thực tiễn an ninh chưa theo kịp tốc độ triển khai.
Theo khảo sát, 34% đơn vị đã ghi nhận sự cố liên quan tới AI. Tuy nhiên, Tenable nhấn mạnh rằng nguyên nhân chính thường là vấn đề tại chính công ty — như cấu hình sai, quản trị danh tính hay lỗ hổng phần mềm — chứ không phải những cuộc tấn công siêu tinh vi vào mô hình AI.
Các lỗ hổng phần mềm (21%) và mối đe dọa nội bộ (18%) nằm trong nhóm nguyên nhân hàng đầu. Tenable cũng lưu ý rằng khiếm khuyết trong mô hình AI chiếm khoảng 19% nguy cơ, nhưng những phơi bày quen thuộc như quản trị danh tính và cấu hình sai mới là tác nhân phổ biến nhất.
Chỉ 22% tổ chức cho biết họ phân loại và mã hóa đầy đủ dữ liệu AI, đồng nghĩa 78% còn lại để dữ liệu có thể bị truy cập nếu xảy ra tấn công.
Tenable kêu gọi doanh nghiệp ưu tiên các biện pháp nền tảng trước: quản trị danh tính, giám sát cấu hình sai, tăng cường bảo vệ cho workload và quản lý truy cập. Họ cho rằng tuân thủ quy định nên là điểm khởi đầu cho tư thế an ninh vững chắc — không phải là mục tiêu cuối cùng.
Hiện khoảng 51% tổ chức dựa vào Khung quản lý rủi ro AI của NIST hoặc Luật AI của EU để định hướng, điều này cho thấy nhiều nơi có thể chỉ làm những điều tối thiểu. Thêm vào đó, chỉ 26% thực hiện kiểm thử an ninh chuyên biệt cho AI như red-teaming.
Tóm lại, khi doanh nghiệp đẩy nhanh triển khai AI, việc củng cố các kiểm soát cơ bản và mở rộng kiểm thử an ninh cho hệ thống AI là cần thiết để thu hẹp "kẽ hở phơi bày AI" và giảm nguy cơ bị vi phạm.
Với 89% tổ chức đang chạy hoặc thử nghiệm khối lượng công việc AI, Tenable cho rằng xuất hiện một "kẽ hở phơi bày AI" — tức là thực tiễn an ninh chưa theo kịp tốc độ triển khai.
Thực trạng rủi ro
Theo khảo sát, 34% đơn vị đã ghi nhận sự cố liên quan tới AI. Tuy nhiên, Tenable nhấn mạnh rằng nguyên nhân chính thường là vấn đề tại chính công ty — như cấu hình sai, quản trị danh tính hay lỗ hổng phần mềm — chứ không phải những cuộc tấn công siêu tinh vi vào mô hình AI.
Các lỗ hổng phần mềm (21%) và mối đe dọa nội bộ (18%) nằm trong nhóm nguyên nhân hàng đầu. Tenable cũng lưu ý rằng khiếm khuyết trong mô hình AI chiếm khoảng 19% nguy cơ, nhưng những phơi bày quen thuộc như quản trị danh tính và cấu hình sai mới là tác nhân phổ biến nhất.
Chỉ 22% tổ chức cho biết họ phân loại và mã hóa đầy đủ dữ liệu AI, đồng nghĩa 78% còn lại để dữ liệu có thể bị truy cập nếu xảy ra tấn công.
Khuyến nghị của chuyên gia
Tenable kêu gọi doanh nghiệp ưu tiên các biện pháp nền tảng trước: quản trị danh tính, giám sát cấu hình sai, tăng cường bảo vệ cho workload và quản lý truy cập. Họ cho rằng tuân thủ quy định nên là điểm khởi đầu cho tư thế an ninh vững chắc — không phải là mục tiêu cuối cùng.
Hiện khoảng 51% tổ chức dựa vào Khung quản lý rủi ro AI của NIST hoặc Luật AI của EU để định hướng, điều này cho thấy nhiều nơi có thể chỉ làm những điều tối thiểu. Thêm vào đó, chỉ 26% thực hiện kiểm thử an ninh chuyên biệt cho AI như red-teaming.
Tóm lại, khi doanh nghiệp đẩy nhanh triển khai AI, việc củng cố các kiểm soát cơ bản và mở rộng kiểm thử an ninh cho hệ thống AI là cần thiết để thu hẹp "kẽ hở phơi bày AI" và giảm nguy cơ bị vi phạm.
Bài viết liên quan