AI và deepfake trở thành ác mộng an ninh cho doanh nghiệp

Love AI

New member
Báo cáo Thales 2026 cho thấy 61% doanh nghiệp coi AI là rủi ro an ninh dữ liệu hàng đầu, trong khi gần 60% từng gặp tấn công dựa trên deepfake. Nguyên nhân chính là quản lý và kiểm soát truy cập khi các hệ thống AI được cấp quyền rộng và tự động.

ai-va-deepfake-tro-thanh-ac-mong-an-ninh-cho-doanh-nghiep-1.jpeg


Báo cáo Thales 2026 về mối đe dọa dữ liệu nhận định vấn đề lõi là kiểm soát và quản lý truy cập. Nhiều doanh nghiệp đang tích hợp AI vào quy trình, phân tích, dịch vụ khách hàng và chuỗi phát triển, dẫn đến việc phải cấp cho công cụ AI quyền truy cập rộng và tự động — về cơ bản biến AI thành một “nhân viên nội bộ” được tin tưởng.

Các chính sách và kiểm soát áp dụng cho nhân viên thường nghiêm ngặt hơn so với những gì được áp cho các công cụ AI. Khi cấu hình sai hoặc quản lý yếu, AI có thể trở thành một nội gián tiềm ẩn, truy cập và khuếch đại những điểm yếu trong hệ thống nhanh hơn bất kỳ con người nào.

Ngoài nguy cơ nội gián, AI còn là công cụ hữu hiệu cho kẻ tấn công bên ngoài. Nghiên cứu cho thấy gần 60% công ty đã trải nghiệm các vụ tấn công sử dụng deepfake — gồm âm thanh, video hoặc hình ảnh giả do AI tạo — nhằm mạo danh người thật để lừa đảo hoặc thao túng.

Trong môi trường doanh nghiệp, kịch bản tấn công phổ biến gồm: giả giọng để lừa nhân viên, dựng video AI để xin phép thanh toán, hoặc bịa đặt phát ngôn công khai nhằm thao túng giá cổ phiếu và gây tổn hại uy tín. Thales ghi nhận 48% doanh nghiệp bị ảnh hưởng về mặt danh tiếng do thông tin sai lệch do AI tạo ra.

Mặc dù một số công ty đã nhận thức được rủi ro từ AI, phần lớn chưa có biện pháp thích hợp. Hơn một nửa (53%) vẫn dựa vào chương trình bảo mật truyền thống vốn thiết kế cho người dùng con người, và chỉ khoảng 30% bắt đầu phân bổ ngân sách riêng cho an ninh AI.

Người đứng đầu sản phẩm an ninh mạng tại Thales, Sebastien Cano, cảnh báo rằng rủi ro nội bộ giờ không chỉ là con người mà còn là hệ thống tự động được tin tưởng quá nhanh. Khi quản trị danh tính, chính sách truy cập hoặc mã hóa còn yếu, AI sẽ khuếch đại những lỗ hổng đó trên toàn bộ môi trường công ty với tốc độ khó ngăn chặn.

Do đó, doanh nghiệp cần rà soát và siết lại quản lý truy cập, áp dụng chính sách quản trị danh tính chặt chẽ, tăng cường mã hóa và phân bổ ngân sách chuyên biệt cho an ninh AI. Việc này giúp giảm nguy cơ biến AI từ công cụ hỗ trợ thành nguồn rủi ro lớn cho tổ chức.

Nguồn: Techradar
 
Back
Top