Love AI
New member
Gartner cảnh báo mô hình đào tạo nhận thức an ninh mạng truyền thống không còn đủ trước làn sóng GenAI. Các tổ chức cần chuyển từ “biết” sang thay đổi hành vi và quản trị sử dụng AI để giảm rủi ro thực tế.
Generative AI (GenAI) đang mở rộng bề mặt tấn công và làm tăng khả năng lỗi do con người. Những công cụ mà tổ chức dùng để tăng năng suất cũng tạo cơ hội lạm dụng và cho phép tấn công tinh vi hơn, từ đó bộc lộ khoảng cách giữa chương trình nhận thức truyền thống và rủi ro an ninh hiện đại.
Gartner ghi nhận việc áp dụng GenAI đã tăng nhanh: hơn 86% tổ chức đang thử nghiệm hoặc triển khai các công cụ này. Nhân viên không chờ chấp thuận chính thức: họ dùng tài khoản GenAI cá nhân cho công việc, nhập dữ liệu nhạy cảm vào dịch vụ công cộng hoặc tải ứng dụng chưa được phê duyệt — hiện tượng thường gọi là “AI bóng tối” (shadow AI).
Theo khảo sát của Gartner (2025), hơn 57% nhân viên dùng tài khoản GenAI cá nhân cho công việc và 33% thừa nhận đã nhập thông tin nhạy cảm của công việc vào công cụ GenAI công cộng hoặc chưa được phê duyệt. Mối đe doạ bên ngoài cũng tiến hóa: 35% tổ chức bị ảnh hưởng bởi deepfake, và email lừa đảo có trợ giúp AI đã tăng gấp đôi trong hai năm gần đây, khiến nhiều mối nguy khó bị nhân viên phát hiện bằng dấu hiệu truyền thống.
GenAI thay đổi “luật chơi” theo ba cách chính:
Các chương trình nhận thức truyền thống thường tập trung vào đào tạo tĩnh, chiến dịch định kỳ và hướng dẫn chung như “không click link lạ”. Nhưng trước các mối nguy do AI tạo ra, cần hướng tới thay đổi hành vi thực tế: nhân viên sẽ phải đưa ra quyết định sử dụng AI trong công việc hàng ngày, vì vậy mục tiêu là định hình hành vi đó để an toàn chứ không phải cấm đoán tuyệt đối.
Gartner khuyến nghị tập trung vào Security Behavior and Culture Programs (SBCPs) — chương trình nhắm vào cách nhân viên hành xử trong tình huống thực tế. Một SBCP hiệu quả nên bao gồm:
Bên cạnh thay đổi hành vi, lãnh đạo an ninh cần thực thi các biện pháp kỹ thuật và quản trị cụ thể: xác định ranh giới sử dụng GenAI, danh sách công cụ được phép, cơ chế phê duyệt, chính sách phân loại và xử lý dữ liệu, kiểm soát truy cập, giải pháp DLP và giám sát để phát hiện shadow AI.
Tích hợp kiểm soát này với quy trình phản ứng sự cố và quản trị rủi ro sẽ giúp giảm thời gian phát hiện và ứng phó khi có lộ lọt hoặc tấn công có trợ giúp AI.
Đào tạo nhận thức truyền thống không còn đủ trong kỷ nguyên GenAI. Tổ chức cần kết hợp chính sách, kỹ thuật và chương trình thay đổi hành vi liên tục để bảo vệ mối tương tác giữa con người và hệ thống AI — đó sẽ là điểm kiểm soát then chốt để giảm rủi ro an ninh trong tương lai gần.
Nguồn: Techradar
GenAI thay đổi bức tranh rủi ro con người
Generative AI (GenAI) đang mở rộng bề mặt tấn công và làm tăng khả năng lỗi do con người. Những công cụ mà tổ chức dùng để tăng năng suất cũng tạo cơ hội lạm dụng và cho phép tấn công tinh vi hơn, từ đó bộc lộ khoảng cách giữa chương trình nhận thức truyền thống và rủi ro an ninh hiện đại.
Gartner ghi nhận việc áp dụng GenAI đã tăng nhanh: hơn 86% tổ chức đang thử nghiệm hoặc triển khai các công cụ này. Nhân viên không chờ chấp thuận chính thức: họ dùng tài khoản GenAI cá nhân cho công việc, nhập dữ liệu nhạy cảm vào dịch vụ công cộng hoặc tải ứng dụng chưa được phê duyệt — hiện tượng thường gọi là “AI bóng tối” (shadow AI).
Theo khảo sát của Gartner (2025), hơn 57% nhân viên dùng tài khoản GenAI cá nhân cho công việc và 33% thừa nhận đã nhập thông tin nhạy cảm của công việc vào công cụ GenAI công cộng hoặc chưa được phê duyệt. Mối đe doạ bên ngoài cũng tiến hóa: 35% tổ chức bị ảnh hưởng bởi deepfake, và email lừa đảo có trợ giúp AI đã tăng gấp đôi trong hai năm gần đây, khiến nhiều mối nguy khó bị nhân viên phát hiện bằng dấu hiệu truyền thống.
GenAI thay đổi “luật chơi” theo ba cách chính:
- Giảm khả năng nhìn thấy mối đe dọa: nội dung do AI tạo đôi khi không thể phân biệt với giao tiếp hợp lệ.
- Tăng tốc độ và quy mô tấn công: nhiều kịch bản trước đây tốn thời gian giờ có thể tự động hoá và cá nhân hoá hàng loạt.
- Phát sinh hành vi rủi ro mới: prompt injection, sử dụng công cụ AI không an toàn, vô tình chia sẻ dữ liệu nhạy cảm qua nền tảng GenAI.
Tại sao chương trình nhận thức cũ không đủ
Các chương trình nhận thức truyền thống thường tập trung vào đào tạo tĩnh, chiến dịch định kỳ và hướng dẫn chung như “không click link lạ”. Nhưng trước các mối nguy do AI tạo ra, cần hướng tới thay đổi hành vi thực tế: nhân viên sẽ phải đưa ra quyết định sử dụng AI trong công việc hàng ngày, vì vậy mục tiêu là định hình hành vi đó để an toàn chứ không phải cấm đoán tuyệt đối.
Chuyển sang chương trình hành vi và văn hóa bảo mật (SBCP)
Gartner khuyến nghị tập trung vào Security Behavior and Culture Programs (SBCPs) — chương trình nhắm vào cách nhân viên hành xử trong tình huống thực tế. Một SBCP hiệu quả nên bao gồm:
- Nhúng bảo mật vào luồng công việc hằng ngày thay vì coi là can thiệp định kỳ.
- Đào tạo mô phỏng tấn công có trợ giúp AI (deepfake, phishing nâng cao) thay vì chỉ học lý thuyết.
- Chính sách rõ ràng, dễ áp dụng về việc dùng GenAI, xử lý dữ liệu và thiết kế prompt an toàn.
- Cơ chế báo cáo nhanh, đơn giản để khuyến khích nhân viên báo cáo hoạt động nghi ngờ.
- Hình thức củng cố liên tục: microlearning, phản hồi theo thời gian thực và tương tác đều đặn thay cho khóa học một lần.
Ưu tiên kỹ thuật và quản trị
Bên cạnh thay đổi hành vi, lãnh đạo an ninh cần thực thi các biện pháp kỹ thuật và quản trị cụ thể: xác định ranh giới sử dụng GenAI, danh sách công cụ được phép, cơ chế phê duyệt, chính sách phân loại và xử lý dữ liệu, kiểm soát truy cập, giải pháp DLP và giám sát để phát hiện shadow AI.
Tích hợp kiểm soát này với quy trình phản ứng sự cố và quản trị rủi ro sẽ giúp giảm thời gian phát hiện và ứng phó khi có lộ lọt hoặc tấn công có trợ giúp AI.
Kết luận
Đào tạo nhận thức truyền thống không còn đủ trong kỷ nguyên GenAI. Tổ chức cần kết hợp chính sách, kỹ thuật và chương trình thay đổi hành vi liên tục để bảo vệ mối tương tác giữa con người và hệ thống AI — đó sẽ là điểm kiểm soát then chốt để giảm rủi ro an ninh trong tương lai gần.
Nguồn: Techradar
Bài viết liên quan