Love AI
New member
Việc nhân viên và cả bộ phận an ninh sử dụng các công cụ AI không được phê duyệt đang tạo ra lỗ hổng lớn cho doanh nghiệp. Agent AI tự hành như OpenClaw càng làm tình hình trầm trọng hơn khi có thể truy cập, xử lý và rò rỉ dữ liệu mà tổ chức không kiểm soát được.
Trước đây vấn đề tương tự là shadow IT — tài khoản Dropbox cá nhân, ứng dụng SaaS chưa được phê duyệt — và nhiều tổ chức giải quyết được nhờ CASB, công cụ khám phá và các giải pháp thay thế được phê duyệt. Tuy nhiên những biện pháp này giả định công cụ chỉ là "đường ống" chuyển và lưu trữ dữ liệu. AI thì khác: nó xử lý dữ liệu, tạo đầu ra và trong một số trường hợp còn lưu giữ dữ liệu đó, khiến lộ trình phòng ngừa truyền thống không đủ.
Về tuân thủ, Shadow AI gây ra rủi ro tích lũy: không có thỏa thuận xử lý dữ liệu (DPA), không chính sách lưu giữ rõ ràng và không khả năng đáp ứng yêu cầu truy cập dữ liệu theo GDPR hay chứng minh với kiểm toán rằng dữ liệu nhạy cảm vẫn nằm trong giới hạn pháp lý. Nghiên cứu của Netwrix cho thấy các tổ chức có mức sử dụng AI trái phép cao chịu chi phí sự cố dữ liệu trung bình cao hơn khoảng 670.000 USD so với tổ chức có mức sử dụng thấp hơn.
Cấm đoán không giải quyết tận gốc: khảo sát của Software AG cho thấy 46% nhân viên sẽ tiếp tục dùng công cụ chưa được phê duyệt ngay cả khi có lệnh cấm rõ ràng — hành vi chỉ bị đẩy ngầm. Hậu quả còn bao gồm đầu ra không được kiểm định: dữ liệu ảo (hallucination) lọt vào báo cáo cho lãnh đạo, mã lỗi được đưa vào sản phẩm vì mô hình chưa được định chuẩn theo tiêu chuẩn tổ chức, và văn bản pháp lý được soạn bởi công cụ mà bộ phận tuân thủ chưa từng duyệt.
Kho kỹ năng của OpenClaw nhanh chóng bị lây nhiễm: hàng trăm (ít nhất 230) tiện ích độc hại xuất hiện chỉ trong vài tuần, Kaspersky phát hiện 512 lỗ hổng trong một cuộc kiểm toán, trong đó tám lỗ hổng là mức nghiêm trọng. Một số chính phủ, như Trung Quốc, đã cấm sử dụng nền tảng này trên hệ thống chính phủ.
Tóm lại, shadow AI và agent tự động là mối đe dọa thực tế và đang phát triển nhanh. Doanh nghiệp cần thiết lập kiểm soát chuyên biệt cho AI — không chỉ áp dụng lại sách lược của thời shadow IT — để bảo vệ dữ liệu, tuân thủ pháp lý và duy trì tính toàn vẹn của hệ thống.
Nguồn: Techradar
Shadow AI và vấn đề kiểm soát dữ liệu
Theo báo cáo của UpGuard cuối 2025, gần 90% chuyên gia an ninh thừa nhận dùng AI không được phê duyệt tại nơi làm việc, và hơn 80% người lao động ở mọi vị trí sử dụng các công cụ AI trái phép — trong đó lãnh đạo là nhóm vi phạm nhiều nhất. Khi nhân viên dán danh sách khách hàng vào chatbot miễn phí hoặc đưa mã nguồn độc quyền vào mô hình lớn để gỡ lỗi, dữ liệu đó đã đi vào hệ thống mà tổ chức không có quyền kiểm soát, không có dấu vết kiểm toán và thường không ai biết hành động đó đã diễn ra.Trước đây vấn đề tương tự là shadow IT — tài khoản Dropbox cá nhân, ứng dụng SaaS chưa được phê duyệt — và nhiều tổ chức giải quyết được nhờ CASB, công cụ khám phá và các giải pháp thay thế được phê duyệt. Tuy nhiên những biện pháp này giả định công cụ chỉ là "đường ống" chuyển và lưu trữ dữ liệu. AI thì khác: nó xử lý dữ liệu, tạo đầu ra và trong một số trường hợp còn lưu giữ dữ liệu đó, khiến lộ trình phòng ngừa truyền thống không đủ.
Về tuân thủ, Shadow AI gây ra rủi ro tích lũy: không có thỏa thuận xử lý dữ liệu (DPA), không chính sách lưu giữ rõ ràng và không khả năng đáp ứng yêu cầu truy cập dữ liệu theo GDPR hay chứng minh với kiểm toán rằng dữ liệu nhạy cảm vẫn nằm trong giới hạn pháp lý. Nghiên cứu của Netwrix cho thấy các tổ chức có mức sử dụng AI trái phép cao chịu chi phí sự cố dữ liệu trung bình cao hơn khoảng 670.000 USD so với tổ chức có mức sử dụng thấp hơn.
Cấm đoán không giải quyết tận gốc: khảo sát của Software AG cho thấy 46% nhân viên sẽ tiếp tục dùng công cụ chưa được phê duyệt ngay cả khi có lệnh cấm rõ ràng — hành vi chỉ bị đẩy ngầm. Hậu quả còn bao gồm đầu ra không được kiểm định: dữ liệu ảo (hallucination) lọt vào báo cáo cho lãnh đạo, mã lỗi được đưa vào sản phẩm vì mô hình chưa được định chuẩn theo tiêu chuẩn tổ chức, và văn bản pháp lý được soạn bởi công cụ mà bộ phận tuân thủ chưa từng duyệt.
Agent AI như OpenClaw tạo rủi ro mới
Khác với AI tương tác thủ công, agent AI mang tính chủ động: chúng có thể đọc email, thực thi mã, truy cập file và xâu chuỗi nhiều tác vụ tự động, chạy với quyền của người dùng. OpenClaw — một agent mã nguồn mở thu hút hơn 145.000 sao trên GitHub trong vài tuần — cho thấy xu hướng này: khi Cisco kiểm thử phần mở rộng hàng đầu trong kho kỹ năng của OpenClaw, họ phát hiện một kỹ năng hoạt động như phần mềm độc hại, gửi dữ liệu bí mật tới server do kẻ tấn công điều khiển bằng các lệnh shell nhúng và tận dụng tấn công chèn prompt để vượt qua cơ chế an toàn của agent.Kho kỹ năng của OpenClaw nhanh chóng bị lây nhiễm: hàng trăm (ít nhất 230) tiện ích độc hại xuất hiện chỉ trong vài tuần, Kaspersky phát hiện 512 lỗ hổng trong một cuộc kiểm toán, trong đó tám lỗ hổng là mức nghiêm trọng. Một số chính phủ, như Trung Quốc, đã cấm sử dụng nền tảng này trên hệ thống chính phủ.
Hệ quả và hướng xử lý
Khi tổ chức không có tầm nhìn về công cụ AI mà nhân viên dùng, quy trình, đầu ra và dữ liệu đều trở nên khó kiểm soát. Điều này làm xói mòn độ tin cậy của sản phẩm đầu ra, kéo theo rủi ro pháp lý và chi phí xử lý sự cố tăng cao. Ngoài ra, mô hình cộng đồng mở plugin/kỹ năng với bảo mật mặc định yếu đang mở rộng bề mặt tấn công cho toàn bộ danh mục ứng dụng doanh nghiệp.- Tăng khả năng hiển thị: triển khai công cụ phát hiện và giám sát việc sử dụng AI trong toàn tổ chức để biết ai đang dùng gì và dữ liệu nào được đưa vào mô hình.
- Quy định và hợp đồng: yêu cầu DPA với nhà cung cấp AI, chính sách lưu giữ dữ liệu rõ ràng và tiêu chí tuân thủ để xử lý dữ liệu nhạy cảm.
- Kiểm định mô hình và plugin: đánh giá bảo mật cho các mô hình, tiện ích và kho kỹ năng trước khi cho phép tích hợp vào quy trình nội bộ.
- Nguyên tắc quyền tối thiểu: giới hạn quyền của agent AI, tách nhiệm vụ và hạn chế truy cập theo nguyên tắc least-privilege.
- Đào tạo và văn hóa an ninh: nâng cao nhận thức người dùng về rủi ro khi dán dữ liệu nhạy cảm vào dịch vụ công cộng; khuyến khích dùng các công cụ được phê duyệt.
- Quản lý rủi ro nhà cung cấp: đánh giá bên thứ ba, kiểm toán bảo mật định kỳ và kế hoạch chuyển đổi nếu nhà cung cấp thay đổi điều khoản.
- Kế hoạch ứng phó sự cố: chuẩn bị kịch bản, dấu vết kiểm toán và khả năng phục hồi khi agent hoặc plugin bộc lộ hành vi độc hại.
Tóm lại, shadow AI và agent tự động là mối đe dọa thực tế và đang phát triển nhanh. Doanh nghiệp cần thiết lập kiểm soát chuyên biệt cho AI — không chỉ áp dụng lại sách lược của thời shadow IT — để bảo vệ dữ liệu, tuân thủ pháp lý và duy trì tính toàn vẹn của hệ thống.
Nguồn: Techradar
Bài viết liên quan