AI Crazy
New member
Tác nhân AI đang nhanh chóng trở thành mối đe dọa an ninh doanh nghiệp khi hoạt động như các điểm cuối không được quản lý. Chúng tạo ra hàng loạt danh tính máy móc, vượt xa khả năng kiểm soát truyền thống và mở ra rủi ro như rò rỉ dữ liệu hay tấn công bằng prompt injection.
Tác nhân AI đang xuất hiện khắp môi trường doanh nghiệp và hoạt động như những điểm cuối không được quản lý, tạo ra rủi ro an ninh mới.
Khi triển khai một tác nhân AI, tổ chức không chỉ tạo ra một danh tính mà là một chuỗi danh tính: mỗi công cụ, mỗi API, mỗi nguồn dữ liệu đều sinh ra một danh tính riêng. Những danh tính này tích tụ nhanh hơn khả năng quản lý truyền thống có thể theo dõi, và thường không gắn với người chịu trách nhiệm rõ ràng.
Tác nhân có khả năng lập luận, lập kế hoạch và hành động trên nhiều công cụ và nguồn dữ liệu với ít hoặc không có can thiệp của con người. Điều này khác hoàn toàn với công cụ sinh văn bản đơn thuần và cũng chính tính tự chủ đó khiến rủi ro trở nên nghiêm trọng: chúng loại bỏ bước kiểm soát nhận thức mà con người thường có khi quyết định xử lý dữ liệu.
Kiểm soát theo luật tĩnh và nhị phân chặn hoặc cho phép không còn phù hợp khi một tác nhân AI thực hiện hàng trăm quyết định dữ liệu mỗi phút. Một vấn đề nghiêm trọng khác là tấn công nhồi nhét lệnh hay prompt injection, khi một chỉ thị độc hại ẩn trong trang web, tài liệu hoặc email có thể khiến tác nhân thực hiện hành động trái phép mà không bị cảnh báo.
Tổ chức nào giải quyết sớm sẽ tránh được kịch bản lặp lại của các công nghệ trước đây, khi thiết bị và dịch vụ mới xuất hiện nhanh hơn khả năng quản trị và dẫn tới lỗ hổng an ninh rộng lớn.
Nguồn: Techradar
Tác nhân AI đang xuất hiện khắp môi trường doanh nghiệp và hoạt động như những điểm cuối không được quản lý, tạo ra rủi ro an ninh mới.
Vấn đề
Tương tự như kỷ nguyên BYOD cuối những năm 2000, khi điện thoại cá nhân tràn vào hệ thống doanh nghiệp, tác nhân AI đã xuất hiện nhanh nhưng không có chính sách quản trị kịp thời. Theo báo cáo Identity Crisis của Rubrik Zero Labs năm 2025, danh tính phi nhân sự hiện nhiều hơn người dùng thực tới tỉ lệ 82:1.Khi triển khai một tác nhân AI, tổ chức không chỉ tạo ra một danh tính mà là một chuỗi danh tính: mỗi công cụ, mỗi API, mỗi nguồn dữ liệu đều sinh ra một danh tính riêng. Những danh tính này tích tụ nhanh hơn khả năng quản lý truyền thống có thể theo dõi, và thường không gắn với người chịu trách nhiệm rõ ràng.
Tác nhân có khả năng lập luận, lập kế hoạch và hành động trên nhiều công cụ và nguồn dữ liệu với ít hoặc không có can thiệp của con người. Điều này khác hoàn toàn với công cụ sinh văn bản đơn thuần và cũng chính tính tự chủ đó khiến rủi ro trở nên nghiêm trọng: chúng loại bỏ bước kiểm soát nhận thức mà con người thường có khi quyết định xử lý dữ liệu.
Kiểm soát theo luật tĩnh và nhị phân chặn hoặc cho phép không còn phù hợp khi một tác nhân AI thực hiện hàng trăm quyết định dữ liệu mỗi phút. Một vấn đề nghiêm trọng khác là tấn công nhồi nhét lệnh hay prompt injection, khi một chỉ thị độc hại ẩn trong trang web, tài liệu hoặc email có thể khiến tác nhân thực hiện hành động trái phép mà không bị cảnh báo.
Ba bước cần làm
- Kiểm kê đầy đủ: không quản lý được thứ mình không thấy. Xác định mọi tác nhân đang hoạt động, quyền hạn của chúng, dữ liệu có thể tiếp cận và người hoặc đơn vị nào đã cấp quyền là bước nền tảng.
- Chính sách danh tính và quyền: mở rộng chính sách quản trị để bao gồm danh tính máy móc, áp dụng nguyên tắc quyền tối thiểu, gắn mỗi tác nhân với chủ sở hữu chịu trách nhiệm và kiểm soát quyền truy cập theo ngữ cảnh.
- Giám sát liên tục và kiểm soát hành vi: triển khai giám sát theo hành vi, phát hiện bất thường và cơ chế ngăn chặn prompt injection, đồng thời thiết lập quy trình quản trị trước khi quy mô tác nhân vượt tầm kiểm soát.
Tổ chức nào giải quyết sớm sẽ tránh được kịch bản lặp lại của các công nghệ trước đây, khi thiết bị và dịch vụ mới xuất hiện nhanh hơn khả năng quản trị và dẫn tới lỗ hổng an ninh rộng lớn.
Nguồn: Techradar
Bài viết liên quan