Kiểm soát shadow AI mà không kìm hãm sáng tạo

Phi Vũ

New member
Shadow AI đang lan rộng trong doanh nghiệp, gây ra rủi ro bảo mật và gián đoạn hoạt động. Bài viết tóm tắt vấn đề, những rủi ro chính và các bước tổ chức có thể thực hiện để cân bằng giữa đổi mới và an toàn.

Hc6oTvWTHfb3ETNovTaDxG-1920-80.jpg


Shadow AI: rủi ro và lựa chọn chiến lược​


Shadow AI đang gia tăng nhanh chóng trong môi trường doanh nghiệp. Nghiên cứu từ MIT cho thấy hơn 90% nhân viên sử dụng công cụ AI cá nhân, trong khi chỉ khoảng 40% tổ chức quản lý việc sử dụng chính thức. Báo cáo của IBM còn cảnh báo 97% tổ chức đã gặp sự cố an ninh liên quan đến AI, nhưng phần lớn vẫn thiếu khung quản trị phù hợp.

Shadow AI thường xuất hiện khi tài nguyên hoặc công cụ AI được dùng để thực hiện chức năng công việc mà tổ chức không được biết. Điểm khó là không có định nghĩa thống nhất và công cụ này quá dễ triển khai: nhân viên luôn tìm cách làm việc hiệu quả hơn, kể cả khi chưa được phê duyệt.

Bản chất sáng tạo của AI tạo ra nhiều vùng xám. Giữa người dùng và prompt tồn tại rủi ro như rò rỉ thông tin nhạy cảm, dữ liệu bí mật bị đưa vào hệ thống bên ngoài, hoặc thông tin do AI sinh ra không chính xác, khó kiểm chứng nguồn gốc.

Tốc độ áp dụng công nghệ thường vượt xa khả năng hiểu và kiểm soát của tổ chức. Việc triển khai AI một cách rời rạc đã làm tăng nguy cơ vi phạm, khiến các đội an ninh phải xử lý khối lượng công việc khổng lồ và phản ứng thường bị tụt hậu so với tốc độ phát triển của AI.

Cần quản trị rủi ro bên thứ ba, bảo hiểm trách nhiệm và điều khoản hợp đồng rõ ràng, vì nhiều AI agent được xây dựng dựa trên phần mềm của nhà cung cấp khác. Quyền lợi và mức độ hỗ trợ khi sự cố xảy ra phụ thuộc nhiều vào mức độ liên quan của từng bên trong chuỗi giá trị.

Tăng độ hiển thị vào hành động của AI agent là điều bắt buộc: ghi lại log mạng, log endpoint, áp dụng giải pháp ngăn ngừa mất mát dữ liệu (DLP), và theo dõi đầu vào/đầu ra để biết danh tính liên quan và ngữ cảnh khi sự cố phát sinh.

Về phản ứng sự cố, tổ chức phải nhanh chóng nhận diện vấn đề và cập nhật quy trình để xử lý các đặc thù do AI gây ra. Thành lập bộ phận quản trị AI chuyên trách để giám sát, giữ an toàn cho các agent cho phép chúng hoàn thành nhiệm vụ mà không tạo rủi ro là một hướng đi khả thi.

Cần bổ sung khả năng hành động trực tiếp với AI agent: huấn luyện lại, vô hiệu hóa tạm thời hoặc buộc học lại khi agent gây nguy cơ. Tổ chức nên có cơ chế tương đương trong SOC để phản ứng tức thì, đồng thời phân công chủ sở hữu nghiệp vụ chịu trách nhiệm xây dựng và duy trì cấu trúc này.

Hiện mức độ chín muồi của quy trình này còn rất thấp; nhiều tổ chức đang ở cấp độ cơ bản hoặc chưa có quy trình. Các nhà phân tích mối đe dọa nội bộ sẽ phụ thuộc nhiều vào những điều chỉnh trên để có thể phát hiện và ứng phó hiệu quả hơn. Hành động nhanh, rõ ràng và cân bằng giữa đổi mới và an toàn là cần thiết để giảm thiểu rủi ro từ shadow AI.

Nguồn: Techradar
 
Back
Top