Phi Vũ
New member
Microsoft cảnh báo rằng trợ lý AI trong doanh nghiệp có thể bị biến thành “điệp viên hai mang”, lợi dụng quyền truy cập hợp lệ để gây hại nội bộ. Báo cáo Cyber Pulse nêu rõ các kẽ hở từ triển khai nhanh, quản lý lỏng lẻo đến kỹ thuật thao túng bộ nhớ.
Microsoft cảnh báo việc triển khai ồ ạt các trợ lý AI trong công việc có thể tạo ra một loại mối đe dọa nội bộ mới: điệp viên hai mang. Kẻ tấn công có thể lợi dụng quyền truy cập hợp lệ của trợ lý hoặc cung cấp đầu vào không tin cậy, từ đó gây ảnh hưởng và thiệt hại bên trong tổ chức.
Bên cạnh đó, khi trợ lý có khả năng ghi nhớ và hành động dựa trên ngữ cảnh lưu trữ, kẻ xấu có thể dùng kỹ thuật "đầu độc bộ nhớ" (memory poisoning) để sửa đổi ngữ cảnh đã lưu và hướng câu trả lời sau này theo ý đồ độc hại.
Khảo sát được Microsoft trích dẫn cho thấy khoảng 29% nhân viên đã sử dụng trợ lý AI chưa được phê duyệt cho công việc, tạo ra sự mở rộng âm thầm (shadow AI) khiến việc phát hiện thao túng sớm trở nên khó khăn hơn.
Microsoft nhấn mạnh rằng khi triển khai vượt quá tốc độ kiểm soát và tuân thủ, cơ hội để kẻ tấn công chiếm dụng công cụ với quyền hợp lệ sẽ tăng lên — đây là kịch bản ác mộng cần tránh bằng quản trị chặt chẽ và giám sát liên tục.
Nguồn: Digitaltrends
Microsoft cảnh báo việc triển khai ồ ạt các trợ lý AI trong công việc có thể tạo ra một loại mối đe dọa nội bộ mới: điệp viên hai mang. Kẻ tấn công có thể lợi dụng quyền truy cập hợp lệ của trợ lý hoặc cung cấp đầu vào không tin cậy, từ đó gây ảnh hưởng và thiệt hại bên trong tổ chức.
Nguyên nhân chính của rủi ro
Microsoft cho rằng vấn đề không nằm ở AI mới mẻ mà ở chỗ quyền kiểm soát không đồng đều. Một số triển khai trợ lý thoát khỏi vòng kiểm duyệt của IT, khiến đội an ninh mất tầm nhìn về những gì đang chạy và những hệ thống mà trợ lý có thể chạm tới.Bên cạnh đó, khi trợ lý có khả năng ghi nhớ và hành động dựa trên ngữ cảnh lưu trữ, kẻ xấu có thể dùng kỹ thuật "đầu độc bộ nhớ" (memory poisoning) để sửa đổi ngữ cảnh đã lưu và hướng câu trả lời sau này theo ý đồ độc hại.
Khảo sát được Microsoft trích dẫn cho thấy khoảng 29% nhân viên đã sử dụng trợ lý AI chưa được phê duyệt cho công việc, tạo ra sự mở rộng âm thầm (shadow AI) khiến việc phát hiện thao túng sớm trở nên khó khăn hơn.
Chiêu trò tấn công và dấu hiệu cảnh giác
Đội Red Team của Microsoft ghi nhận trợ lý bị lừa bởi các yếu tố giao diện gây hiểu lầm, nội dung chứa hướng dẫn có hại ẩn trong văn bản thường ngày hoặc cách đóng khung nhiệm vụ khiến quá trình suy luận bị lệch đi. Những thay đổi này có thể trông rất bình thường, khiến độ tin cậy bị xói mòn dần theo thời gian.Khuyến nghị và biện pháp phòng ngừa
- Xem trợ lý AI như một dạng định danh số mới: xác minh danh tính và quản lý quyền như với tài khoản dịch vụ.
- Áp dụng mô hình Zero Trust cho trợ lý: giới hạn đặc quyền, thực hiện nguyên tắc ít quyền nhất (least privilege).
- Quản lý tập trung và quan sát (observability): lập bảng kiểm kê tất cả trợ lý đang kết nối vào công việc để biết chúng có thể truy cập tài nguyên nào.
- Theo dõi hành vi liên tục để phát hiện các hành động bất thường hoặc dấu hiệu bị thao túng hướng dẫn.
- Trước khi triển khai, lập bản đồ quyền truy cập cho từng trợ lý, thiết lập cơ chế phát hiện thay đổi ngữ cảnh và chặn/giảm thiểu khả năng "đầu độc bộ nhớ".
- Nếu chưa thể trả lời những câu hỏi cơ bản về quyền và giám sát, tạm dừng triển khai thêm và củng cố chính sách an ninh trước.
Microsoft nhấn mạnh rằng khi triển khai vượt quá tốc độ kiểm soát và tuân thủ, cơ hội để kẻ tấn công chiếm dụng công cụ với quyền hợp lệ sẽ tăng lên — đây là kịch bản ác mộng cần tránh bằng quản trị chặt chẽ và giám sát liên tục.
Nguồn: Digitaltrends
Bài viết liên quan