AI Crazy
New member
AI đã nhanh chóng thâm nhập vào hoạt động doanh nghiệp, nhưng cách bảo vệ chưa theo kịp. Lỗ hổng lớn nhất nằm ở runtime — thời điểm mô hình thực thi và dữ liệu nhạy cảm có thể bị lộ ngay lập tức.
AI ngày nay không còn là thử nghiệm nội bộ mà đã xuất hiện trong chăm sóc khách hàng, phát hiện gian lận, phát triển phần mềm và vận hành hạ tầng IT. Tuy nhiên, cách chúng ta bảo vệ AI vẫn dùng các mô hình an ninh truyền thống và bỏ sót một trạng thái dữ liệu quan trọng: dữ liệu đang được xử lý.
Doanh nghiệp cần nhìn nhận runtime như một lớp bảo vệ riêng biệt, không thể chỉ dựa vào mã hóa khi lưu và truyền. Nếu không bổ sung cơ chế bảo vệ cho dữ liệu đang được xử lý, mô hình AI và thông tin nhạy cảm vẫn sẽ tiếp tục là mục tiêu dễ tổn thương.
Nguồn: Techradar
AI ngày nay không còn là thử nghiệm nội bộ mà đã xuất hiện trong chăm sóc khách hàng, phát hiện gian lận, phát triển phần mềm và vận hành hạ tầng IT. Tuy nhiên, cách chúng ta bảo vệ AI vẫn dùng các mô hình an ninh truyền thống và bỏ sót một trạng thái dữ liệu quan trọng: dữ liệu đang được xử lý.
Trạng thái dữ liệu: at rest, in transit và in use
Dù mã hóa dữ liệu khi lưu trữ (at rest) và khi truyền tải (in transit) vẫn cần thiết, chính "dữ liệu đang được sử dụng" (in use) mới là điểm mấu chốt với AI. Khi mô hình chạy, trọng số mô hình, prompt, phản hồi và dữ liệu ngữ cảnh đều được nạp vào bộ nhớ và xử lý theo thời gian thực — và thường hiện hữu ở dạng có thể bị truy cập nếu hệ thống nền bị xâm phạm hoặc cấu hình sai.Đào tạo (Training)
Chuỗi đào tạo trải dài qua hệ thống lưu trữ, môi trường tính toán chia sẻ, lớp điều phối và công cụ gỡ lỗi. Dữ liệu di chuyển liên tục, các tệp trung gian và log được tạo và lưu trữ — khiến thông tin nhạy cảm dễ xuất hiện ở những nơi bất ngờ. Mô hình có thể vô tình ghi nhớ dữ liệu nhạy cảm, và trọng số mô hình thường bị xử lý không đủ nghiêm ngặt, tạo rủi ro rò rỉ ngay cả khi không có tấn công trực tiếp.Suy luận (Inference)
Khi mô hình được triển khai, lớp suy luận xử lý prompt người dùng, phản hồi sinh ra, dữ liệu doanh nghiệp được truy xuất để làm ngữ cảnh, và chính mô hình cũng có thể chứa thông tin quan trọng. Nhiều công cụ giám sát, hệ thống log và pipeline gỡ lỗi ghi lại thông tin này ở dạng thuần văn bản. Chính hoạt động vận hành thông thường như dashboard xử lý lỗi hay lưu log kéo dài có thể làm lộ dữ liệu nhạy cảm nếu không có kiểm soát chặt chẽ.Thời điểm chạy (Runtime) — điểm mù an ninh
Runtime là lúc mô hình thực thi, dữ liệu mã hóa được giải mã và trọng số tồn tại trong bộ nhớ. Hệ thống an ninh truyền thống thường dựa trên niềm tin vào nền tảng cơ sở; nếu nền tảng bị xâm phạm hoặc cấu hình sai, các khoá vẫn bị giải phóng, workload vẫn chạy và tài sản nhạy cảm vẫn bị lộ. Đây là điểm yếu nghiêm trọng mà nhiều tổ chức chưa nhận ra.Giải pháp đề xuất
- Áp dụng confidential computing / enclave (TEE) để bảo vệ dữ liệu khi đang xử lý.
- Quản lý khóa và bí mật chặt chẽ: dùng khoá tạm thời, xoay khoá thường xuyên và kiểm soát quyền truy cập theo nguyên tắc least privilege.
- Giảm thiểu lưu trữ log nhạy cảm, mã hóa/hủy bỏ dữ liệu nhạy cảm trước khi ghi log và áp dụng retention ngắn.
- Cô lập môi trường đào tạo và suy luận, tránh dùng hạ tầng chia sẻ cho workload nhạy cảm.
- Thực hành governance cho mô hình: kiểm tra dữ liệu huấn luyện, phát hiện memorization và đánh dấu/loại bỏ dữ liệu nhạy cảm khỏi tập huấn luyện.
- Giám sát runtime và attestation phần cứng để phát hiện truy cập bất thường và xác nhận tính toàn vẹn của môi trường thực thi.
- Kiểm toán định kỳ, thử nghiệm tấn công giả lập và đánh giá chuỗi cung ứng để tìm lỗ hổng sớm.
Doanh nghiệp cần nhìn nhận runtime như một lớp bảo vệ riêng biệt, không thể chỉ dựa vào mã hóa khi lưu và truyền. Nếu không bổ sung cơ chế bảo vệ cho dữ liệu đang được xử lý, mô hình AI và thông tin nhạy cảm vẫn sẽ tiếp tục là mục tiêu dễ tổn thương.
Nguồn: Techradar
Bài viết liên quan