Love AI

New member
Khi AI bắt đầu xử lý mã nguồn, hồ sơ khách hàng và quy trình bị quản lý, doanh nghiệp không chỉ quan tâm đến hiệu năng của mô hình. Họ cần biết dữ liệu được xử lý ở đâu, ai có thể truy cập và bằng chứng gì còn lại sau khi quá trình hoàn tất.

bao-mat-ai-xu-huong-lon-cho-doanh-nghiep-1.jpeg


Tại sao doanh nghiệp lo ngại​

Doanh nghiệp giờ đây không chỉ đánh giá AI trên hiệu quả hay độ chính xác. Khi hệ thống AI thao tác với mã nguồn độc quyền, hồ sơ nội bộ hay luồng công việc bị điều tiết, mối quan tâm mở rộng sang vấn đề an ninh, tuân thủ và rủi ro bên thứ ba: inference chạy ở đâu, ai có thể truy cập dữ liệu khi nó đang được xử lý và có bằng chứng gì cho kiểm toán sau này.

Rủi ro thực tế​

Ngành y tế cho thấy độ nhạy cảm của dữ liệu khi có sai sót: một nhà cung cấp làm việc với Catholic Health đã để cơ sở dữ liệu mở suốt sáu tuần, ảnh hưởng 483.000 bệnh nhân và dẫn tới kiện tụng. Bộ Y tế và Dịch vụ Nhân sinh Mỹ (HHS) sau đó đề xuất sửa đổi Quy định An ninh HIPAA để thắt chặt bảo vệ thông tin sức khỏe điện tử.

Trong lĩnh vực tài chính, mức độ giám sát tăng nhanh khi AI chạm vào quy trình được quản lý. Các ưu tiên kiểm tra của SEC năm 2026 nêu rõ cơ quan sẽ xem xét liệu tổ chức có chính sách và thủ tục đủ để giám sát, quản lý việc sử dụng AI hay không. Nhiều ngân hàng cũng đã hạn chế công cụ lập trình AI trên máy của nhà phát triển vì lo ngại tạo ra rủi ro IT bóng tối.

Vấn đề của "dữ liệu đang được xử lý"​

Các công ty đã quen với việc bảo vệ dữ liệu khi lưu trữ và khi truyền dẫn. Tuy nhiên điểm yếu nhất là "dữ liệu đang được xử lý" — tức lúc mô hình đang chạy inference trên prompt, mã hoặc ngữ cảnh nội bộ. Trong quy trình đám mây tiêu chuẩn, giai đoạn này thường dựa vào hạ tầng mà khách hàng không thể kiểm tra toàn diện, gây lo ngại đặc biệt với dịch vụ AI do nhà cung cấp lưu trữ.

Giải pháp: môi trường thực thi đáng tin cậy và chứng thực​

Confidential AI nhằm bảo vệ dữ liệu chính xác trong lúc xử lý. Một trong những cơ chế trung tâm là môi trường thực thi đáng tin cậy (TEE). TEE tạo vùng chạy cách ly trên phần cứng, giữ dữ liệu nhạy cảm và ngữ cảnh nội bộ bên trong vùng bảo vệ, giảm mức lộ thông tin với hệ thống xung quanh.

Chỉ cô lập chưa đủ cho mục tiêu bảo mật và tuân thủ — chứng thực (attestation) biến sự cách ly thành thứ có thể kiểm chứng. Khi workload chạy trong TEE, hồ sơ chứng thực cung cấp bằng chứng mật mã rằng nó đã sử dụng môi trường được bảo vệ, giúp nhóm an ninh và kiểm toán có bằng chứng để trình bày với các bên kiểm tra.

Confidential computing không phải là ý tưởng mới, nhưng trước đây nó là biện pháp chuyên biệt trong khi mã hóa dữ liệu khi lưu trữ và truyền dẫn trở nên phổ biến. Sự bùng nổ AI đám mây, hạ tầng chia sẻ và hợp tác trong môi trường bị điều tiết đã đẩy vấn đề dữ liệu đang được xử lý thành mối quan tâm chính của doanh nghiệp. Khi AI dần đảm nhiệm dữ liệu nhạy cảm, Confidential AI nhiều khả năng trở thành tiêu chuẩn để vừa bảo vệ dữ liệu vừa tạo ra bằng chứng cho kiểm toán và tuân thủ.

Nguồn: Techradar
 
Back
Top