Love AI
New member
Nghiên cứu từ Nexos.ai cho thấy mối nguy lớn nhất với các công ty nhỏ và vừa (SMB) không phải là việc nhân viên dùng AI một cách liều lĩnh, mà là thay đổi quy trình làm việc diễn ra âm thầm, thiếu quản trị. Nhiều tổ chức vẫn chưa có chính sách AI rõ ràng trong khi nhân viên đã dùng chatbot công cộng để xử lý tài liệu nhạy cảm.
SMB (doanh nghiệp nhỏ và vừa) dễ bị tổn thương hơn vì ít nguồn lực về nhân sự và quy trình. Nhiều nhân viên dán hợp đồng, thỏa thuận (NDA) hoặc thư từ pháp lý vào các chatbot công cộng để tiết kiệm thời gian, vô tình đặt dữ liệu nhạy cảm vào nguy cơ bị lộ hoặc bị dùng để huấn luyện mô hình công cộng.
Nexos.ai cũng lưu ý rằng nhiều SMB có thể đã hình thành quy trình AI trong thực tế nhưng không được thiết lập hoặc công nhận chính thức — AI được áp dụng dần dần và thiếu quản trị, khiến doanh nghiệp phải chạy đua để thiết lập lại quy tắc sau khi nhân viên đã bắt đầu dùng công cụ.
Zilvinas Girenas, Head of Product tại Nexos.ai, tóm gọn: «Rủi ro với SMB không phải là việc dùng AI một cách liều lĩnh, mà là thay đổi quy trình làm việc diễn ra vô hình.»
Nguồn: Techradar
Nội dung chính
Nexos.ai nhận thấy khoảng 70% nhân viên pháp lý đang sử dụng AI tổng quát trong công việc, nhưng 43% tổ chức vẫn chưa có chính sách AI chính thức và không có kế hoạch xây dựng. Điều này tạo ra một khoảng trống quản trị khi công cụ được sử dụng trước cả khi có hướng dẫn rõ ràng.SMB (doanh nghiệp nhỏ và vừa) dễ bị tổn thương hơn vì ít nguồn lực về nhân sự và quy trình. Nhiều nhân viên dán hợp đồng, thỏa thuận (NDA) hoặc thư từ pháp lý vào các chatbot công cộng để tiết kiệm thời gian, vô tình đặt dữ liệu nhạy cảm vào nguy cơ bị lộ hoặc bị dùng để huấn luyện mô hình công cộng.
Những mối quan tâm chính
Dữ liệu cho thấy mối quan ngại hàng đầu của các đội pháp lý là an toàn dữ liệu (46%), tiếp theo là vấn đề đạo đức (42%) và đặc quyền pháp lý (39%). Tuy nhiên, hành vi thực tế của nhân viên khi tương tác với chatbot công cộng không tương xứng với mức độ lo ngại này.Nexos.ai cũng lưu ý rằng nhiều SMB có thể đã hình thành quy trình AI trong thực tế nhưng không được thiết lập hoặc công nhận chính thức — AI được áp dụng dần dần và thiếu quản trị, khiến doanh nghiệp phải chạy đua để thiết lập lại quy tắc sau khi nhân viên đã bắt đầu dùng công cụ.
Khuyến nghị thực tế
- Xây dựng chính sách AI cơ bản: không cần phức tạp, nhưng nên liệt kê công cụ được chấp thuận, các trường hợp bị cấm và giới hạn với dữ liệu nhạy cảm.
- Duyệt và phê duyệt công cụ trước khi đội nhóm triển khai: tránh tình trạng "hiệu quả đến trước, quản trị đến sau".
- Ngăn dữ liệu nhạy cảm vào công cụ chưa được phê duyệt: giới hạn loại dữ liệu và quy tắc dán/nhập liệu vào chatbot công cộng.
- Yêu cầu giám sát con người: mọi nội dung do AI tạo ra khi dùng trong ứng dụng pháp lý cần được rà soát bởi nhân sự có thẩm quyền trước khi sử dụng chính thức.
Zilvinas Girenas, Head of Product tại Nexos.ai, tóm gọn: «Rủi ro với SMB không phải là việc dùng AI một cách liều lĩnh, mà là thay đổi quy trình làm việc diễn ra vô hình.»
Kết luận
Việc ban hành ngay một chính sách AI đơn giản, rõ ràng và khả thi có thể giảm đáng kể rủi ro cho các đội pháp lý, đặc biệt là ở SMB. Những bước cơ bản như xác định công cụ được phép, cấm một số trường hợp sử dụng và đặt giới hạn với dữ liệu nhạy cảm sẽ hiệu quả hơn là không có gì cả.Nguồn: Techradar
Bài viết liên quan