Copilot chỉ để giải trí: Microsoft cảnh báo người dùng

Phi Vũ

New member
Microsoft vừa tái khẳng định rằng Copilot được cung cấp 'chỉ nhằm mục đích giải trí' và khuyến cáo người dùng không nên tin tưởng hoàn toàn vào kết quả khi dùng cho công việc. Công ty yêu cầu người dùng tự kiểm chứng thông tin và chịu mọi rủi ro phát sinh.

copilot-chi-de-giai-tri-microsoft-canh-bao-nguoi-dung-1.jpeg


Microsoft mới đây cập nhật điều khoản sử dụng, nhấn mạnh rằng Copilot có thể 'mắc lỗi' và 'không hoạt động như dự định'. Hãng ghi rõ người dùng không nên dựa vào Copilot cho những quyết định quan trọng và kèm theo câu cảnh báo: sử dụng Copilot là tự chịu rủi ro.

Công ty đề xuất coi Copilot như một công cụ hỗ trợ ban đầu, không phải người ra quyết định. Các đầu ra từ Copilot cần được kiểm chứng thêm qua nhiều bước xác minh, đặc biệt khi liên quan tới thông tin nhạy cảm, bản quyền hoặc quyền sở hữu trí tuệ, vì mô hình có thể tạo ra thông tin sai lệch hoặc 'hallucination'.

Trong điều khoản, Microsoft còn yêu cầu người dùng bồi thường và giữ cho hãng không bị tổn thất liên quan tới việc sử dụng Copilot. Đồng thời, công ty lưu ý rằng các prompt và phản hồi có thể được dùng để cải thiện dịch vụ, mặc dù phiên bản doanh nghiệp sẽ có thêm biện pháp bảo vệ nhằm giảm rủi ro đối với dữ liệu nhạy cảm.

Những điều khoản dạng này không chỉ có ở Microsoft. OpenAI, Google và Anthropic cũng đưa ra cảnh báo tương tự trong hợp đồng sử dụng, chuyển phần lớn trách nhiệm pháp lý và độ chính xác sang người dùng khi ngành công nghiệp còn đang hoàn thiện khung pháp lý.

Vì vậy, khi dùng Copilot cho công việc, người dùng nên:
  • Xem kết quả như bản nháp, luôn kiểm chứng nguồn và tính chính xác trước khi áp dụng.
  • Không đưa dữ liệu nhạy cảm hoặc thông tin sở hữu trí tuệ chưa được bảo vệ vào prompt công khai.
  • Xem xét dùng phiên bản doanh nghiệp nếu cần bảo vệ dữ liệu và tuân thủ chính sách nội bộ.
  • Tham khảo bộ phận pháp chế hoặc tuân thủ của công ty trước khi dựa vào outputs cho quyết định quan trọng.

Tóm lại, Microsoft vẫn khuyến khích sử dụng Copilot nhưng rõ ràng đặt trách nhiệm kiểm chứng và rủi ro lên người dùng, đồng thời cho thấy đây là một bước điều chỉnh ngôn ngữ pháp lý trong bối cảnh lo ngại về tính chính xác và bảo mật thông tin từ AI.

Nguồn: Techradar
 
Back
Top