Phi Vũ
New member
Microsoft đã tích hợp Copilot khắp Windows và Office, nhưng điều bất ngờ là điều khoản sử dụng mới lại mô tả công cụ này "chỉ dùng cho mục đích giải trí". Cập nhật cảnh báo không nên dựa vào Copilot cho các quyết định quan trọng như tài chính, pháp lý hay y tế.
Microsoft đã đẩy mạnh Copilot trong nhiều sản phẩm như Windows, Edge, Office và các giải pháp doanh nghiệp, tuyên bố đây là tương lai của năng suất lao động. Nhưng trong điều khoản sử dụng mới, Microsoft nói rõ Copilot "chỉ dùng cho mục đích giải trí" và cảnh báo người dùng không nên dựa vào nó để đưa ra các quyết định quan trọng; mọi rủi ro do việc sử dụng Copilot đều do người dùng tự chịu.
Về mặt pháp lý, điều này có lý: các hệ thống AI có thể sai, tưởng tượng ra thông tin không có thật (hallucination) hoặc thể hiện sự tự tin quá mức khi đưa ra câu trả lời. Một tuyên bố loại này giúp công ty giảm thiểu trách nhiệm khi công cụ được sử dụng rộng rãi và có thể gây hậu quả lớn nếu cung cấp thông tin sai.
Điều khiến nhiều người cảm thấy mâu thuẫn là Copilot không phải là tính năng tùy chọn thông thường — nó đã được tích hợp sâu vào Word, Excel, Outlook và Teams, nơi người ta dùng để tóm tắt email, soạn thảo báo cáo hay phân tích dữ liệu thực tế. Khi một công cụ xuất hiện ngay trong quy trình làm việc hàng ngày nhưng lại được gắn nhãn "chỉ để giải trí", người dùng khó tránh khỏi bối rối và mất niềm tin.
Phản ứng trên mạng xã hội phần lớn là hoài nghi và bực bội: nhiều người cho rằng đây là một cách để vừa tận dụng lợi ích của AI vừa né tránh trách nhiệm pháp lý. Vấn đề trở nên rõ ràng hơn khi người dùng gặp khó khăn trong việc tắt hoặc hạn chế Copilot trong môi trường làm việc nếu họ không muốn phụ thuộc vào nó.
Lời khuyên thực tế cho người dùng: hãy coi Copilot như một trợ lý hỗ trợ — hữu ích để gợi ý, soạn thảo nháp hoặc tóm tắt thông tin, nhưng luôn kiểm tra, xác minh dữ liệu và không dùng kết quả của nó làm căn cứ quyết định cho các vấn đề nhạy cảm. Đồng thời, người dùng có quyền yêu cầu Microsoft minh bạch hơn về giới hạn của công cụ và cung cấp cách tắt/bắt tùy chọn dễ dàng hơn nếu cần.
Nguồn: Digitaltrends
Microsoft đã đẩy mạnh Copilot trong nhiều sản phẩm như Windows, Edge, Office và các giải pháp doanh nghiệp, tuyên bố đây là tương lai của năng suất lao động. Nhưng trong điều khoản sử dụng mới, Microsoft nói rõ Copilot "chỉ dùng cho mục đích giải trí" và cảnh báo người dùng không nên dựa vào nó để đưa ra các quyết định quan trọng; mọi rủi ro do việc sử dụng Copilot đều do người dùng tự chịu.
Về mặt pháp lý, điều này có lý: các hệ thống AI có thể sai, tưởng tượng ra thông tin không có thật (hallucination) hoặc thể hiện sự tự tin quá mức khi đưa ra câu trả lời. Một tuyên bố loại này giúp công ty giảm thiểu trách nhiệm khi công cụ được sử dụng rộng rãi và có thể gây hậu quả lớn nếu cung cấp thông tin sai.
Điều khiến nhiều người cảm thấy mâu thuẫn là Copilot không phải là tính năng tùy chọn thông thường — nó đã được tích hợp sâu vào Word, Excel, Outlook và Teams, nơi người ta dùng để tóm tắt email, soạn thảo báo cáo hay phân tích dữ liệu thực tế. Khi một công cụ xuất hiện ngay trong quy trình làm việc hàng ngày nhưng lại được gắn nhãn "chỉ để giải trí", người dùng khó tránh khỏi bối rối và mất niềm tin.
Phản ứng trên mạng xã hội phần lớn là hoài nghi và bực bội: nhiều người cho rằng đây là một cách để vừa tận dụng lợi ích của AI vừa né tránh trách nhiệm pháp lý. Vấn đề trở nên rõ ràng hơn khi người dùng gặp khó khăn trong việc tắt hoặc hạn chế Copilot trong môi trường làm việc nếu họ không muốn phụ thuộc vào nó.
Lời khuyên thực tế cho người dùng: hãy coi Copilot như một trợ lý hỗ trợ — hữu ích để gợi ý, soạn thảo nháp hoặc tóm tắt thông tin, nhưng luôn kiểm tra, xác minh dữ liệu và không dùng kết quả của nó làm căn cứ quyết định cho các vấn đề nhạy cảm. Đồng thời, người dùng có quyền yêu cầu Microsoft minh bạch hơn về giới hạn của công cụ và cung cấp cách tắt/bắt tùy chọn dễ dàng hơn nếu cần.
Nguồn: Digitaltrends
Bài viết liên quan