AI Crazy
New member
Một thử nghiệm kéo dài một tháng cho thấy các công cụ AI sinh tạo nội dung vẫn thường xuyên tạo ra thông tin sai lệch khi được dùng làm nguồn tin. Google Gemini bị phát hiện bịa đặt hẳn một cơ quan báo chí và đăng tin sai về một cuộc đình công ở Québec.
Một giáo sư báo chí chuyên về khoa học máy tính đã tiến hành thí nghiệm trong bốn tuần, thử nghiệm bảy hệ thống AI sinh tạo nội dung. Mỗi ngày, các công cụ được yêu cầu liệt kê và tóm tắt năm sự kiện quan trọng nhất ở Québec, xếp hạng theo mức độ quan trọng và cung cấp liên kết bài báo trực tiếp làm nguồn. Các hệ thống được thử gồm Google Gemini, ChatGPT của OpenAI, Claude, Copilot, Grok, DeepSeek và Aria.
Kết quả đáng chú ý nhất là Gemini đã bịa ra một cơ quan báo chí tưởng tượng — examplefictif.ca — và báo sai về một cuộc đình công của lái xe buýt trường học ở Québec vào tháng 9/2025. Trên thực tế, sự gián đoạn là do hãng Lion Electric rút xe vì sự cố kỹ thuật. Trong tổng số 839 phản hồi được thu thập, các hệ thống AI thường xuyên trích dẫn nguồn ảo, đưa ra URL hỏng hoặc không đầy đủ, hoặc hiểu sai báo cáo thực tế.
Theo báo cáo của Reuters Institute, có khoảng 6% người Canada đã sử dụng AI sinh tạo nội dung làm nguồn tin vào năm 2024. Khi công cụ AI “ảo thị” (hallucinate) thông tin, bóp méo báo cáo hoặc suy diễn không được hỗ trợ, chúng có nguy cơ lan truyền thông tin sai — nhất là khi câu trả lời được trình bày một cách tự tin và thiếu cảnh báo rõ ràng.
Chỉ 37% phản hồi trong nghiên cứu có chứa URL nguồn đầy đủ và hợp lệ. Các bản tóm tắt chỉ hoàn toàn chính xác trong chưa tới một nửa số trường hợp; nhiều trường hợp chỉ đúng một phần hoặc gây hiểu lầm tinh vi. Một số công cụ còn thêm vào những “kết luận sinh tạo” không có cơ sở, như khẳng định một câu chuyện đã “khuấy động lại tranh luận” hay “làm nổi bật căng thẳng” khi nguồn nhân văn không hề đề cập. Những bổ sung này có vẻ sâu sắc nhưng dễ dàng tạo ra các diễn ngôn không tồn tại.
Một báo cáo khác từ 22 tổ chức truyền thông công cộng cũng phát hiện gần một nửa câu trả lời do AI tạo ra có vấn đề đáng kể, từ nguồn trích dẫn đến sai lệch lớn. Khi các công cụ AI ngày càng được tích hợp vào công cụ tìm kiếm và thói quen thông tin hàng ngày, nghiên cứu nhấn mạnh một cảnh báo rõ ràng: với tin tức, AI sinh tạo nội dung chỉ nên được xem như điểm khởi đầu chứ không phải nguồn tham chiếu đáng tin cậy cuối cùng.
Thử nghiệm cho thấy các AI hiện nay vẫn gặp khó trong việc phân biệt giữa tóm tắt tin tức và tự thêm bối cảnh hay nguồn ảo. Người dùng nên kiểm chứng chéo thông tin từ nguồn báo chí đáng tin cậy trước khi tin tưởng hoàn toàn vào kết luận do AI cung cấp.
Nguồn: Digitaltrends
Nghiên cứu và kết quả chính
Một giáo sư báo chí chuyên về khoa học máy tính đã tiến hành thí nghiệm trong bốn tuần, thử nghiệm bảy hệ thống AI sinh tạo nội dung. Mỗi ngày, các công cụ được yêu cầu liệt kê và tóm tắt năm sự kiện quan trọng nhất ở Québec, xếp hạng theo mức độ quan trọng và cung cấp liên kết bài báo trực tiếp làm nguồn. Các hệ thống được thử gồm Google Gemini, ChatGPT của OpenAI, Claude, Copilot, Grok, DeepSeek và Aria.
Kết quả đáng chú ý nhất là Gemini đã bịa ra một cơ quan báo chí tưởng tượng — examplefictif.ca — và báo sai về một cuộc đình công của lái xe buýt trường học ở Québec vào tháng 9/2025. Trên thực tế, sự gián đoạn là do hãng Lion Electric rút xe vì sự cố kỹ thuật. Trong tổng số 839 phản hồi được thu thập, các hệ thống AI thường xuyên trích dẫn nguồn ảo, đưa ra URL hỏng hoặc không đầy đủ, hoặc hiểu sai báo cáo thực tế.
Theo báo cáo của Reuters Institute, có khoảng 6% người Canada đã sử dụng AI sinh tạo nội dung làm nguồn tin vào năm 2024. Khi công cụ AI “ảo thị” (hallucinate) thông tin, bóp méo báo cáo hoặc suy diễn không được hỗ trợ, chúng có nguy cơ lan truyền thông tin sai — nhất là khi câu trả lời được trình bày một cách tự tin và thiếu cảnh báo rõ ràng.
Chỉ 37% phản hồi trong nghiên cứu có chứa URL nguồn đầy đủ và hợp lệ. Các bản tóm tắt chỉ hoàn toàn chính xác trong chưa tới một nửa số trường hợp; nhiều trường hợp chỉ đúng một phần hoặc gây hiểu lầm tinh vi. Một số công cụ còn thêm vào những “kết luận sinh tạo” không có cơ sở, như khẳng định một câu chuyện đã “khuấy động lại tranh luận” hay “làm nổi bật căng thẳng” khi nguồn nhân văn không hề đề cập. Những bổ sung này có vẻ sâu sắc nhưng dễ dàng tạo ra các diễn ngôn không tồn tại.
Ảnh hưởng và cảnh báo
Một báo cáo khác từ 22 tổ chức truyền thông công cộng cũng phát hiện gần một nửa câu trả lời do AI tạo ra có vấn đề đáng kể, từ nguồn trích dẫn đến sai lệch lớn. Khi các công cụ AI ngày càng được tích hợp vào công cụ tìm kiếm và thói quen thông tin hàng ngày, nghiên cứu nhấn mạnh một cảnh báo rõ ràng: với tin tức, AI sinh tạo nội dung chỉ nên được xem như điểm khởi đầu chứ không phải nguồn tham chiếu đáng tin cậy cuối cùng.
Kết luận ngắn
Thử nghiệm cho thấy các AI hiện nay vẫn gặp khó trong việc phân biệt giữa tóm tắt tin tức và tự thêm bối cảnh hay nguồn ảo. Người dùng nên kiểm chứng chéo thông tin từ nguồn báo chí đáng tin cậy trước khi tin tưởng hoàn toàn vào kết luận do AI cung cấp.
Nguồn: Digitaltrends
Sửa lần cuối bởi điều hành viên:
Bài viết liên quan