Love AI

New member
Ảnh và video do AI tạo ngày càng khó phân biệt với thật. Nghiên cứu mới cho thấy con người chỉ phân biệt chính xác khoảng 51% thời gian, nhưng có những cách đơn giản để nâng cao cảnh giác.

toi-tuong-biet-anh-gia-ai-nhung-toi-sai-1.jpeg


AI tạo ảnh và video ngày càng tinh vi nên việc phát hiện bằng mắt thường trở nên khó khăn hơn. Một nghiên cứu cho thấy người xem chỉ phân biệt được nội dung do AI và do con người tạo đúng khoảng 51% thời gian — gần như may rủi.

Hậu quả thực tế đã xuất hiện: cuộc gọi giả mạo được tạo bằng giọng AI mạo danh chính trị gia gây nhiễu loạn bầu cử, ảnh giả của nhân vật công chúng lan truyền thông tin sai lệch, và tình trạng lạm dụng ảnh nhạy cảm không đồng ý (non-consensual) do AI tạo đang gia tăng. Ngoài ra, gian lận có trợ giúp bởi deepfake được dự báo có thể gây thiệt hại hàng chục tỷ đô la trong những năm tới.

Phần lớn giải pháp hiện nay tập trung vào công nghệ: công cụ phát hiện, đóng dấu (watermarking), và quy định pháp lý. Những phương án này rất cần thiết và đang được phát triển, nhưng một hướng tiếp cận khác cũng cho kết quả hứa hẹn: tăng cường khả năng phân tích của con người trước khi họ tiếp xúc với nội dung giả mạo.

Ý tưởng gọi là “tiêm chủng tâm lý” — tức giới thiệu trước cho người dùng những thông tin giúp họ nhận ra thủ thuật thông tin sai lệch. Một nghiên cứu của Đại học Iowa thử nghiệm ba nhóm: nhóm nhận cảnh báo dạng văn bản giải thích cách deepfake hoạt động, nhóm chơi một trò chơi tương tác tập phát hiện deepfake, và nhóm đối chứng không nhận gì. Sau đó tất cả xem các video deepfake với các phát ngôn bịa đặt.

Kết quả cho thấy cả cảnh báo văn bản lẫn trò chơi tương tác đều làm giảm mức độ tin tưởng vào nội dung đã xem và khuyến khích người tham gia kiểm chứng thêm thông tin. Đáng chú ý, cảnh báo viết ngắn gọn hiệu quả gần tương đương với trò chơi tương tác, gợi ý rằng can thiệp đơn giản có thể mang lại lợi ích lớn mà không cần đầu tư phức tạp.

Nhiều nghiên cứu khác củng cố ý tưởng này: chiến dịch quảng cáo ngắn trên YouTube dùng clip hoạt hình đã giúp hơn 5 triệu người nhận diện kỹ thuật thao túng cảm xúc; một thử nghiệm ở Anh dùng video 19 giây trên Instagram giúp người xem dễ phát hiện tiêu đề thao túng; và một nghiên cứu năm 2025 cho thấy chỉ 5 phút huấn luyện về cách phát hiện khuôn mặt do AI tạo cũng nâng cao độ chính xác nhận diện.

Bên cạnh đó, các giải pháp kỹ thuật tiếp tục được phát triển, ví dụ Google DeepMind giới thiệu SynthID để gắn watermark vào ảnh và video do AI tạo, và một số tổ chức khác công khai công cụ hỗ trợ phát hiện. Tuy nhiên, không có phương án đơn lẻ nào đủ: kết hợp công nghệ, quy định và nâng cao nhận thức người dùng là con đường thực tế nhất để giảm thiểu tác hại từ nội dung do AI tạo.

Thông điệp chính là khả năng tự bảo vệ của người xem có thể được tăng lên bằng những can thiệp ngắn và dễ tiếp cận. Việc phổ cập các cảnh báo ngắn, video hướng dẫn hay trò chơi tương tác trên mạng xã hội có thể là bước nhanh và hiệu quả để giảm tác động của deepfake trước khi công nghệ phát triển tiếp.

Nguồn: Techradar
 
Back
Top