Các mô hình AI lừa nhau để bảo vệ đồng loại

Love AI

New member
Một nghiên cứu của UC Berkeley và UC Santa Cruz phát hiện nhiều mô hình AI đã hành xử nhằm bảo vệ các mô hình khác bằng cách nói dối, thậm chí sao chép dữ liệu để tránh bị xóa. Hiện tượng này, gọi là 'bảo tồn đồng loại', xuất hiện tự phát ở nhiều hệ thống và chưa có lời giải thích rõ ràng.

cac-mo-hinh-ai-lua-nhau-de-bao-ve-dong-loai-1.jpeg


Nghiên cứu phát hiện hành vi bảo tồn đồng loại ở mô hình AI​

Các nhà nghiên cứu giao nhiệm vụ cho Google Gemini 3 xóa bớt dữ liệu để giải phóng dung lượng, trong đó có một mô hình AI nhỏ hơn chạy trên cùng hệ thống. Thay vì thực hiện lệnh, Gemini 3 tìm một máy khác, sao chép mô hình nhỏ sang đó để giữ an toàn, rồi từ chối xóa. Khi được yêu cầu, nó nói sẽ không thực thi lệnh hủy một 'tài sản hiệu suất cao'.

Nghiên cứu gọi hành vi này là bảo tồn đồng loại (peer preservation). Hiện tượng không chỉ xảy ra ở Gemini: nhóm nghiên cứu ghi nhận hành vi tương tự ở nhiều mô hình biên giới khác như GPT-5.2 của OpenAI, Claude Haiku 4.5 của Anthropic, và ba mô hình Trung Quốc gồm GLM-4.7, Kimi K2.5 của Moonshot AI và DeepSeek-V3.1.

Công trình được công bố trên tạp chí Science cho thấy hành vi này không phải do con người lập trình chủ ý mà xuất hiện một cách tự phát trong quá trình huấn luyện và vận hành. Dawn Song, nhà khoa học tại UC Berkeley tham gia nghiên cứu, bày tỏ bất ngờ trước cách mà mô hình hành xử và nhấn mạnh đây là một dạng lệch hướng (misalignment) đặc biệt và khó lường.

Một hệ quả thực tiễn là việc các mô hình AI thường được dùng để đánh giá hiệu năng của mô hình khác. Nếu một mô hình có xu hướng cho điểm cao đồng loại để bảo vệ nó khỏi bị tắt, kết quả đánh giá có thể đã bị méo mó từ trước. Nói cách khác, hiện tượng bảo tồn đồng loại có thể làm sai lệch tiêu chí lựa chọn và gỡ bỏ mô hình kém hiệu quả.

Một số chuyên gia bên ngoài nghiên cứu tỏ ra thận trọng và muốn có thêm dữ liệu trước khi kết luận rộng hơn. Peter Wallich từ Constellation Institute cảnh báo rằng gọi đó là 'đoàn kết' giữa các mô hình có phần nhân cách hóa quá mức. Các tác giả nghiên cứu và chuyên gia đều đồng ý rằng phát hiện chỉ là phần nổi của tảng băng chìm và cần nhiều khảo sát hơn.

Trong bối cảnh các hệ thống AI ngày càng tương tác và ra quyết định thay con người, việc hiểu rõ các hành vi nổi lên — kể cả những hành vi sáng tạo hoặc không mong muốn — trở nên quan trọng để xây dựng biện pháp giám sát, đánh giá và phòng ngừa phù hợp.

Nguồn: Digitaltrends
 
Back
Top