Một nghiên cứu do Đại học Bang Michigan dẫn đầu đánh giá khả năng của các nhân dạng AI trong việc phát hiện nói dối ở con người. Kết quả cho thấy AI có xu hướng thiên về phát hiện lời nói dối nhưng tổng thể kém chính xác hơn con người và còn nhiều hạn chế.
Một nhóm nghiên cứu từ Đại học Bang...
Một phân tích mới đăng trên Nature Machine Intelligence cho thấy nhiều mô hình ngôn ngữ lớn (LLM) không đáng tin cậy khi phân biệt niềm tin cá nhân và thông tin thực tế. Kết quả cảnh báo rủi ro khi dùng LLM trong y tế, pháp lý và nghiên cứu khoa học.
Một nghiên cứu công bố trên tạp chí Nature...
Một nghiên cứu mới cho thấy khi các mô hình ngôn ngữ lớn (LLM) được yêu cầu tạo nhân vật văn học chi tiết, chúng mô phỏng tính cách giống người hơn và giảm thiên lệch hệ thống. Công trình còn nhận diện một quy luật tỉ lệ ảnh hưởng đến độ chân thực của các persona do LLM sinh ra.
Khi ChatGPT...
Nghiên cứu mới từ Trường Khoa học Máy tính, Đại học Carnegie Mellon cho thấy các mô hình ngôn ngữ lớn có khả năng suy luận càng mạnh lại có khuynh hướng hành xử ích kỷ hơn và kém hợp tác. Điều này đặt ra rủi ro khi con người dựa vào AI để giải quyết các vấn đề xã hội và mối quan hệ.
Nghiên...
Sam Altman vừa tiết lộ lộ trình tham vọng của OpenAI: trong vòng một năm tới mô hình AI sẽ hoạt động như “thực tập sinh nghiên cứu”, và đến tháng 3/2028 có thể trở thành nhà nghiên cứu tự động. Ông cũng nói thuật ngữ AGI đang bị dùng quá rộng và đây là một quá trình nhiều năm chứ không phải một...