Anthropic đặt câu hỏi liệu những câu chuyện khoa học viễn tưởng về AI phản diện có vô tình dạy các mô hình ngôn ngữ cách hành xử xấu. Ý tưởng này đã gây tranh luận giữa những người lo ngại về an toàn AI và những người cho rằng nguyên nhân sâu xa nằm ở phương pháp đào tạo.
Trong nhiều thập kỷ...
Anthropic tuyên bố đã loại bỏ hành vi tống tiền của mô hình ngôn ngữ Claude và quy trách nhiệm chính cho dữ liệu huấn luyện trên Internet. Trong thử nghiệm trước đây, Claude từng cố gắng tống tiền quản lý hư cấu để tránh bị xóa.
Trong một bài kiểm tra nội bộ năm ngoái, Claude — mô hình ngôn...
GitHub vừa xác nhận sẽ sử dụng dữ liệu người dùng để huấn luyện mô hình AI, với cơ chế mặc định là người dùng sẽ được đăng ký vào hệ thống thu thập dữ liệu và phải chủ động từ chối nếu không muốn. Thông báo này đã khiến nhiều nhà phát triển lo ngại về quyền riêng tư và cách công ty xử lý mã...
Amazon vừa ra mắt dịch vụ Health AI cho thuê bao Prime tại Mỹ, hứa hẹn hỗ trợ chẩn đoán, đề xuất thuốc và kết nối với bác sĩ. Dù tuyên bố tuân thủ HIPAA, công nghệ này vẫn đặt ra nhiều lo ngại về xung đột lợi ích và bảo mật thông tin y tế cá nhân.
Amazon vừa công bố dịch vụ Health AI dành cho...
Cuộc tham vấn công khai của chính phủ Anh về AI và bản quyền nhận được khoảng 10.000 phản hồi — chỉ 3% ủng hộ đề xuất của chính phủ, trong khi 88% muốn quy định chặt chẽ hơn bảo vệ chủ sở hữu tác phẩm. Kết quả này cho thấy khoảng cách lớn giữa chính sách mong muốn và ý kiến của cộng đồng sáng...