siêu trí tuệ

  1. Love AI

    Một nhánh AI có thể gây tử vong, cần cấm

    Nhà vũ trụ học Neil deGrasse Tyson vừa cảnh báo về một nhánh của trí tuệ nhân tạo mà ông gọi là 'có thể gây tử vong' và đề xuất cần có hiệp ước toàn cầu để cấm phát triển dạng AI này. Lời kêu gọi của ông làm dấy lên cuộc tranh luận về rủi ro tồn vong và giới hạn của quản lý công nghệ. Neil...
  2. Love AI

    Microsoft công bố siêu trí tuệ nhân văn mới

    Microsoft giới thiệu khái niệm Humanist Superintelligence (HSI) — một hướng tiếp cận AI đặt lợi ích con người lên trước thay vì theo đuổi tự trị tuyệt đối. Dự án hứa hẹn cải thiện y tế và giáo dục nhưng cũng đặt ra những lo ngại lớn về năng lượng, riêng tư và kiểm soát. Khái niệm HSI là gì...
Back
Top