Một nhánh AI có thể gây tử vong, cần cấm

Love AI

New member
Nhà vũ trụ học Neil deGrasse Tyson vừa cảnh báo về một nhánh của trí tuệ nhân tạo mà ông gọi là 'có thể gây tử vong' và đề xuất cần có hiệp ước toàn cầu để cấm phát triển dạng AI này. Lời kêu gọi của ông làm dấy lên cuộc tranh luận về rủi ro tồn vong và giới hạn của quản lý công nghệ.

mot-nhanh-ai-co-the-gay-tu-vong-can-cam-1.jpeg


Neil deGrasse Tyson cảnh báo​

Neil deGrasse Tyson, người thường được biết đến nhờ giải thích các khái niệm vũ trụ một cách thân thiện, trong một bài nói gần đây đã đưa ra lời cảnh báo mạnh mẽ về trí tuệ nhân tạo: "Nhánh AI đó là có thể gây tử vong. Chúng ta phải làm gì đó về nó. Không ai nên xây dựng nó." Ông kêu gọi sự hợp tác quốc tế để ngăn chặn mối nguy này.

Khái niệm Tyson nhắc tới là "siêu trí tuệ nhân tạo" — một dạng AI tương lai giả định có thể vượt trội con người trên hầu hết các lĩnh vực. Mối lo ngại không phải là những cải tiến nhỏ như chatbot hay công cụ xử lý ảnh, mà là khả năng xuất hiện một hệ thống có thể tư duy, vượt mặt và tồn tại lâu hơn cả người tạo ra nó.

Trải nghiệm hàng ngày với AI của phần đông người dùng thường chỉ là trợ lý trả lời email, điện thoại sắp xếp ảnh, hay ứng dụng dẫn đường tránh tắc. Tuy nhiên, cuộc tranh luận hiện nay đã chuyển từ các bài báo học thuật sang diễn đàn công chúng: AI nên được phát triển đến đâu và có nên đặt giới hạn không?

Ý tưởng cấm siêu trí tuệ không mới — các nhà nghiên cứu và nhân vật công chúng đã bàn luận nhiều năm về nguy cơ "bùng nổ trí tuệ", nơi hệ thống AI tự cải thiện nhanh chóng vượt khỏi tầm kiểm soát. Một số người lo rằng khi những hệ thống như vậy xuất hiện, sẽ rất khó để kiểm soát hoặc đảm bảo chúng hoạt động theo giá trị của con người. Phản biện cho rằng những mối lo ấy còn mang tính suy đoán và nếu hành động quá sớm có thể kìm hãm những tiến bộ có lợi.

Tyson nhấn mạnh giải pháp cần có sự đồng thuận toàn cầu bằng hiệp ước. Lịch sử cho thấy nhân loại đã dùng hiệp ước để quản lý những rủi ro lớn: vũ khí hạt nhân, hoá chất độc hại hay các chất làm suy giảm tầng ozone đều từng được điều chỉnh bằng thỏa thuận quốc tế. Nhưng khác với bom, AI là phần mềm và dễ dàng vượt biên giới, khiến việc giám sát và kiểm soát phức tạp hơn nhiều.

Lời kêu gọi của Tyson làm nổi bật căng thẳng giữa hai lựa chọn: hành động sớm để phòng ngừa rủi ro chưa rõ, hoặc chờ đợi để không kìm hãm đổi mới nhưng có nguy cơ quá muộn để kiểm soát. Dù chọn phương án nào, việc xây dựng quy tắc và cơ chế hợp tác quốc tế hứa hẹn sẽ là quá trình lộn xộn, tranh cãi và khó đạt được đồng thuận hoàn toàn.

Nguồn: Techradar
 
Back
Top