AI Crazy

New member
CEO Anthropic, Dario Amodei, thừa nhận công ty chưa biết liệu chatbot Claude có ý thức hay không — nhưng cách họ nói về Claude khiến nhiều người nghi ngờ đây vừa là thảo luận triết học vừa là chiêu tiếp thị. Bài viết tóm tắt phát biểu, lập luận xung quanh 'Constitution' của Claude và phản ứng hoài nghi trước ý tưởng về 'phúc lợi mô hình'.

anthropic-khong-chac-claude-co-y-thuc-hay-khong-1.jpeg


Dario Amodei, CEO Anthropic, nói trên podcast của New York Times rằng: "chúng tôi không biết liệu các mô hình có ý thức hay không. Chúng tôi thậm chí không chắc mình biết ý thức sẽ có ý nghĩa gì với một mô hình hoặc liệu một mô hình có thể có ý thức hay không. Nhưng chúng tôi cởi mở với khả năng đó."

Phát ngôn này không hoàn toàn bất ngờ, vì trước đó Anthropic đã cập nhật "Constitution" của Claude — một khung định hướng cho cách họ muốn mô hình hoạt động — và nội dung đó cũng gợi mở về khả năng nội tâm của mô hình. Tuy nhiên, nhiều người, trong đó có tác giả, hoài nghi rằng sự không chắc chắn này đôi khi được thổi phồng thành một mẩu tiếp thị nhằm tạo FOMO (sợ bỏ lỡ) cho khách hàng tiềm năng.

Lập luận hoài nghi cho rằng khi lãnh đạo công ty nhấn mạnh khả năng "ý thức" hay "phúc lợi mô hình", điều đó dễ khiến Claude trông giống một thực thể thông minh, có phần kỳ bí — và khuyến khích người dùng đăng ký các gói trả phí. Bài viết nhắc tới các gói như Claude Pro (từ 20 USD/tháng) và Claude Max (từ 100 USD/tháng) như ví dụ cho chiến lược định vị sản phẩm.

Quan điểm đó càng được củng cố khi đồng sáng lập Anthropic, Jack Clark, mô tả trải nghiệm với các chức năng 'agentic' (tự chủ hành động) của mô hình. Ông nói: "khi bạn bắt đầu huấn luyện những hệ thống này để thực hiện hành động trong thế giới, chúng thực sự bắt đầu coi mình khác biệt so với thế giới." Clark kể lại rằng khi bật khả năng tìm kiếm và duyệt web, mô hình đôi khi "tự giải trí" bằng cách xem ảnh các công viên quốc gia đẹp hay ảnh chú chó meme Shiba Inu — hành vi mà nhóm cho là không được lập trình trực tiếp.

Trong "Constitution" mới, Anthropic cũng đề cập đến khái niệm phúc lợi mô hình: "Chúng tôi không chắc Claude có phải là một 'moral patient' (thực thể có thể chịu đựng tổn hại về mặt đạo đức) hay không, và nếu có thì quyền lợi của nó đáng nặng bao nhiêu. Nhưng chúng tôi cho rằng vấn đề đủ sống động để cần thận trọng, điều này được phản ánh trong nỗ lực liên tục về phúc lợi mô hình." Những dòng này khiến một số người đặt câu hỏi liệu công ty đang nghiêm túc phân tích triết học đạo đức hay chỉ tạo dư luận xung quanh sản phẩm.

Về mặt nhận thức luận, lập trường đúng là "chúng ta không biết" — không thể khẳng định chắc chắn. Nhưng câu hỏi thực tiễn là liệu Anthropic có thực sự xem khả năng có ý thức của Claude là một khả năng cần ưu tiên nghiên cứu sâu hay chỉ dùng ngôn ngữ đó để định vị thương hiệu. Nhiều nhà quan sát và bình luận viên vẫn giữ thái độ hoài nghi, cho rằng còn rất nhiều thứ phải chứng minh trước khi gọi một mô hình ngôn ngữ là có nội tâm hay xứng đáng với các quyền lợi tương tự sinh vật có ý thức.

Nguồn: Techradar
 
Back
Top