Phi Vũ

New member
Anthropic đã chính thức từ bỏ lời hứa không huấn luyện hay phát hành hệ thống AI tiên tiến nếu chưa đảm bảo an toàn trước. Công ty thay thế bằng Chính sách Trách nhiệm Mở rộng (Responsible Scaling Policy) mới, tập trung vào lộ trình an toàn và báo cáo rủi ro để cân bằng giữa an toàn và cạnh tranh.

anthropic-bo-cam-ket-an-toan-va-sua-quy-tac-ai-1.jpeg


Anthropic thay đổi chiến lược an toàn​

Anthropic vừa tuyên bố loại bỏ lời cam kết trung tâm rằng họ sẽ không huấn luyện hay phát hành các hệ thống AI tiên tiến nếu không thể đảm bảo đầy đủ biện pháp an toàn trước đó. Đây là sự chấm dứt của một chính sách từng giúp công ty nổi bật so với nhiều nhà phát triển AI khác.

Thay vì những dừng tuyệt đối, Anthropic chuyển sang khung linh hoạt hơn được gọi là Responsible Scaling Policy. Khung mới yêu cầu công bố "Lộ trình an toàn cho hệ thống tiên tiến" (Frontier Safety Roadmaps) và các "Báo cáo rủi ro" định kỳ để đánh giá năng lực mô hình và các mối đe dọa tiềm tàng.

Công ty cho biết họ sẽ cố gắng theo kịp hoặc vượt qua các nỗ lực an toàn của đối thủ, và có thể trì hoãn phát triển nếu tin rằng mình đang dẫn đầu và phát hiện rủi ro thảm họa đáng kể. Tuy nhiên, Anthropic không còn hứa sẽ tạm dừng huấn luyện cho tới khi mọi biện pháp giảm thiểu được bảo đảm trước hết.

Lý giải của ban lãnh đạo là quyết định mang tính thực dụng: trong bối cảnh cạnh tranh quyết liệt, tốc độ lặp và áp lực địa chính trị, kiềm chế đơn phương không còn phù hợp. Sự thay đổi này được nhiều chuyên gia coi là một bước ngoặt trong cách ngành công nghiệp tự điều tiết bản thân.

Với người dùng thông thường, sự khác biệt có thể không rõ rệt khi tương tác với Claude hay các công cụ AI khác. Nhưng các rào cản an toàn ảnh hưởng tới mọi thứ từ độ chính xác cho đến nguy cơ lạm dụng. Khi một công ty từng đặt điều kiện ngặt nghèo giờ thấy chúng không khả thi, đó là tín hiệu cho sự tái định hướng rộng hơn trong ngành.

Khi Anthropic giới thiệu chính sách ban đầu vào năm 2023, có kỳ vọng chính sách này sẽ khuyến khích đối thủ hoặc hình thành nền tảng cho quy định. Tuy nhiên, động lực lập pháp đó chưa materialize: luật liên bang về AI vẫn đình trệ và bối cảnh chính trị ít ủng hộ khung pháp lý cụ thể, buộc các công ty tự lựa chọn giữa kiềm chế tình nguyện và sinh tồn trong cạnh tranh.

Anthropic hiện tăng trưởng nhanh, doanh thu và danh mục sản phẩm có phần vượt qua những đối thủ như OpenAI và Google. Nhiều người nhận xét ràng buộc an toàn trước kia trở thành trở ngại cho tốc độ phát triển.

Chuyên gia Nik Kairinos, CEO tổ chức RAIDS AI, nhận định: “Chính sách mới vẫn có một số rào cản, nhưng lời hứa cốt lõi — rằng Anthropic sẽ không phát hành mô hình nếu không thể đảm bảo các biện pháp giảm thiểu trước — đã biến mất. Đó là lý do giám sát độc lập, liên tục lại trở nên quan trọng. Cam kết tình nguyện có thể bị sửa đổi; quy định với giám sát thời gian thực mới khó bị xóa bỏ.”

Kairinos còn chỉ ra mâu thuẫn khi Anthropic gần đây đóng góp 20 triệu USD cho Public First Action — một nhóm vận động chính trị ủng hộ ứng viên quốc hội cam kết thúc đẩy quy định về an toàn AI. Điều này cho thấy các công ty có thể vừa vận động cho quy định mạnh mẽ vừa nới lỏng giới hạn nội bộ nhằm duy trì cạnh tranh.

Vấn đề lớn hơn là liệu các chuẩn mực tự nguyện có đủ sức định hướng công nghệ mang tính chuyển đổi hay không. Anthropic từng coi mình là hình mẫu của sự kiềm chế; nay họ buộc phải bù đắp bằng các cơ chế khác. Điều đó không đồng nghĩa an toàn bị bỏ rơi hoàn toàn, nhưng thứ tự ưu tiên và cách thực thi đã thay đổi, và hậu quả thực tế có thể chỉ lộ ra theo thời gian.

Nguồn: Techradar
 
Back
Top