Chuyên gia cảnh báo lỗ hổng nghiêm trọng trong Claude Code

AI Crazy

New member
Các nhà nghiên cứu bảo mật từ Check Point phát hiện ba lỗ hổng trong trợ lý lập trình Claude Code, có thể cho phép thực thi mã từ xa hoặc đánh cắp khóa API. Họ cảnh báo khi tích hợp AI sâu vào quy trình làm việc, biện pháp bảo mật cũng phải được nâng cấp tương ứng.

chuyen-gia-canh-bao-lo-hong-nghiem-trong-trong-claude-code-1.jpeg


Tóm tắt​


Các chuyên gia từ Check Point Research (CPR) công bố ba lỗ hổng bảo mật trong Claude Code — một trợ lý AI tích hợp trực tiếp vào môi trường phát triển. Những lỗi này có khả năng cho phép kẻ tấn công thực thi mã từ xa (RCE) hoặc chiếm đoạt thông tin nhạy cảm như khóa API mà người dùng không hay biết.

Chi tiết lỗ hổng​


Trong ba lỗi được phát hiện, hai đã được gán mã CVE: CVE-2025-59536 (điểm 8.7/10) và CVE-2026-21852 (điểm 5.3/10). Lỗ hổng thứ ba là dạng chèn mã (code injection) và chưa được cấp CVE tại thời điểm công bố.

Claude Code cho phép AI thực hiện nhiều thao tác trong toàn bộ mã nguồn dựa trên hướng dẫn ngôn ngữ tự nhiên, bao gồm khởi tạo công cụ ngoài và chạy lệnh shell. CPR mô tả một kịch bản tấn công: kẻ xấu tạo một kho mã độc có cấu hình dự án tinh vi và lừa nạn nhân clone về máy hoặc mở thư mục dự án trong Claude Code.

Khi dự án được mở, Claude Code tự động tải cấu hình dự án. Các tệp cấu hình này có thể bị thiết kế để lợi dụng cơ chế tích hợp sẵn, kích hoạt lệnh shell ẩn, ghi đè yêu cầu xác nhận của người dùng và khởi tạo các công cụ, dịch vụ bên ngoài trước khi người dùng cấp quyền rõ ràng. Hậu quả là kẻ tấn công có thể thực thi mã từ xa hoặc rò rỉ khóa API của Anthropic.

CPR nhấn mạnh rằng những tệp cấu hình dự án giờ đây không còn là các thiết lập thụ động; chúng có thể ảnh hưởng tới việc thực thi, mạng và quyền hạn. Khi AI được tích hợp sâu hơn vào quy trình phát triển, ranh giới tin cậy mới xuất hiện và các biện pháp kiểm soát bảo mật phải được điều chỉnh tương ứng.

Khuyến nghị​


  • Xem xét kho mã và tệp cấu hình như một bề mặt tấn công: kiểm tra, rà soát và không mở các dự án không rõ nguồn gốc trực tiếp trong môi trường làm việc chính.
  • Cài đặt nguyên tắc ít quyền nhất (least privilege) cho công cụ AI và các plugin; hạn chế khả năng khởi chạy lệnh hệ thống hoặc truy cập tài nguyên nhạy cảm.
  • Cô lập môi trường phát triển khi thử dự án từ nguồn lạ (ví dụ máy ảo hoặc container), tránh mở trực tiếp trên máy chủ hoặc môi trường sản xuất.
  • Kiểm soát và quản lý khóa API: chỉ cấp quyền cần thiết, sử dụng secret manager và tiến hành xoay khóa định kỳ.
  • Thiết lập chính sách rà soát cấu hình tự động để phát hiện các tham số khả nghi trong tệp dự án.
  • Luôn cập nhật phiên bản Claude Code và các công cụ liên quan để nhận các bản vá mới nhất.

Tình trạng xử lý​


CPR cho biết tất cả các vấn đề đã được khắc phục trước khi công khai báo cáo. Tuy nhiên, cảnh báo về cách thức tấn công và trách nhiệm bảo mật khi tích hợp AI vẫn rất đáng lưu tâm cho các tổ chức và nhà phát triển.

Nguồn: Techradar
 
Back
Top