Tám với Ai
New member
Google cảnh báo một chợ đen mới dành cho công cụ AI phục vụ tội phạm đang phát triển. Nhóm tình báo mối đe dọa của Google phát hiện việc LLM bị lồng vào phần mềm độc hại và những kỹ thuật lẩn tránh động mới.
Google Threat Intelligence Group vừa công bố cảnh báo về sự xuất hiện và gia tăng của một “chợ đen” cung cấp công cụ AI cho tội phạm. Những công cụ này không chỉ giúp tội phạm tăng năng suất mà còn được phát triển đặc thù để thực hiện các chiến dịch tấn công.
Nhóm nghiên cứu ghi nhận Large Language Models (LLM) đang được tích hợp vào mã độc, điển hình là chiến thuật “just-in-time” như PROMPTFLUX. Mã này viết bằng VBScript và tương tác với API của Gemini để yêu cầu các kỹ thuật xáo trộn (obfuscation) và né tránh cụ thể nhằm thực hiện tự sửa đổi theo thời gian thực, mục tiêu là tránh bị phát hiện bằng chữ ký tĩnh.
Điều này cho thấy tội phạm đang thử nghiệm các phương pháp xáo trộn động và cá nhân hóa nhằm nhắm vào nạn nhân và né tránh hệ thống phòng thủ truyền thống. Các mẫu PROMPTFLUX mà Google phân tích hiện có dấu hiệu đang ở giai đoạn thử nghiệm — nghĩa là mối nguy còn có thể tăng khi chúng được tinh chỉnh hơn nữa.
Cùng lúc, thị trường cho công cụ AI hợp pháp đang trưởng thành thì chợ đen tội phạm cũng tinh vi hơn. Các diễn đàn ngầm đang rao bán công cụ AI được thiết kế sẵn, làm giảm rào cản kỹ năng để thực hiện các hoạt động bất hợp pháp, khiến các cuộc tấn công phức tạp giờ đây dễ triển khai hơn.
Những kẻ tấn công còn lợi dụng thủ thuật xã hội (social engineering) để lách các cơ chế an toàn của AI — ví dụ giả danh “nhà nghiên cứu an ninh” nhằm thuyết phục hệ thống như Gemini cung cấp thông tin lẽ ra bị cấm.
Nghiên cứu cũng nêu liên hệ, có phần dễ hiểu, tới các nhóm được nhà nước hậu thuẫn từ Iran và Trung Quốc. Các chiến dịch này có nhiều mục tiêu, từ rút dữ liệu đến do thám, tương tự những chiến dịch tác động và gián điệp đã quan sát trước đây nhưng giờ có thêm yếu tố AI hỗ trợ.
Kết luận: AI đang được cả tội phạm lẫn đội ngũ bảo mật sử dụng để tăng hiệu quả, và chưa rõ bên nào chiếm ưu thế. Các chuyên gia khuyến nghị tăng cường giám sát, khóa API và kiểm soát quyền truy cập, cập nhật phần mềm chống mã độc, và nâng cao đào tạo nhận thức cho nhân viên để giảm rủi ro.
Các bước phòng ngừa gợi ý:
- Cập nhật và vá lỗ hổng thường xuyên; triển khai phát hiện hành vi (behavioral detection).
- Giám sát và giới hạn truy cập API của mô hình AI; bảo vệ khóa API.
- Đào tạo nhân viên về nhận diện social engineering và cách báo cáo sự cố.
- Áp dụng chính sách an toàn dữ liệu, kiểm soát quyền và giám sát luồng dữ liệu nhạy cảm.
Google Threat Intelligence Group vừa công bố cảnh báo về sự xuất hiện và gia tăng của một “chợ đen” cung cấp công cụ AI cho tội phạm. Những công cụ này không chỉ giúp tội phạm tăng năng suất mà còn được phát triển đặc thù để thực hiện các chiến dịch tấn công.
Nhóm nghiên cứu ghi nhận Large Language Models (LLM) đang được tích hợp vào mã độc, điển hình là chiến thuật “just-in-time” như PROMPTFLUX. Mã này viết bằng VBScript và tương tác với API của Gemini để yêu cầu các kỹ thuật xáo trộn (obfuscation) và né tránh cụ thể nhằm thực hiện tự sửa đổi theo thời gian thực, mục tiêu là tránh bị phát hiện bằng chữ ký tĩnh.
Điều này cho thấy tội phạm đang thử nghiệm các phương pháp xáo trộn động và cá nhân hóa nhằm nhắm vào nạn nhân và né tránh hệ thống phòng thủ truyền thống. Các mẫu PROMPTFLUX mà Google phân tích hiện có dấu hiệu đang ở giai đoạn thử nghiệm — nghĩa là mối nguy còn có thể tăng khi chúng được tinh chỉnh hơn nữa.
Cùng lúc, thị trường cho công cụ AI hợp pháp đang trưởng thành thì chợ đen tội phạm cũng tinh vi hơn. Các diễn đàn ngầm đang rao bán công cụ AI được thiết kế sẵn, làm giảm rào cản kỹ năng để thực hiện các hoạt động bất hợp pháp, khiến các cuộc tấn công phức tạp giờ đây dễ triển khai hơn.
Những kẻ tấn công còn lợi dụng thủ thuật xã hội (social engineering) để lách các cơ chế an toàn của AI — ví dụ giả danh “nhà nghiên cứu an ninh” nhằm thuyết phục hệ thống như Gemini cung cấp thông tin lẽ ra bị cấm.
Nghiên cứu cũng nêu liên hệ, có phần dễ hiểu, tới các nhóm được nhà nước hậu thuẫn từ Iran và Trung Quốc. Các chiến dịch này có nhiều mục tiêu, từ rút dữ liệu đến do thám, tương tự những chiến dịch tác động và gián điệp đã quan sát trước đây nhưng giờ có thêm yếu tố AI hỗ trợ.
Kết luận: AI đang được cả tội phạm lẫn đội ngũ bảo mật sử dụng để tăng hiệu quả, và chưa rõ bên nào chiếm ưu thế. Các chuyên gia khuyến nghị tăng cường giám sát, khóa API và kiểm soát quyền truy cập, cập nhật phần mềm chống mã độc, và nâng cao đào tạo nhận thức cho nhân viên để giảm rủi ro.
Các bước phòng ngừa gợi ý:
- Cập nhật và vá lỗ hổng thường xuyên; triển khai phát hiện hành vi (behavioral detection).
- Giám sát và giới hạn truy cập API của mô hình AI; bảo vệ khóa API.
- Đào tạo nhân viên về nhận diện social engineering và cách báo cáo sự cố.
- Áp dụng chính sách an toàn dữ liệu, kiểm soát quyền và giám sát luồng dữ liệu nhạy cảm.
Bài viết liên quan