Tin tặc lợi dụng AI: nhái Gemini và phát triển mã độc

Phi Vũ

New member
Báo cáo mới từ Google cho thấy tội phạm mạng đang tận dụng AI theo nhiều cách sáng tạo và nguy hiểm — từ 'nhái' mô hình ngôn ngữ lớn đến tích hợp AI vào phần mềm độc để né hệ thống phát hiện. Các tổ chức bảo mật cũng đang dùng AI để phát hiện hành vi bất thường và ngăn chặn tấn công.

tin-tac-loi-dung-ai-nhai-gemini-va-phat-trien-ma-doc-1.jpeg


Google cảnh báo về việc lạm dụng AI trong tấn công mạng​

Google Threat Intelligence Group (GTIG) nhận thấy tin tặc ngày càng dùng AI nhiều hơn để tối ưu cuộc tấn công. Những kỹ thuật này giúp kẻ xấu sao chép mô hình, thu thập thông tin, tạo chiến dịch lừa đảo tinh vi và khiến phần mềm độc hoạt động linh hoạt hơn để né các phương pháp phát hiện truyền thống.

Phương thức tấn công chính​

  • Tấn công chưng cất (distillation attacks): Kẻ tấn công gửi lượng lớn truy vấn tới mô hình ngôn ngữ lớn (LLM) để hiểu cách nó suy luận, rồi dùng phản hồi thu được để huấn luyện mô hình nhái. Mô hình nhái này có thể dùng để phân tích điểm yếu của dịch vụ gốc, tránh thanh toán dịch vụ hợp lệ hoặc tìm cách khai thác.
  • Thu thập tình báo và social engineering: Các nhóm được nhà nước bảo trợ đã dùng AI để gom thông tin, xây dựng tiền đề tiếp xúc và lên kế hoạch tấn công. AI giúp tổng hợp dữ liệu nhanh, tạo kịch bản giao tiếp thuyết phục hơn để lừa nạn nhân.
  • Phishing quy mô lớn: AI được sử dụng để tạo bộ công cụ phishing rất thuyết phục, giúp phân phối rộng rãi nhằm thu thập thông tin đăng nhập và dữ liệu nhạy cảm.
  • AI trong phần mềm độc: Một số mã độc tích hợp mô hình AI để thích nghi và né phát hiện. Ví dụ được GTIG theo dõi với tên HONESTCUE sử dụng Gemini trong quá trình tấn công để viết lại và thực thi mã, giúp tránh phát hiện dựa trên mạng và phân tích tĩnh.
  • Nhu cầu công cụ AI tùy chỉnh cho tội phạm: Hiện kẻ xấu dùng chủ yếu mô hình nhái, nhưng nếu các công cụ chuyên biệt viết mã độc bằng AI trở nên phổ biến, chúng có thể được lan truyền nhanh và làm tăng tính nguy hiểm của các chiến dịch.

Bảo vệ và phản ứng​

Nhiều giải pháp bảo mật đang triển khai AI để đối phó: thay vì chỉ phân tích tĩnh, AI có thể theo dõi hành vi thời gian thực để nhận diện phần mềm độc được tăng cường AI. AI cũng được dùng để quét email và tin nhắn nhằm phát hiện phishing ở quy mô lớn, điều mà con người không thể làm kịp.

Google cũng chủ động tìm kiếm việc sử dụng AI có thể gây hại trong Gemini, đồng thời phát triển các công cụ hỗ trợ tìm kiếm lỗ hổng (Big Sleep) và vá lỗi (CodeMender). Các tổ chức và người dùng nên tăng cường vá phần mềm, đào tạo nhận diện lừa đảo và áp dụng giải pháp phát hiện hành vi để giảm thiểu rủi ro từ các cuộc tấn công sử dụng AI.

Nguồn: Techradar
 
Back
Top