Tám với Ai
New member
AI đã trở thành vũ khí trong tay tội phạm mạng, làm gia tăng sức mạnh của ransomware và các cuộc tấn công DDoS. Khi mã độc AI có thể vượt qua CAPTCHA và giả dạng người dùng thật, các biện pháp phòng thủ truyền thống đang mất dần hiệu quả.
AI đã sớm được tích hợp vào bộ công cụ của tội phạm mạng. Nghiên cứu từ MIT Sloan cho thấy trong giai đoạn 2023–2024 có tới 80% các vụ tấn công ransomware sử dụng AI ở một mức độ nào đó, và xu hướng này tiếp tục tăng nhanh vào năm 2025.
Các mô hình chuyên biệt như GhostGPT, vốn bị loại bỏ các ràng buộc đạo đức, đang được dùng để viết email lừa đảo, sinh mã độc và dựng website độc hại. Các bot như AkiraBot tận dụng AI để vượt CAPTCHA và làm ngập trang web bằng thư rác. Tháng 8/2025, hãng an ninh ESET phát hiện PromptLock — ransomware đầu tiên được viết bởi AI — cho thấy mã độc giờ đây có thể được sinh ra ngay lập tức bởi mô hình ngôn ngữ lớn thay vì do con người mã hóa sẵn.
Sự áp dụng AI quy mô lớn của kẻ tấn công làm giảm hiệu quả của các biện pháp phòng thủ truyền thống, và bảo vệ chống DDoS không phải ngoại lệ. Trong các dạng tấn công DDoS, lớp ứng dụng (L7) là khó khắc phục nhất vì lượng truy cập làm quá tải máy chủ trông giống như lưu lượng hợp lệ.
Việc hầu hết trang web hiện nay sử dụng HTTPS càng khiến việc tách yêu cầu độc hại khỏi hoạt động người dùng thật trở nên khó hơn, bởi hầu hết lưu lượng đã được mã hóa. Trong nhiều năm, cách kháng cự cơ bản là phân biệt con người và bot rồi chặn bot, bằng CAPTCHA hoặc các thử thách tương tự.
Giả định rằng con người vượt qua thử thách còn bot thì không đã trở nên lỗi thời. Malware trang bị AI giờ có thể giải CAPTCHA và hòa vào lưu lượng hợp lệ, lặng lẽ góp phần vào mạng botnet. Nghiên cứu từ ETH Zurich đã chứng minh mô hình AI có thể giải reCAPTCHAv2 của Google ở mức tương đương con người. Nói ngắn gọn, các hệ thống phòng thủ không còn có thể tin cậy vào việc phân biệt người và máy.
Thay vì tập trung vào việc một truy cập là người hay bot, xu hướng mới là lọc theo ý định. Phương pháp này đánh giá hành vi: người dùng đang làm gì trên trang và mục đích là xây dựng hay phá hoại? Hoạt động có phù hợp với hành vi khách hàng thực như đọc nội dung, hoàn tất giao dịch, yêu cầu dữ liệu hợp lý hay chỉ là việc lặp lại vô nghĩa để tạo tải? Chuyển trọng tâm sang đánh giá ý định thay vì bài kiểm tra trí tuệ cho phép các bộ phận an ninh có cơ hội phát hiện và giảm thiểu các cuộc tấn công AI-driven DDoS hiệu quả hơn.
Với khả năng giả dạng ngày càng tinh vi của mã độc AI, tổ chức, đặc biệt là doanh nghiệp lớn, phải chuẩn bị trước rủi ro vượt xa gián đoạn tạm thời: tổn hại danh tiếng, mất niềm tin khách hàng và thậm chí ảnh hưởng đến giá cổ phiếu. Nâng cấp chiến lược phòng thủ — bao gồm áp dụng lọc theo ý định và phân tích hành vi sâu — là bước cần thiết để tăng khả năng phòng vệ trước mối đe dọa mới này.
Nguồn
AI đã sớm được tích hợp vào bộ công cụ của tội phạm mạng. Nghiên cứu từ MIT Sloan cho thấy trong giai đoạn 2023–2024 có tới 80% các vụ tấn công ransomware sử dụng AI ở một mức độ nào đó, và xu hướng này tiếp tục tăng nhanh vào năm 2025.
Các mô hình chuyên biệt như GhostGPT, vốn bị loại bỏ các ràng buộc đạo đức, đang được dùng để viết email lừa đảo, sinh mã độc và dựng website độc hại. Các bot như AkiraBot tận dụng AI để vượt CAPTCHA và làm ngập trang web bằng thư rác. Tháng 8/2025, hãng an ninh ESET phát hiện PromptLock — ransomware đầu tiên được viết bởi AI — cho thấy mã độc giờ đây có thể được sinh ra ngay lập tức bởi mô hình ngôn ngữ lớn thay vì do con người mã hóa sẵn.
Sự áp dụng AI quy mô lớn của kẻ tấn công làm giảm hiệu quả của các biện pháp phòng thủ truyền thống, và bảo vệ chống DDoS không phải ngoại lệ. Trong các dạng tấn công DDoS, lớp ứng dụng (L7) là khó khắc phục nhất vì lượng truy cập làm quá tải máy chủ trông giống như lưu lượng hợp lệ.
Việc hầu hết trang web hiện nay sử dụng HTTPS càng khiến việc tách yêu cầu độc hại khỏi hoạt động người dùng thật trở nên khó hơn, bởi hầu hết lưu lượng đã được mã hóa. Trong nhiều năm, cách kháng cự cơ bản là phân biệt con người và bot rồi chặn bot, bằng CAPTCHA hoặc các thử thách tương tự.
Giả định rằng con người vượt qua thử thách còn bot thì không đã trở nên lỗi thời. Malware trang bị AI giờ có thể giải CAPTCHA và hòa vào lưu lượng hợp lệ, lặng lẽ góp phần vào mạng botnet. Nghiên cứu từ ETH Zurich đã chứng minh mô hình AI có thể giải reCAPTCHAv2 của Google ở mức tương đương con người. Nói ngắn gọn, các hệ thống phòng thủ không còn có thể tin cậy vào việc phân biệt người và máy.
Thay vì tập trung vào việc một truy cập là người hay bot, xu hướng mới là lọc theo ý định. Phương pháp này đánh giá hành vi: người dùng đang làm gì trên trang và mục đích là xây dựng hay phá hoại? Hoạt động có phù hợp với hành vi khách hàng thực như đọc nội dung, hoàn tất giao dịch, yêu cầu dữ liệu hợp lý hay chỉ là việc lặp lại vô nghĩa để tạo tải? Chuyển trọng tâm sang đánh giá ý định thay vì bài kiểm tra trí tuệ cho phép các bộ phận an ninh có cơ hội phát hiện và giảm thiểu các cuộc tấn công AI-driven DDoS hiệu quả hơn.
Với khả năng giả dạng ngày càng tinh vi của mã độc AI, tổ chức, đặc biệt là doanh nghiệp lớn, phải chuẩn bị trước rủi ro vượt xa gián đoạn tạm thời: tổn hại danh tiếng, mất niềm tin khách hàng và thậm chí ảnh hưởng đến giá cổ phiếu. Nâng cấp chiến lược phòng thủ — bao gồm áp dụng lọc theo ý định và phân tích hành vi sâu — là bước cần thiết để tăng khả năng phòng vệ trước mối đe dọa mới này.
Nguồn
Bài viết liên quan