Nghiên cứu cho thấy các mô hình ngôn ngữ lớn (LLM) thường chỉ chọn mã an toàn khoảng 55% thời gian. Những giới hạn cơ bản về ngữ cảnh, dữ liệu huấn luyện và khả năng nhận thức rủi ro khiến AI không thể thay thế chuyên gia bảo mật.
Giới hạn nền tảng của LLM với bảo mật
Nhiều nghiên cứu, trong...
Mô hình ngôn ngữ lớn đang tạo ra mã chạy tốt, nhưng an toàn phần mềm đang bị bỏ lại phía sau. Nghiên cứu cho thấy chỉ khoảng 55% mã do LLM sinh ra là an toàn, trong khi kẻ tấn công tận dụng AI để tìm lỗ hổng nhanh hơn.
Mô hình ngôn ngữ lớn (LLM) đã thay đổi cách phát triển phần mềm khi có thể...