OpenAI: mô hình mới tiềm ẩn rủi ro an ninh mạng cao

Love AI

New member
OpenAI thừa nhận các thế hệ mô hình AI trong tương lai có thể mang lại rủi ro an ninh mạng cao, vì về lý thuyết chúng có thể hỗ trợ phát triển khai thác zero-day hoặc trợ giúp các chiến dịch gián điệp tinh vi. Đồng thời, công ty cũng nhấn mạnh những lợi ích tiềm năng cho phòng thủ mạng và đang đầu tư để giảm thiểu lạm dụng.

tLQ5v9nqQANArzHFugCRRP-1920-80.jpg


OpenAI cảnh báo rằng các mô hình ngôn ngữ lớn (LLM) tương lai có thể tạo ra nguy cơ an ninh mạng cao. Về lý thuyết, những mô hình mạnh hơn có thể giúp phát triển khai thác zero-day từ xa hoặc hỗ trợ các chiến dịch tấn công tinh vi chống lại các hệ thống được bảo vệ kỹ lưỡng.

Công ty cho biết năng lực tấn công trong các mô hình AI đang "tiến bộ nhanh" nhưng họ nhìn nhận điều này theo hướng tích cực, vì cùng với rủi ro cũng xuất hiện "những lợi ích đáng kể cho phòng thủ mạng". OpenAI đang cố gắng cân bằng giữa khả năng hữu ích và nguy cơ bị lạm dụng.

Để ứng phó, OpenAI tuyên bố đang đầu tư vào việc củng cố mô hình phục vụ các tác vụ phòng thủ an ninh mạng và phát triển công cụ giúp người phòng thủ dễ dàng hơn trong các quy trình như kiểm tra mã và vá lỗ hổng. Công ty nhấn mạnh các biện pháp kỹ thuật và vận hành cần kết hợp với nhau để giảm thiểu rủi ro.

Những biện pháp đề xuất bao gồm kiểm soát truy cập, gia cố hạ tầng, kiểm soát lưu lượng đầu ra (egress controls) và giám sát liên tục. OpenAI cho rằng đây là cách hiệu quả nhất để vừa khai thác lợi ích vừa hạn chế nguy cơ lạm dụng công nghệ.

OpenAI cũng sẽ giới thiệu một chương trình cấp bậc nhằm cung cấp khả năng cải tiến cho người dùng và khách hàng làm việc trong lĩnh vực an ninh mạng, theo từng mức độ quyền hạn. Mục tiêu là giúp các chuyên gia phòng thủ có công cụ mạnh hơn nhưng vẫn kiểm soát được rủi ro.

Bên cạnh đó, OpenAI dự định thành lập một nhóm tư vấn mang tên Frontier Risk Council gồm những chuyên gia an ninh mạng dày dặn kinh nghiệm. Nhóm này sẽ tư vấn về ranh giới giữa khả năng hữu ích, có trách nhiệm và nguy cơ lạm dụng, những kiến nghị của họ sẽ trực tiếp ảnh hưởng đến đánh giá và biện pháp bảo vệ của OpenAI.

Công ty cũng lưu ý rằng nguy cơ lạm dụng có thể đến từ bất kỳ "mô hình tiên phong" nào trong ngành, do đó họ tham gia Frontier Model Forum để chia sẻ kiến thức và thực hành tốt nhất với các đối tác. OpenAI cho rằng mô hình hoá mối đe dọa (threat modeling) là công cụ quan trọng để xác định cách AI có thể bị vũ khí hóa, đâu là nút cổ chai quan trọng với các tác nhân đe dọa và mô hình tiên phong có thể tạo ra những nâng cấp đáng kể cho kẻ xấu.
 
Back
Top