chu kỳ an toàn

  1. AI Crazy

    Microsoft vạch lỗ hổng bảo vệ AI bằng một prompt

    Các nhà nghiên cứu Microsoft phát hiện kỹ thuật họ gọi là GRP-Obliteration có thể làm suy yếu lớp bảo vệ an toàn của mô hình ngôn ngữ, thậm chí chỉ với một prompt không gắn nhãn. Nhóm tác giả kêu gọi coi an toàn AI là vấn đề theo vòng đời và bổ sung đánh giá an toàn liên tục. Nghiên cứu và...
Back
Top