AI Crazy
New member
Cuộc cách mạng viết mã do AI tạo ra đang đẩy ngành phần mềm vào trạng thái hỗn loạn. Khi AI không chỉ nói mà còn hành động, các rủi ro về quyền truy cập, trách nhiệm và giám sát trở nên cấp thiết hơn bao giờ hết.
Có một từ tóm gọn thực trạng ngành phần mềm hiện nay: hỗn loạn. Tôi định viết “đang hướng đến”, nhưng điều đó chỉ đúng vài tháng trước — giờ đây hỗn loạn đã ở đây.
AI coding đã khiến việc thay đổi phần mềm trở nên rẻ, nên mọi người bắt đầu sửa đổi mọi thứ cùng lúc: cơ sở hạ tầng, công cụ nội bộ, API, mô hình bảo mật, pipeline CI và cả bề mặt sản phẩm.
Chi phí tạo mã giảm nhanh, nhưng chi phí để hiểu mã đó làm gì thì không. Chính sự mất cân bằng này là nơi những “con quỷ AI” ẩn náu.
Trong vài năm qua, cuộc trò chuyện bảo mật AI ồn ào nhất thường xoay quanh việc nhân viên dán dữ liệu nhạy cảm vào chatbot. Đó là một mối lo thật, nhưng không phải vấn đề sẽ định nghĩa làn sóng sự cố tiếp theo — bởi sự chuyển dịch thực sự là AI biết hành động chứ không chỉ biết nói.
Trợ lý lập trình giờ có thể mở pull request, agent gộp nhánh, tạo ticket, kích hoạt job CI, truy vấn cơ sở dữ liệu và gọi API nội bộ. Ở nhiều tổ chức, những hệ thống này không còn là thử nghiệm mà đã trở thành một phần của quy trình làm việc.
Điều này thay đổi hạng mục rủi ro: “shadow AI” không còn chỉ là vấn đề chính sách mà trở thành vấn đề quyền truy cập đặc quyền.
Khi agent có thể hành động, câu hỏi không còn là “Ai đã dán thứ sai vào prompt?” mà là “Ai đã làm gì, dùng thông tin đăng nhập nào và theo quyền hạn nào?” Hầu hết tổ chức vẫn chưa trả lời được điều đó một cách rõ ràng.
Một cách diễn giải phổ biến là đội bảo mật đi sau tốc độ áp dụng AI. Chính xác hơn là họ bị bỏ qua. AI được áp dụng theo tốc độ sản phẩm, trong khi đánh giá bảo mật theo tốc độ tổ chức — khi va chạm, phản ứng mặc định thường là: ra tính năng trước, quản trị sau.
Phần “sau” thường xuất hiện trong phản ứng sự cố, khi bạn thấy log chỉ nói “bot” đã làm điều gì đó nhưng không thể xác định ai khởi tạo, chính sách nào được đánh giá hay giới hạn phạm vi nào được áp dụng.
Chúng ta đang xây dựng workflow có thể thực hiện các hành động mạnh mẽ, rồi tỏ vẻ ngạc nhiên khi không thể giải thích những hành động đó sau cùng.
Điều này là mối lo cho lãnh đạo, không vì AI huyền bí mà vì nó khiến những sai lầm cũ lặp lại ở quy mô lớn. Chúng ta đã mất nhiều năm để loại bỏ thông tin đăng nhập chia sẻ và sự sở hữu mơ hồ; các workflow theo kiểu agent có xu hướng hồi sinh cả hai.
Một mô hình tôi thấy nhiều lần: một nhóm tạo mẫu agent để tăng tốc công việc kỹ thuật. Nó bắt đầu vô hại: đọc ticket, đề xuất thay đổi, tự động tạo pull request — rồi dần dần đòi hỏi quyền hạn lớn hơn để hoàn thành nhiệm vụ.
Nguồn: Techradar
Có một từ tóm gọn thực trạng ngành phần mềm hiện nay: hỗn loạn. Tôi định viết “đang hướng đến”, nhưng điều đó chỉ đúng vài tháng trước — giờ đây hỗn loạn đã ở đây.
AI coding đã khiến việc thay đổi phần mềm trở nên rẻ, nên mọi người bắt đầu sửa đổi mọi thứ cùng lúc: cơ sở hạ tầng, công cụ nội bộ, API, mô hình bảo mật, pipeline CI và cả bề mặt sản phẩm.
Chi phí tạo mã giảm nhanh, nhưng chi phí để hiểu mã đó làm gì thì không. Chính sự mất cân bằng này là nơi những “con quỷ AI” ẩn náu.
Trong vài năm qua, cuộc trò chuyện bảo mật AI ồn ào nhất thường xoay quanh việc nhân viên dán dữ liệu nhạy cảm vào chatbot. Đó là một mối lo thật, nhưng không phải vấn đề sẽ định nghĩa làn sóng sự cố tiếp theo — bởi sự chuyển dịch thực sự là AI biết hành động chứ không chỉ biết nói.
Trợ lý lập trình giờ có thể mở pull request, agent gộp nhánh, tạo ticket, kích hoạt job CI, truy vấn cơ sở dữ liệu và gọi API nội bộ. Ở nhiều tổ chức, những hệ thống này không còn là thử nghiệm mà đã trở thành một phần của quy trình làm việc.
Điều này thay đổi hạng mục rủi ro: “shadow AI” không còn chỉ là vấn đề chính sách mà trở thành vấn đề quyền truy cập đặc quyền.
Khi agent có thể hành động, câu hỏi không còn là “Ai đã dán thứ sai vào prompt?” mà là “Ai đã làm gì, dùng thông tin đăng nhập nào và theo quyền hạn nào?” Hầu hết tổ chức vẫn chưa trả lời được điều đó một cách rõ ràng.
Một cách diễn giải phổ biến là đội bảo mật đi sau tốc độ áp dụng AI. Chính xác hơn là họ bị bỏ qua. AI được áp dụng theo tốc độ sản phẩm, trong khi đánh giá bảo mật theo tốc độ tổ chức — khi va chạm, phản ứng mặc định thường là: ra tính năng trước, quản trị sau.
Phần “sau” thường xuất hiện trong phản ứng sự cố, khi bạn thấy log chỉ nói “bot” đã làm điều gì đó nhưng không thể xác định ai khởi tạo, chính sách nào được đánh giá hay giới hạn phạm vi nào được áp dụng.
Chúng ta đang xây dựng workflow có thể thực hiện các hành động mạnh mẽ, rồi tỏ vẻ ngạc nhiên khi không thể giải thích những hành động đó sau cùng.
Điều này là mối lo cho lãnh đạo, không vì AI huyền bí mà vì nó khiến những sai lầm cũ lặp lại ở quy mô lớn. Chúng ta đã mất nhiều năm để loại bỏ thông tin đăng nhập chia sẻ và sự sở hữu mơ hồ; các workflow theo kiểu agent có xu hướng hồi sinh cả hai.
Một mô hình tôi thấy nhiều lần: một nhóm tạo mẫu agent để tăng tốc công việc kỹ thuật. Nó bắt đầu vô hại: đọc ticket, đề xuất thay đổi, tự động tạo pull request — rồi dần dần đòi hỏi quyền hạn lớn hơn để hoàn thành nhiệm vụ.
Nguồn: Techradar
Bài viết liên quan