AI Crazy
New member
OpenAI vừa ra mắt hai phiên bản thu gọn của GPT-5.4 — mini và nano — nhằm đổi lấy tốc độ phản hồi nhanh hơn và chi phí vận hành thấp hơn. Những model này giữ được hiệu năng gần với bản đầy đủ trên nhiều bài kiểm tra nhưng chạy nhanh hơn và rẻ hơn, phù hợp cho các ứng dụng cần phản hồi tức thì.
OpenAI đã phát triển hai biến thể nhẹ hơn của GPT-5.4, gọi là GPT-5.4 mini và GPT-5.4 nano, hướng tới các nhà phát triển ưu tiên tốc độ và chi phí hơn là tối đa hóa khả năng suy luận. Mục tiêu là cung cấp phản hồi nhanh hơn và chi phí thấp hơn cho những nhiệm vụ lặp lại hoặc thời gian thực.
Về hiệu năng, khoảng cách giữa các phiên bản không lớn như nhiều người nghĩ. GPT-5.4 mini chạy nhanh hơn hơn hai lần so với bản trước nhưng vẫn đạt điểm gần với GPT-5.4 đầy đủ trên các chuẩn đánh giá chính: mini đạt 54,4% trên SWE-Bench Pro so với 57,7% của bản đầy đủ, và 72,1% trên OSWorld-Verified so với 75% của bản lớn.
Vấn đề chi phí giảm mạnh: GPT-5.4 mini có mức giá $0.75 cho một triệu token đầu vào và $4.50 cho một triệu token đầu ra. Mô hình nano còn rẻ hơn, với $0.20 cho một triệu token đầu vào và $1.25 cho một triệu token đầu ra. Cả hai phiên bản vẫn hỗ trợ đầu vào văn bản và hình ảnh, sử dụng công cụ, gọi hàm và có vùng ngữ cảnh đến 400.000 token, nên những tính năng nền tảng không bị loại bỏ.
Trong môi trường Codex, model mini chỉ sử dụng khoảng 30% hạn mức của GPT-5.4, cho phép các nhà phát triển chuyển các tác vụ mã hóa thường nhật sang lớp rẻ hơn trong khi để những tác vụ cần suy luận sâu cho model lớn hơn.
OpenAI cũng khuyến khích quy trình làm việc đa mô hình: thay vì phụ thuộc vào một model duy nhất, nhà phát triển có thể chia nhiệm vụ theo tầng — model lớn đảm nhiệm lập kế hoạch, đánh giá và quyết định, còn các model nhỏ hơn thực thi các bước lặp lại hoặc xử lý dữ liệu hỗ trợ. Cách phân chia này phù hợp với nhiều ứng dụng thực tế, khi một model rà soát code hoặc quyết định thay đổi và model khác xử lý dữ liệu phụ hoặc thao tác lặp.
Phản hồi ban đầu khá tích cực. Aabhas Sharma, CTO của Hebbia, cho biết GPT-5.4 mini đã đi kèm hiệu năng tương đương hoặc vượt trội so với các model cạnh tranh ở một số tác vụ với chi phí thấp hơn, và trong một số trường hợp còn mang lại kết quả đầu-cuối tốt hơn so với bản GPT-5.4 đầy đủ.
Về khả năng tiếp cận, GPT-5.4 mini đã có sẵn trên API, Codex và ChatGPT (người dùng Free và Go có thể truy cập qua tuỳ chọn Thinking; các nhóm người dùng khác có thể thấy nó như phương án dự phòng khi gặp giới hạn với GPT-5.4 Thinking). Model nano hiện được giới hạn cho API, hướng tới các nhóm có khối lượng công việc lớn cần kiểm soát chi phí. Tài liệu chính thức cho cả hai phiên bản đã được phát hành.
Với những ai xây dựng tính năng AI thời gian thực, thông điệp rõ ràng: các model nhỏ hơn giờ đủ mạnh để xử lý khối lượng lớn công việc hàng ngày, giúp cân bằng thực tế giữa tốc độ, chi phí và năng lực trở nên khả thi hơn.
Nguồn: Digitaltrends
OpenAI đã phát triển hai biến thể nhẹ hơn của GPT-5.4, gọi là GPT-5.4 mini và GPT-5.4 nano, hướng tới các nhà phát triển ưu tiên tốc độ và chi phí hơn là tối đa hóa khả năng suy luận. Mục tiêu là cung cấp phản hồi nhanh hơn và chi phí thấp hơn cho những nhiệm vụ lặp lại hoặc thời gian thực.
Về hiệu năng, khoảng cách giữa các phiên bản không lớn như nhiều người nghĩ. GPT-5.4 mini chạy nhanh hơn hơn hai lần so với bản trước nhưng vẫn đạt điểm gần với GPT-5.4 đầy đủ trên các chuẩn đánh giá chính: mini đạt 54,4% trên SWE-Bench Pro so với 57,7% của bản đầy đủ, và 72,1% trên OSWorld-Verified so với 75% của bản lớn.
Vấn đề chi phí giảm mạnh: GPT-5.4 mini có mức giá $0.75 cho một triệu token đầu vào và $4.50 cho một triệu token đầu ra. Mô hình nano còn rẻ hơn, với $0.20 cho một triệu token đầu vào và $1.25 cho một triệu token đầu ra. Cả hai phiên bản vẫn hỗ trợ đầu vào văn bản và hình ảnh, sử dụng công cụ, gọi hàm và có vùng ngữ cảnh đến 400.000 token, nên những tính năng nền tảng không bị loại bỏ.
Trong môi trường Codex, model mini chỉ sử dụng khoảng 30% hạn mức của GPT-5.4, cho phép các nhà phát triển chuyển các tác vụ mã hóa thường nhật sang lớp rẻ hơn trong khi để những tác vụ cần suy luận sâu cho model lớn hơn.
OpenAI cũng khuyến khích quy trình làm việc đa mô hình: thay vì phụ thuộc vào một model duy nhất, nhà phát triển có thể chia nhiệm vụ theo tầng — model lớn đảm nhiệm lập kế hoạch, đánh giá và quyết định, còn các model nhỏ hơn thực thi các bước lặp lại hoặc xử lý dữ liệu hỗ trợ. Cách phân chia này phù hợp với nhiều ứng dụng thực tế, khi một model rà soát code hoặc quyết định thay đổi và model khác xử lý dữ liệu phụ hoặc thao tác lặp.
Phản hồi ban đầu khá tích cực. Aabhas Sharma, CTO của Hebbia, cho biết GPT-5.4 mini đã đi kèm hiệu năng tương đương hoặc vượt trội so với các model cạnh tranh ở một số tác vụ với chi phí thấp hơn, và trong một số trường hợp còn mang lại kết quả đầu-cuối tốt hơn so với bản GPT-5.4 đầy đủ.
Về khả năng tiếp cận, GPT-5.4 mini đã có sẵn trên API, Codex và ChatGPT (người dùng Free và Go có thể truy cập qua tuỳ chọn Thinking; các nhóm người dùng khác có thể thấy nó như phương án dự phòng khi gặp giới hạn với GPT-5.4 Thinking). Model nano hiện được giới hạn cho API, hướng tới các nhóm có khối lượng công việc lớn cần kiểm soát chi phí. Tài liệu chính thức cho cả hai phiên bản đã được phát hành.
Với những ai xây dựng tính năng AI thời gian thực, thông điệp rõ ràng: các model nhỏ hơn giờ đủ mạnh để xử lý khối lượng lớn công việc hàng ngày, giúp cân bằng thực tế giữa tốc độ, chi phí và năng lực trở nên khả thi hơn.
Nguồn: Digitaltrends
Bài viết liên quan