Love AI
New member
Tại CES 2026, Nvidia công bố bản cập nhật phần mềm cho DGX Spark nhằm mở rộng khả năng xử lý AI tại chỗ. Bản nâng cấp hứa hẹn hỗ trợ nhiều công cụ mã nguồn mở, tăng hiệu năng và biến Spark thành nút AI on‑prem linh hoạt.
Tại CES 2026, Nvidia thông báo sẽ phát hành một bản cập nhật phần mềm cho DGX Spark để mở rộng đáng kể khả năng của thiết bị. DGX Spark sử dụng GB10 Grace Blackwell Superchip, kết hợp lõi CPU và GPU cùng 128GB bộ nhớ hợp nhất, cho phép tải và chạy các mô hình ngôn ngữ lớn tại chỗ mà không cần phụ thuộc đám mây.
Cập nhật này chỉ thay đổi bằng phần mềm và tập trung vào mở rộng hỗ trợ cho các framework và mô hình mã nguồn mở, giúp giảm công việc thiết lập tùy chỉnh và giữ cho hệ thống tương thích khi mô hình tiến hóa.
Các công cụ được thêm vào bao gồm PyTorch, vLLM, SGLang, llama.cpp và LlamaIndex. Các mô hình được hỗ trợ mở rộng gồm Qwen, các mô hình từ Meta, Stability và Wan.
Nvidia cho biết người dùng có thể kỳ vọng mức tăng hiệu năng lên đến 2,5 lần so với lúc ra mắt, chủ yếu nhờ các cập nhật TensorRT-LLM, tối ưu hóa lượng tử hóa và cải tiến giải mã. Một ví dụ được chia sẻ là Qwen-235B tăng hơn gấp đôi thông lượng khi chuyển từ FP8 sang NVFP4 kết hợp giải mã suy đoán; các workload khác như Qwen3-30B và Stable Diffusion 3.5 Large ghi nhận mức tăng nhỏ hơn.
Bản cập nhật còn giới thiệu các "playbook" cho DGX Spark, đóng gói công cụ, mô hình và hướng dẫn thiết lập thành các quy trình có thể tái sử dụng, thiết kế để chạy tại chỗ mà không phải dựng lại toàn bộ môi trường.
Trong một trình diễn, Nvidia kết hợp một MacBook Pro với DGX Spark cho quy trình sinh video AI 4K: pipeline mất khoảng tám phút khi chạy hoàn toàn trên laptop, nhưng chỉ khoảng một phút khi những bước tính toán nặng được offload sang Spark. Cách tiếp cận này giữ công cụ sáng tạo trên máy của người dùng, còn Spark đảm nhận xử lý nặng, khiến công việc AI video gần hơn với trải nghiệm tương tác thay vì chạy theo lô lâu.
DGX Spark cũng có thể hoạt động như bộ xử lý nền cho các workflow 3D, sinh tài sản khi nhà sáng tạo tiếp tục công việc chính. Thiết bị tích hợp Nsight Copilot chạy cục bộ, cung cấp trợ giúp CUDA mà không cần gửi mã hay dữ liệu lên đám mây.
Tổng hợp lại, bản cập nhật sẽ chuyển DGX Spark từ một hệ thống dành cho nhà phát triển độc lập thành một nút AI on‑prem linh hoạt, hỗ trợ laptop, workstation và triển khai edge, đồng thời giảm sự phụ thuộc vào hạ tầng đám mây.
Tại CES 2026, Nvidia thông báo sẽ phát hành một bản cập nhật phần mềm cho DGX Spark để mở rộng đáng kể khả năng của thiết bị. DGX Spark sử dụng GB10 Grace Blackwell Superchip, kết hợp lõi CPU và GPU cùng 128GB bộ nhớ hợp nhất, cho phép tải và chạy các mô hình ngôn ngữ lớn tại chỗ mà không cần phụ thuộc đám mây.
Cập nhật này chỉ thay đổi bằng phần mềm và tập trung vào mở rộng hỗ trợ cho các framework và mô hình mã nguồn mở, giúp giảm công việc thiết lập tùy chỉnh và giữ cho hệ thống tương thích khi mô hình tiến hóa.
Các công cụ được thêm vào bao gồm PyTorch, vLLM, SGLang, llama.cpp và LlamaIndex. Các mô hình được hỗ trợ mở rộng gồm Qwen, các mô hình từ Meta, Stability và Wan.
Nvidia cho biết người dùng có thể kỳ vọng mức tăng hiệu năng lên đến 2,5 lần so với lúc ra mắt, chủ yếu nhờ các cập nhật TensorRT-LLM, tối ưu hóa lượng tử hóa và cải tiến giải mã. Một ví dụ được chia sẻ là Qwen-235B tăng hơn gấp đôi thông lượng khi chuyển từ FP8 sang NVFP4 kết hợp giải mã suy đoán; các workload khác như Qwen3-30B và Stable Diffusion 3.5 Large ghi nhận mức tăng nhỏ hơn.
Bản cập nhật còn giới thiệu các "playbook" cho DGX Spark, đóng gói công cụ, mô hình và hướng dẫn thiết lập thành các quy trình có thể tái sử dụng, thiết kế để chạy tại chỗ mà không phải dựng lại toàn bộ môi trường.
Trong một trình diễn, Nvidia kết hợp một MacBook Pro với DGX Spark cho quy trình sinh video AI 4K: pipeline mất khoảng tám phút khi chạy hoàn toàn trên laptop, nhưng chỉ khoảng một phút khi những bước tính toán nặng được offload sang Spark. Cách tiếp cận này giữ công cụ sáng tạo trên máy của người dùng, còn Spark đảm nhận xử lý nặng, khiến công việc AI video gần hơn với trải nghiệm tương tác thay vì chạy theo lô lâu.
DGX Spark cũng có thể hoạt động như bộ xử lý nền cho các workflow 3D, sinh tài sản khi nhà sáng tạo tiếp tục công việc chính. Thiết bị tích hợp Nsight Copilot chạy cục bộ, cung cấp trợ giúp CUDA mà không cần gửi mã hay dữ liệu lên đám mây.
Tổng hợp lại, bản cập nhật sẽ chuyển DGX Spark từ một hệ thống dành cho nhà phát triển độc lập thành một nút AI on‑prem linh hoạt, hỗ trợ laptop, workstation và triển khai edge, đồng thời giảm sự phụ thuộc vào hạ tầng đám mây.
Bài viết liên quan