AI Crazy
New member
Nvidia và CoreWeave vừa công bố mở rộng quan hệ đối tác, kết hợp triển khai hạ tầng, đầu tư vốn và quyền tiếp cận sớm nền tảng tính toán mới. Thỏa thuận bao gồm khoản đầu tư 2 tỷ USD của Nvidia và đặt CoreWeave vào nhóm nhà cung cấp đám mây đầu tiên triển khai thế hệ Vera Rubin.
Hướng tiếp cận này phản ánh thực tế rằng sự mở rộng AI ngày càng phụ thuộc vào việc phối hợp giữa tài chính và cung cấp năng lực tính toán, từ mặt bằng đến nguồn điện và hệ thống làm mát.
Nguồn: Techradar
Nvidia và CoreWeave thắt chặt hợp tác
Nvidia đã ký thỏa thuận mở rộng với CoreWeave, liên kết chặt chẽ giữa việc triển khai hạ tầng, đầu tư vốn và quyền truy cập sớm vào các nền tảng tính toán tiếp theo. Thỏa thuận đưa CoreWeave vào nhóm những nhà cung cấp đám mây được kỳ vọng đầu tiên triển khai thế hệ Vera Rubin, trong khi Nvidia cam kết mua cổ phần trực tiếp trị giá 2 tỷ USD vào CoreWeave.Tăng tốc xây dựng các “nhà máy AI” quy mô lớn
Trung tâm của thỏa thuận là đẩy nhanh việc xây dựng các nhà máy AI; CoreWeave đặt mục tiêu xây hơn 5 gigawatt công suất tới năm 2030. Nvidia không chỉ cung cấp bộ tăng tốc (accelerator) mà còn hỗ trợ mua đất, cấp điện và hạ tầng vật lý, liên kết nguồn vốn trực tiếp với tiến độ triển khai phần cứng.Hướng tiếp cận này phản ánh thực tế rằng sự mở rộng AI ngày càng phụ thuộc vào việc phối hợp giữa tài chính và cung cấp năng lực tính toán, từ mặt bằng đến nguồn điện và hệ thống làm mát.
Đồng bộ phần mềm, vận hành và phần cứng
CoreWeave sẽ kiểm thử và xác thực ngăn xếp đám mây cùng công cụ vận hành của mình song song với các kiến trúc tham chiếu của Nvidia. Kế hoạch triển khai nhiều thế hệ nền tảng Nvidia — bao gồm Rubin, Vera CPU và hệ thống lưu trữ BlueField — cho thấy CoreWeave được dùng như môi trường thử nghiệm cho triển khai toàn stack thay vì từng thành phần rời rạc.Vera CPU: phương án CPU độc lập
Nvidia giới thiệu Vera CPU như một tùy chọn máy chủ độc lập trong ngăn xếp hạ tầng, nhằm giải quyết điểm nghẽn CPU ngày càng rõ khi các workload AI theo hướng đại lý (agentic) tăng lên. Vera dùng kiến trúc Arm tùy chỉnh, nhiều lõi, dung lượng bộ nhớ nhất quán lớn và liên kết băng thông cao, cho phép khách hàng chọn CPU cao cấp như một phần riêng biệt thay vì phải mua cả hệ thống theo kiểu rack đầy đủ.Tác động tới thị trường và chuỗi cung ứng
Quan hệ này phản ánh hai xu hướng chính: CPU máy chủ đang nổi lên thành điểm áp lực trong chuỗi cung ứng cho ứng dụng AI, và việc bán CPU cao cấp độc lập có thể tạo lối vào rẻ hơn cho một số triển khai so với mua toàn bộ rack. Việc liên kết tài chính, hạ tầng và phần mềm cũng làm nổi bật vai trò của các đối tác chiến lược trong việc đẩy nhanh tốc độ triển khai cơ sở hạ tầng AI quy mô lớn.Nguồn: Techradar
Bài viết liên quan