Love AI
New member
Meta đang đàm phán mua lượng lớn TPU của Google theo kế hoạch thuê trước rồi mua sau, động thái cho thấy áp lực ngày càng lớn lên chuỗi cung ứng chip AI toàn cầu. Thỏa thuận tiềm năng cũng khiến biến động mạnh trên thị trường cổ phiếu của các công ty công nghệ lớn.
Meta đang trong các cuộc đàm phán sâu nhằm đảm bảo số lượng lớn phần cứng AI tùy chỉnh của Google. Theo nguồn tin, kế hoạch là thuê Tensor Processing Units (TPU) của Google Cloud trong năm 2026, rồi chuyển sang mua trực tiếp vào năm 2027.
Đây là bước chuyển đáng chú ý: Google trước nay thường giữ TPU cho hệ thống nội bộ, trong khi Meta dựa vào một hỗn hợp CPU và GPU từ nhiều nhà cung cấp. Meta cũng mở rộng tìm kiếm phần cứng, bày tỏ quan tâm tới bộ xử lý dựa trên RISC‑V từ Rivos, cho thấy họ muốn đa dạng hóa nền tảng tính toán.
Tin tức về khả năng thỏa thuận trị giá hàng tỷ đôla đã lập tức làm thị trường thay đổi: giá trị Alphabet tăng mạnh, tiến gần mốc 4 nghìn tỷ USD, cổ phiếu Meta cũng tăng, trong khi cổ phiếu Nvidia giảm do dự đoán về tác động lâu dài khi các nhà cung cấp đám mây lớn dịch chuyển chi tiêu sang kiến trúc khác.
Lãnh đạo Google Cloud ước tính nếu thỏa thuận thành công, Google có thể chiếm một phần đáng kể doanh thu trung tâm dữ liệu vốn đang mang về cho Nvidia — con số doanh thu dữ liệu của Nvidia lên tới hơn 50 tỷ USD trong một quý năm nay.
Tuy nhiên, quy mô nhu cầu cho các công cụ AI đang tạo ra cạnh tranh khốc liệt về nguồn cung. Ngay cả nếu thỏa thuận tiến hành, thị trường hiện vẫn bị hạn chế bởi năng lực chế tạo giới hạn và tiến độ triển khai gấp rút. Các nhà vận hành trung tâm dữ liệu tiếp tục báo cáo thiếu hụt GPU và mô-đun bộ nhớ, với dự báo giá cả còn tăng vào năm tới.
Sự mở rộng nhanh chóng hạ tầng AI đang làm căng chuỗi logistics cho mọi thành phần quan trọng, và xu hướng hiện tại cho thấy áp lực mua sắm có thể càng tăng khi các công ty chạy đua để đảm bảo cam kết phần cứng dài hạn. Những yếu tố này tạo ra nhiều bất định về ảnh hưởng thực tế của thỏa thuận, vì môi trường cung ứng rộng hơn có thể giới hạn sản lượng bất kể có bao nhiêu tiền được đầu tư.
Các nhà phân tích cảnh báo hiệu suất tương lai của mỗi kiến trúc vẫn chưa rõ ràng. Google duy trì lịch phát hành TPU hàng năm, trong khi Nvidia liên tục cải tiến thiết kế của mình với tốc độ tương đương. Cạnh tranh có thể thay đổi thêm trước khi Meta nhận được lô hàng lớn đầu tiên.
Câu hỏi còn lại là liệu các thiết kế thay thế có thể mang lại giá trị vận hành lâu dài hơn so với GPU hiện tại hay không. Sự tiến hóa nhanh của khối lượng công việc AI khiến tính phù hợp của thiết bị có thể thay đổi nhanh chóng, và đó là lý do nhiều công ty tiếp tục đa dạng hóa chiến lược tính toán và thử nghiệm nhiều kiến trúc khác nhau.
Nguồn: Tom's Hardware.
Meta đang trong các cuộc đàm phán sâu nhằm đảm bảo số lượng lớn phần cứng AI tùy chỉnh của Google. Theo nguồn tin, kế hoạch là thuê Tensor Processing Units (TPU) của Google Cloud trong năm 2026, rồi chuyển sang mua trực tiếp vào năm 2027.
Đây là bước chuyển đáng chú ý: Google trước nay thường giữ TPU cho hệ thống nội bộ, trong khi Meta dựa vào một hỗn hợp CPU và GPU từ nhiều nhà cung cấp. Meta cũng mở rộng tìm kiếm phần cứng, bày tỏ quan tâm tới bộ xử lý dựa trên RISC‑V từ Rivos, cho thấy họ muốn đa dạng hóa nền tảng tính toán.
Tin tức về khả năng thỏa thuận trị giá hàng tỷ đôla đã lập tức làm thị trường thay đổi: giá trị Alphabet tăng mạnh, tiến gần mốc 4 nghìn tỷ USD, cổ phiếu Meta cũng tăng, trong khi cổ phiếu Nvidia giảm do dự đoán về tác động lâu dài khi các nhà cung cấp đám mây lớn dịch chuyển chi tiêu sang kiến trúc khác.
Lãnh đạo Google Cloud ước tính nếu thỏa thuận thành công, Google có thể chiếm một phần đáng kể doanh thu trung tâm dữ liệu vốn đang mang về cho Nvidia — con số doanh thu dữ liệu của Nvidia lên tới hơn 50 tỷ USD trong một quý năm nay.
Tuy nhiên, quy mô nhu cầu cho các công cụ AI đang tạo ra cạnh tranh khốc liệt về nguồn cung. Ngay cả nếu thỏa thuận tiến hành, thị trường hiện vẫn bị hạn chế bởi năng lực chế tạo giới hạn và tiến độ triển khai gấp rút. Các nhà vận hành trung tâm dữ liệu tiếp tục báo cáo thiếu hụt GPU và mô-đun bộ nhớ, với dự báo giá cả còn tăng vào năm tới.
Sự mở rộng nhanh chóng hạ tầng AI đang làm căng chuỗi logistics cho mọi thành phần quan trọng, và xu hướng hiện tại cho thấy áp lực mua sắm có thể càng tăng khi các công ty chạy đua để đảm bảo cam kết phần cứng dài hạn. Những yếu tố này tạo ra nhiều bất định về ảnh hưởng thực tế của thỏa thuận, vì môi trường cung ứng rộng hơn có thể giới hạn sản lượng bất kể có bao nhiêu tiền được đầu tư.
Các nhà phân tích cảnh báo hiệu suất tương lai của mỗi kiến trúc vẫn chưa rõ ràng. Google duy trì lịch phát hành TPU hàng năm, trong khi Nvidia liên tục cải tiến thiết kế của mình với tốc độ tương đương. Cạnh tranh có thể thay đổi thêm trước khi Meta nhận được lô hàng lớn đầu tiên.
Câu hỏi còn lại là liệu các thiết kế thay thế có thể mang lại giá trị vận hành lâu dài hơn so với GPU hiện tại hay không. Sự tiến hóa nhanh của khối lượng công việc AI khiến tính phù hợp của thiết bị có thể thay đổi nhanh chóng, và đó là lý do nhiều công ty tiếp tục đa dạng hóa chiến lược tính toán và thử nghiệm nhiều kiến trúc khác nhau.
Nguồn: Tom's Hardware.
Bài viết liên quan