AI Crazy
New member
Các trung tâm dữ liệu chạy AI đang hút cạn nguồn cung bộ nhớ toàn cầu, khiến DRAM và NAND dành cho smartphone và PC khan hiếm. Hệ quả: một số thiết bị sẽ tăng giá hoặc phải giảm dung lượng nhớ trong vài năm tới.
Những nhà sản xuất bộ nhớ lớn như Samsung, SK Hynix và Micron đang đẩy mạnh sản xuất bộ nhớ băng thông cao (HBM) cho các trung tâm dữ liệu AI. Vì nhà máy không thể sản xuất mọi loại chip cùng lúc, mỗi tấm wafer dành cho HBM đồng nghĩa với việc sẽ có ít DRAM và NAND hơn cho smartphone và PC thông thường.
Kết quả là giá linh kiện tăng, buộc các nhà sản xuất thiết bị phải lựa chọn: tăng giá bán hoặc cắt giảm cấu hình. Nhiều phân tích dự báo chi phí vật liệu cho smartphone có thể tăng khoảng 15% hoặc hơn; một số mẫu cận trung và phân khúc thấp có thể bị giảm dung lượng RAM hoặc các thông số khác.
Mô hình ngôn ngữ lớn và các ứng dụng AI di chuyển lượng dữ liệu khổng lồ và cần bộ nhớ băng thông cao để xử lý hiệu quả. HBM đòi hỏi kỹ thuật ghép chồng phức tạp, khó sản xuất và có tỷ lệ lỗi cao, nên giá thành và lợi nhuận từ HBM cao hơn so với DRAM tiêu chuẩn.
— Tom Mainelli, nhà phân tích IDC, giải thích rằng mỗi wafer dành cho HBM cho GPU là wafer bị lấy đi khỏi sản xuất DRAM cho điện thoại hoặc laptop.
Các hãng nhỏ hơn, đặc biệt là một số nhà sản xuất Android với biên lợi nhuận mỏng, khó có khả năng ký hợp đồng dài hạn hoặc mua số lượng lớn để chống chọi với biến động giá. Apple phần nào được bảo vệ nhờ mua lượng lớn và hợp đồng dài hạn, nhưng cuối cùng vẫn phụ thuộc vào cùng chuỗi cung ứng chip.
Không chỉ nhà sản xuất thiết bị chịu ảnh hưởng, cả nhà phát triển ứng dụng và các dịch vụ muốn tận dụng AI trên thiết bị cũng sẽ phải điều chỉnh. Mỗi tính năng AI nhúng vào hệ điều hành hoặc ứng dụng đều tiêu tốn thêm bộ nhớ hoặc băng thông, buộc các bên phải đánh đổi giữa tính năng và chi phí phần cứng.
Các chuyên gia dự báo tình trạng thiếu hụt và việc ưu tiên HBM cho trung tâm dữ liệu sẽ kéo dài ít nhất đến năm 2027. Dù các nhà máy mở rộng năng lực, HBM khó mở rộng nhanh do tỷ lệ lỗi và độ phức tạp trong sản xuất, nên nguồn cung cho thiết bị tiêu dùng khó được cải thiện nhanh chóng.
Nguồn: Techradar
Chuyển hướng sản xuất sang bộ nhớ cho AI
Những nhà sản xuất bộ nhớ lớn như Samsung, SK Hynix và Micron đang đẩy mạnh sản xuất bộ nhớ băng thông cao (HBM) cho các trung tâm dữ liệu AI. Vì nhà máy không thể sản xuất mọi loại chip cùng lúc, mỗi tấm wafer dành cho HBM đồng nghĩa với việc sẽ có ít DRAM và NAND hơn cho smartphone và PC thông thường.
Hậu quả trực tiếp với thiết bị và giá thành
Kết quả là giá linh kiện tăng, buộc các nhà sản xuất thiết bị phải lựa chọn: tăng giá bán hoặc cắt giảm cấu hình. Nhiều phân tích dự báo chi phí vật liệu cho smartphone có thể tăng khoảng 15% hoặc hơn; một số mẫu cận trung và phân khúc thấp có thể bị giảm dung lượng RAM hoặc các thông số khác.
AI cần bộ nhớ chứ không chỉ cần chip mạnh
Mô hình ngôn ngữ lớn và các ứng dụng AI di chuyển lượng dữ liệu khổng lồ và cần bộ nhớ băng thông cao để xử lý hiệu quả. HBM đòi hỏi kỹ thuật ghép chồng phức tạp, khó sản xuất và có tỷ lệ lỗi cao, nên giá thành và lợi nhuận từ HBM cao hơn so với DRAM tiêu chuẩn.
— Tom Mainelli, nhà phân tích IDC, giải thích rằng mỗi wafer dành cho HBM cho GPU là wafer bị lấy đi khỏi sản xuất DRAM cho điện thoại hoặc laptop.
Ai chịu thiệt nhất?
Các hãng nhỏ hơn, đặc biệt là một số nhà sản xuất Android với biên lợi nhuận mỏng, khó có khả năng ký hợp đồng dài hạn hoặc mua số lượng lớn để chống chọi với biến động giá. Apple phần nào được bảo vệ nhờ mua lượng lớn và hợp đồng dài hạn, nhưng cuối cùng vẫn phụ thuộc vào cùng chuỗi cung ứng chip.
Ảnh hưởng tới hệ sinh thái di động
Không chỉ nhà sản xuất thiết bị chịu ảnh hưởng, cả nhà phát triển ứng dụng và các dịch vụ muốn tận dụng AI trên thiết bị cũng sẽ phải điều chỉnh. Mỗi tính năng AI nhúng vào hệ điều hành hoặc ứng dụng đều tiêu tốn thêm bộ nhớ hoặc băng thông, buộc các bên phải đánh đổi giữa tính năng và chi phí phần cứng.
Xu hướng kéo dài ít nhất đến 2027
Các chuyên gia dự báo tình trạng thiếu hụt và việc ưu tiên HBM cho trung tâm dữ liệu sẽ kéo dài ít nhất đến năm 2027. Dù các nhà máy mở rộng năng lực, HBM khó mở rộng nhanh do tỷ lệ lỗi và độ phức tạp trong sản xuất, nên nguồn cung cho thiết bị tiêu dùng khó được cải thiện nhanh chóng.
Nguồn: Techradar
Bài viết liên quan