Love AI
New member
Các dự báo ngành cảnh báo nhu cầu tính toán cho AI sẽ khiến chi tiêu đầu tư vào trung tâm dữ liệu tăng vọt, đe dọa làm quá tải chuỗi cung ứng và thị trường năng lượng. Một lời giải khả thi đang xuất hiện: rời bỏ kiến trúc transformer để chuyển sang kỷ nguyên hậu-transformer.
Ngành công nghiệp dự kiến phải chi hàng trăm tỷ đô la cho các trung tâm dữ liệu trong những năm tới để theo kịp nhu cầu tính toán của AI. Bain & Company ước tính chi tiêu hàng năm có thể đạt 500 tỷ USD mỗi năm vào năm 2030; những dự án như Stargate do SoftBank, OpenAI và Oracle dẫn dắt đang được triển khai để đáp ứng nhu cầu này.
Các nhà vận hành lưới điện cảnh báo rằng sự mở rộng hạ tầng CNTT do AI dẫn dắt có nguy cơ làm suy yếu chuỗi cung ứng và gây bất ổn cho thị trường năng lượng nếu vẫn tiếp tục theo quỹ đạo tăng quy mô hiện nay. Việc tăng cường hàng loạt trung tâm dữ liệu không chỉ là thách thức tài chính mà còn là thách thức về nguồn cung điện và ổn định lưới.
Gốc rễ của vấn đề nằm ở kinh tế đơn vị của các mô hình ngôn ngữ lớn (LLM) và, cụ thể hơn, kiến trúc transformer vốn tiêu tốn nhiều năng lượng trong cả giai đoạn huấn luyện lẫn suy diễn. Thêm vào đó, xu hướng phát triển các "mô hình suy luận" (reasoning models) — tạo ra nhiều token ẩn để suy nghĩ trước khi đưa ra đáp án — đã làm tăng mạnh lượng token cần xử lý.
Một nghiên cứu năm 2025 chỉ ra sự khác biệt về tiêu thụ năng lượng: một prompt dài với GPT-4o tiêu thụ khoảng 0.42 Wh, trong khi prompt dài với các mô hình suy luận có thể tiêu thụ tới 33.634 Wh (DeepSeek-R1) hoặc 30.495 Wh (GPT-4.5). Mức tiêu thụ này tương đương hoặc vượt quá năng lượng cần để sạc một chiếc smartphone cho mỗi prompt, cho thấy chi phí năng lượng cho mỗi lần suy luận đang gia tăng đáng kể.
Việc dựa vào tăng số token và tăng sức mạnh suy diễn làm phương thức chủ đạo để cải thiện mô hình đặt ra dấu hỏi lớn về tính khả thi kinh tế và bền vững của thị trường công cụ AI. Cần có một bước chuyển đổi mô hình tư duy: rời khỏi kiến trúc transformer và khám phá các hướng tiếp cận mới hiệu quả hơn về mặt năng lượng — khởi đầu cho kỷ nguyên hậu-transformer.
Để khắc phục khủng hoảng năng lượng, ngành AI phải đầu tư vào các kiến trúc thay thế ít tốn kém năng lượng hơn, tối ưu hóa phần cứng chuyên dụng và phần mềm để giảm số token cần thiết, cùng các kỹ thuật làm giảm chi phí suy diễn. Chuyển đổi đó không chỉ là vấn đề kỹ thuật mà còn là yêu cầu cấp thiết để đảm bảo phát triển AI bền vững về mặt kinh tế và môi trường.
Nguồn: Techradar
Ngành công nghiệp dự kiến phải chi hàng trăm tỷ đô la cho các trung tâm dữ liệu trong những năm tới để theo kịp nhu cầu tính toán của AI. Bain & Company ước tính chi tiêu hàng năm có thể đạt 500 tỷ USD mỗi năm vào năm 2030; những dự án như Stargate do SoftBank, OpenAI và Oracle dẫn dắt đang được triển khai để đáp ứng nhu cầu này.
Các nhà vận hành lưới điện cảnh báo rằng sự mở rộng hạ tầng CNTT do AI dẫn dắt có nguy cơ làm suy yếu chuỗi cung ứng và gây bất ổn cho thị trường năng lượng nếu vẫn tiếp tục theo quỹ đạo tăng quy mô hiện nay. Việc tăng cường hàng loạt trung tâm dữ liệu không chỉ là thách thức tài chính mà còn là thách thức về nguồn cung điện và ổn định lưới.
Gốc rễ của vấn đề nằm ở kinh tế đơn vị của các mô hình ngôn ngữ lớn (LLM) và, cụ thể hơn, kiến trúc transformer vốn tiêu tốn nhiều năng lượng trong cả giai đoạn huấn luyện lẫn suy diễn. Thêm vào đó, xu hướng phát triển các "mô hình suy luận" (reasoning models) — tạo ra nhiều token ẩn để suy nghĩ trước khi đưa ra đáp án — đã làm tăng mạnh lượng token cần xử lý.
Một nghiên cứu năm 2025 chỉ ra sự khác biệt về tiêu thụ năng lượng: một prompt dài với GPT-4o tiêu thụ khoảng 0.42 Wh, trong khi prompt dài với các mô hình suy luận có thể tiêu thụ tới 33.634 Wh (DeepSeek-R1) hoặc 30.495 Wh (GPT-4.5). Mức tiêu thụ này tương đương hoặc vượt quá năng lượng cần để sạc một chiếc smartphone cho mỗi prompt, cho thấy chi phí năng lượng cho mỗi lần suy luận đang gia tăng đáng kể.
Việc dựa vào tăng số token và tăng sức mạnh suy diễn làm phương thức chủ đạo để cải thiện mô hình đặt ra dấu hỏi lớn về tính khả thi kinh tế và bền vững của thị trường công cụ AI. Cần có một bước chuyển đổi mô hình tư duy: rời khỏi kiến trúc transformer và khám phá các hướng tiếp cận mới hiệu quả hơn về mặt năng lượng — khởi đầu cho kỷ nguyên hậu-transformer.
Để khắc phục khủng hoảng năng lượng, ngành AI phải đầu tư vào các kiến trúc thay thế ít tốn kém năng lượng hơn, tối ưu hóa phần cứng chuyên dụng và phần mềm để giảm số token cần thiết, cùng các kỹ thuật làm giảm chi phí suy diễn. Chuyển đổi đó không chỉ là vấn đề kỹ thuật mà còn là yêu cầu cấp thiết để đảm bảo phát triển AI bền vững về mặt kinh tế và môi trường.
Nguồn: Techradar
Bài viết liên quan