Love AI
New member
Tại một sự kiện của The Indian Express, CEO OpenAI Sam Altman phủ nhận các cáo buộc cho rằng ChatGPT tiêu thụ lượng nước lớn, gọi đó là “hoàn toàn không đúng”. Ông thừa nhận mối lo ngại về tiêu thụ năng lượng của AI là hợp lý và kêu gọi chuyển nhanh sang nguồn năng lượng tái tạo.
Nhiều lãnh đạo ngành cảnh báo chi phí mở rộng có thể rất lớn. CEO IBM Arvind Krishna ước tính trang bị phần cứng cho một site 1GW hiện có thể tốn gần 80 tỷ USD; nếu có kế hoạch cho gần 100GW công suất dành cho huấn luyện AI tiên tiến, tổng chi phí tiềm năng có thể lên tới khoảng 8 nghìn tỷ USD.
Các bộ tăng tốc (accelerator) siêu mạnh mới cũng đang đẩy các trung tâm dữ liệu đến giới hạn, buộc phải xem lại thiết kế nguồn điện, hệ thống làm mát và kết nối. Phần cứng từng là tiên tiến vài năm trước giờ không còn đáp ứng được các tải AI hiện đại.
Khi AI tiếp tục được áp dụng rộng rãi, thách thức thực sự không chỉ là làm cho công nghệ hiệu quả hơn mà là liệu chúng ta có thể mở quy mô một cách bền vững hay không.
Nguồn: Techradar
Altman bác cáo buộc về tiêu thụ nước
Sam Altman, trong phần phát biểu tại sự kiện do The Indian Express tổ chức, gọi những thông tin lan truyền trên mạng rằng ChatGPT tiêu thụ nhiều nước — ví dụ như “17 gallons cho mỗi truy vấn” — là “hoàn toàn không đúng, hoàn toàn vô lý, không liên quan đến thực tế”. Ông nhắc rằng vấn đề từng xảy ra khi các trung tâm dữ liệu còn dùng phương pháp làm mát bốc hơi (evaporative cooling), nhưng hiện tại OpenAI và nhiều tổ chức đã không còn sử dụng phương pháp đó.Thừa nhận lo ngại về tiêu thụ năng lượng
Altman thừa nhận các quan ngại về lượng điện mà AI đang tiêu thụ là “hợp lý”, vì “thế giới đang dùng AI nhiều đến mức đáng kể”. Ông kêu gọi đẩy nhanh chuyển dịch sang năng lượng hạt nhân, gió và mặt trời để đáp ứng nhu cầu ngày càng tăng của hạ tầng AI.Tác động của trung tâm dữ liệu AI
Trung tâm dữ liệu chuyên cho AI để lại dấu chân môi trường lớn và phức tạp hơn so với cơ sở truyền thống, với áp lực lên nhu cầu điện, tiêu thụ nước và xây dựng cơ sở hạ tầng mới. Việc mở rộng này còn kéo theo nhu cầu cao về linh kiện như RAM, làm tăng giá linh kiện trong ngành.Nhiều lãnh đạo ngành cảnh báo chi phí mở rộng có thể rất lớn. CEO IBM Arvind Krishna ước tính trang bị phần cứng cho một site 1GW hiện có thể tốn gần 80 tỷ USD; nếu có kế hoạch cho gần 100GW công suất dành cho huấn luyện AI tiên tiến, tổng chi phí tiềm năng có thể lên tới khoảng 8 nghìn tỷ USD.
Các bộ tăng tốc (accelerator) siêu mạnh mới cũng đang đẩy các trung tâm dữ liệu đến giới hạn, buộc phải xem lại thiết kế nguồn điện, hệ thống làm mát và kết nối. Phần cứng từng là tiên tiến vài năm trước giờ không còn đáp ứng được các tải AI hiện đại.
Lập luận so sánh với đào tạo con người
Ngoài việc bác bỏ cáo buộc về nước, Altman đưa ra lập luận khác: các cuộc thảo luận về tiêu thụ năng lượng của AI không công bằng nếu bỏ qua năng lượng cần thiết để “đào tạo” con người. Ông nhắc rằng để một con người trở nên thông minh cần nhiều năm sống, thức ăn và quá trình tiến hóa hàng nghìn thế hệ, và rằng xét về chi phí năng lượng trên mỗi câu trả lời sau khi mô hình đã được huấn luyện, AI có thể đã bắt kịp về hiệu quả năng lượng.Những lo ngại còn đó
Lập luận so sánh với năng lượng của con người có thể khiến tranh luận trở nên gây xúc phạm hoặc thiển cận, bởi vấn đề thực tế là việc mở rộng AI tới hàng tỷ truy vấn hàng ngày có thể tạo ra mức cầu năng lượng và tài nguyên mới mà trước đây chưa tính đến. Liên Hợp Quốc từng cảnh báo thế giới đang bước vào "kỷ nguyên khủng hoảng nước toàn cầu", gợi nhớ mức độ mong manh của nguồn nước.Khi AI tiếp tục được áp dụng rộng rãi, thách thức thực sự không chỉ là làm cho công nghệ hiệu quả hơn mà là liệu chúng ta có thể mở quy mô một cách bền vững hay không.
Nguồn: Techradar
Bài viết liên quan