Nvidia hiện là công ty dẫn đầu về chip AI, trong đó riêng GPU H100 liên tục khan hàng và đạt doanh số hàng triệu chiếc. Trang công nghệ Tom’s Hardware dẫn lời Paul Churnock, kỹ sư điện phụ trách chiến lược và quản trị kỹ thuật trung tâm dữ liệu tại Microsoft, rằng mỗi GPU H100 có công suất 700 W.
“Với mức sử dụng hàng năm 61%, H100 tương đương mức tiêu thụ điện trung bình của một hộ gia đình ở Mỹ (2,51 người/hộ gia đình). Doanh số H100 ước đạt từ 1,5 đến 2 triệu GPU năm 2024. So với mức tiêu thụ điện của dân cư tính theo thành phố, H100 đứng thứ năm, sau Houston, Texas, trước Phoenix, Arizona”, Churnock cho hay.
Cụ thể, mỗi H100 sẽ ngốn khoảng 3.740 kWh mỗi năm. Nvidia dự kiến bán 3,5 triệu GPU này trong hai năm 2023 và 2024, tức con số tổng là 13.091 GWh. Trong khi đó, một số nước như Georgia, Lithuania, Guatemala tiêu thụ trung bình hàng năm khoảng 13.092 GWh điện năng.
Trước đó, vào tháng 10, công ty Schneider Electric cũng thống kê tổng tiêu thụ điện năng của các trung tâm dữ liệu AI tạo sinh đã ngang bằng Cyprus.
Trong tương lai, các dòng GPU mới như B100 Blackwell của Nvidia có thể còn cần nhiều điện hơn so với H100. Tuy nhiên, giới chuyên gia kỳ vọng các GPU AI thế hệ mới sẽ hoàn thành được nhiều công việc hơn cho mỗi đơn vị năng lượng sử dụng.
Huy Đức