据tweaktown报道,随着人工智能领域快速发展,市场对高算力芯片的需求增高。预计到2024年英伟达H100 AI GPU的数量将超过350万,目前每块H100峰值功率高达700瓦,因此每年耗电量或达到13000千兆瓦时,与危地马拉和一些欧洲小国的耗电量相当。
微软数据中心技术治理和战略首席电气工程师Paul Churnock认为,到2024年底,当部署的H100达到数百万块时,其能耗将超过亚利桑那州凤凰城所有家庭的用电量,但仍低于德克萨斯州休斯顿等大城市。
Paul Churnock表示,H100高达700瓦的峰值功率以61%的年利用率计算,相当于美国家庭平均用电量。预计2024年H100销量将在150万-200万块之间,按照城市居民用电排行,H100总功耗将排在美国前五。若在2024年末有超过350万块H100被部署,那么这些芯片总耗电量将达到13091.82千兆瓦时。作为对比,危地马拉和一些欧洲小国年均消耗大约为13092千兆瓦时。