AI有多费电?ChatGPT每天耗电50万度,是美国普通家庭1.7万多倍。更广泛地看,人工智能领域的能源消耗正在快速增加,这不仅仅是OpenAI的问题,谷歌等其他公司也面临类似挑战。
来源:新财富综合
人工智能技术的快速发展,带来了巨大的算力和能源消耗。据报道,OpenAI的热门聊天机器人ChatGPT每天可能要消耗超过50万千瓦时的电力,以响应用户的约2亿个请求。相比之下,美国家庭平均每天使用约29千瓦时电力,也就是说,ChatGPT每天用电量是家庭用电量的1.7万多倍。消息一出,就直接冲上热搜第一了。
如此巨大的电力消耗,不仅让人对AI技术的能源效率产生质疑,更引发了人们对未来能源供应的担忧。
01
AI要耗多少电?ChatGPT是一款由OpenAI开发的大型语言模型,能够生成文本、翻译语言、写不同类型的创意内容,并以信息丰富的方式回答问题。它使用了大量的参数和复杂的算法,需要大量的计算资源才能运行。
据报道,ChatGPT每天需要处理的请求超过2亿个,这需要大量的电力来支持。
首先,现在大模型训练时期的耗电量和推理阶段相比,已经不值一提了。
SemiAnalysis数据显示,OpenAI需要3617台英伟达HGX A100、共28936个GPU来支持ChatGPT推理。
ChatGPT每天需要响应1.95亿次请求,预计每天需要消耗564兆瓦时电力,每个请求大约2.9瓦时。而GPT-3整个训练阶段的耗电量预估为1287兆瓦时,是ChatGPT大约4天的消耗量。
谷歌报告也表示,2019-2021年,与人工智能相关的能源消耗中有60%来自推理部分。
因此,有论文提出未来研究AI用电量时,更应该从全周期角度考量。
但这也与模型再训练频率、模型性能与功耗之间的平衡有关系。比如BLOOM在推理阶段的耗电量就显著降低。
其次,搜索引擎如果用上AI,耗电量还会更高。
谷歌方面曾在去年2月表示,AI响应请求的成本可能是普通搜索的10倍。
数据显示,使用一次谷歌搜索消耗的电量是0.3瓦时。这和上面分析给出的数据相呼应。
如果要将大模型能力植入到谷歌搜索中,预计需要512821个HGX A100,按照每台设备功耗为6.5千瓦来计算,每天将需要80吉瓦时的电力消耗,一年需要29.2太瓦时。
目前谷歌每天需要处理高达90亿次搜索,换算一下,平均每个请求要消耗6.9-8.9瓦时,已经是普通搜索的20倍。
同样的现象在英伟达的财报数据中也可以看到。
去年第二季度,英伟达收入创纪录,其中数据中心部门较上季度相比增长了141%,这表示AI方面的需求扩增。
今年,英伟达AI服务器出货量可能达到150万台,总功耗可能达到9.75-15.3吉瓦。这一数量级的服务器,每年的用电量将达到85.4-134太瓦时。
如果生成式AI被进一步采用,耗电量可能会更多。荷兰国家银行数据科学家亚历克斯·德弗里斯在一篇论文中估计,到2027年,整个人工智能行业每年将消耗85至134太瓦时(1太瓦时=10亿千瓦时)的电力。
随着人工智能技术发展,市场对芯片的需求激增,带动电力需求的激增。相关数据显示,十年前全球数据中心市场的耗电量为100亿瓦,而如今1000亿瓦的水平已十分常见。据美国Uptime Institute的预测,到2025年,人工智能业务在全球数据中心用电量中的占比将从2%猛增到10%。
咨询公司Grid Strategies也曾发布过一项研究,认为美国未来五年的年度电力需求增长大约在1.5%左右。而根据EIA的数据,美国发电量近15年来才增加了不到3%。过惯了供需相对稳定日子的美国供电体系,和面临不少问题的电网,能否应对骤然增长的需求,尚有待观察。
生成式AI带来的种种创新,都是以处理性能和功耗方面的高昂成本为代价。马斯克曾预计,未来两年内将由“缺硅”变为“缺电”,而这可能阻碍人工智能的发展。在他看来,电力短缺可能会造成严重后果,就像最近缺芯阻碍科技和汽车行业一样。
02
除了费电,还耗显卡和费水
随着ChatGPT访问的增加,有预估称,想要吃下当下的流量,微软还得买几万张 A100、H100显卡,Azure现在的算力远远不够。
8张A100 组成的DGX A100服务器大概售价19.9万美元,最高功率为6.5kW。按照一万张来算的话,光在硬件上微软就要花去2.5亿美元,运行一个月就要用掉585万度电。
而按照国家统计局公开的数据,我国居民月度用电量大约是69.3度。ChatGPT运行一月,大概与我们8万人用电相当。
除了显卡本身的价值,以及维持他们工作所需的电能外,给它们创造一个凉爽的环境,配置一套蒸发冷却装置。
其原理是利用蒸发水来散热,但运行起来需要消耗大量清水,并且在循环的过程中,大概有1%~2%的水会作为细水雾被风吹走。
虽然站在宏观角度,水仍然维持着动态平衡,但在冷却塔的小环境中,却是一种无形的消耗。
结合AIGC需要庞大算力的计算中心,卡罗拉多大学与德克萨斯大学的研究人员就在论文里预估了在训练过程中所消耗的清水。
以GPT-3为例,训练过程中所需的清洁淡水相当于填满核反应堆冷却塔所需的水量。如果再具体点,则大约消耗了70万升水,并且他们还算出,一个用户与ChatGPT进行25~50个问题的对话,大概就相当于请ChatGPT喝了500ml 水。
同时,他们也发现,蒸发冷却塔在工作时,平均每消耗一度电,就会让一加仑水(3.78L)消失。
微软在其最新的环境报告中透露,2022年公司用水量同比去年激增了34%,达到640万立方米,比2500个奥林匹克标准游泳池的水量还多。
不仅是微软,Google在2019年为其三个数据中心使用了超过23亿加仑的清水。其2022年消耗的水量高达212亿升,比上一年增加了20%,其中有约196亿升的水用于数据中心。
在美国本土,Google拥有14个数据中心,为其搜索和现在的LaMDA和Bard提供算力。且在训练LaMDA语言模型的过程要比GPT-3还耗能费水。
Meta在2022年使用了超过260万立方米(约6.97亿加仑)的水,主要用于数据中心。
03
AI的尽头是光伏和储能?事实上,随着生成式人工智能的广泛应用,预计到2027年,整个人工智能行业每年将消耗85至134太瓦时的电力。这一数字令人震惊,它意味着在未来几年内,AI技术可能成为全球电力消耗的主要增长点。
随着人工智能技术的不断发展,对芯片的需求也在急剧增加,进一步推动了电力需求的增长。
据美国Uptime Institute的预测,到2025年,人工智能业务在全球数据中心用电量中的占比将从2%增加到10%。这意味着,随着AI技术的普及和应用范围的扩大,其对电力的需求将呈指数级增长。
英伟达CEO黄仁勋在一次公开演讲中指出,AI未来发展和储能紧密相连。黄仁勋在演讲中明确表示:“AI的尽头是光伏和储能!我们不能只想着算力,如果只考虑计算机,我们需要烧掉14个地球的能源。”
与此同时,OpenAI创始人山姆·奥特曼也提出了类似的看法。奥特曼表示:“未来AI的技术取决于能源,我们需要更多的光伏和储能。”
在博世互联2024大会上,马斯克提到人工智能的发展速度前所未见,似乎每过6个月的时间,算力就会增加10倍,远远超出了摩尔定律每18个月翻番的速度。他预计,两年内年将由“缺硅”变为“缺电”,而这可能阻碍AI的发展。
“目前算力增长已经面临瓶颈,很明显,接下来变压器会陷入短缺,紧接着就是电力,等到2025年,我们将没有足够的电力来运行所有的芯片。”马斯克称。
事实上,马斯克对电力短缺的担忧也不是一天两天了,此前曾多次公开强调解决日益增长的电力需求的紧迫性。他认为,需要加快项目进度,以跟上不断增长的电力需求。
针对能耗问题,企业和巨头们也在积极寻求方案。奥特曼在今年1月的一场达沃斯会议中,他表示:“人工智能的未来取决于清洁能源的突破。”
他认为,随着技术越来越成熟,AI将消耗越来越大量的电力,如果能源技术无法突破,就无法实现这一目标(即让AI技术释放全部潜力)。至于如何提升能源产量,他也直言需要可控核聚变,或者更便宜的太阳能及存储等等。
关于可控核聚变,奥特曼早前以个人名义投资了3.75亿美元,押注了一家名叫Helion的相关公司。据了解,Helion成立于2013年,目前约150员工。他们预计将在2028年上线50兆瓦规模的可控核聚变发电项目,微软将率先采购。
此外,在科技与能源的布局上,马斯克早有涉足,除了特斯拉有电池,还有一家专做太阳能的企业,这些都是电能的有力保证。
他旗下的SolarCity公司,主要为家庭和企业提供高效、实惠的太阳能解决方案,随着业务的发展,逐渐拓展到太阳能发电系统的设计、融资、安装和运维等领域。
因为其创新的商业模式,还有马斯克对可持续能源的坚定信念,SolarCity在国外市场迅速崛起,成为太阳能行业的领军企业。
在2016年,特斯拉收购了SolarCity,将其纳入能源部门,使特斯拉在电动汽车之外,进一步拓展了可持续能源业务。
来源:量子位、数据宝、爱范儿等