AI有多耗能,日耗电超过50万度?“电荒”比“算力荒”更可怕

合胜财 2024-03-13 10:06:16

生成式AI,比如咱们现在用的ChatGPT,听起来挺酷的,但你知道吗?它们可真是个电老虎。

有数据说,ChatGPT一天的电费就得花53万,一年得200亿!想想看,这得是多能耗电啊。OpenAI的这个聊天机器人,一天得吃掉50万千瓦时电。

换句话说,就是美国那么多家庭,一天用电加起来,ChatGPT一个顶1.7万多个家庭。

这事儿不单单是ChatGPT自己的问题。现在这AI技术发展得这么快,到了2027年,整个AI行业一年要用的电,估计得85到134太瓦时。

你说惊人不惊人?

这是因为AI技术一发展,对芯片的需求就激增,芯片一多,用电量自然就跟着上去了。现在全球数据中心耗电量,从十年前的100亿瓦,涨到了1000亿瓦。

美国有个机构预测,到了2025年,AI在全球数据中心耗电量的占比,可能从2%涨到10%。

咱们别忘了,这些生成式AI,除了吃电,还得喝水——用水量也是个惊人的数字。因为要训练这些AI,就得有强大的算力中心,而这算力中心要运转,就得有散热系统,这就得用到水。

有研究显示,就训练一个GPT-3,所需的水量,能填满一个核反应堆的冷却塔。想象一下,ChatGPT每跟用户聊个25到50个问题,就得消耗掉一瓶水来降温。

不光是谷歌,Meta在美国亚利桑那州的数据中心,2022年的用水量就超过了260万立方米。

全球这些科技巨头,都在建设新的数据中心,争的就是谁的算力更强,结果就是对水资源的需求越来越大。

黄仁勋有句话说得好,AI的未来,得靠太阳能和储能。这意思就是,咱们得找到更环保的能源,来支撑这AI技术的发展。

按现在这耗电模式,全球电脑运转,得需要14个地球那么多的能源。

这事儿一想就让人头疼。AI技术虽好,但这背后的环境成本,咱们真得好好考虑一下。电荒和算力荒,哪个更可怕?

显然,如果没有足够的能源和水资源来支持,那算力再强,也是无用功。

所以,对科技公司来说,现在的当务之急,不仅仅是追求技术的突破,更要考虑怎么样在保证技术发展的同时,减少对环境的影响。

比如,开发更节能的算力技术,利用可再生能源,减少对水资源的消耗,这些都是可以考虑的方向。

对政府来说,也得制定相关政策,鼓励和引导企业走这样的路。比如,对那些采用绿色能源的数据中心,给予税收优惠;对过度消耗水资源的企业,实行限制和罚款。

总之,AI技术的发展是好事,但咱们得找到一条既能保障技术进步,又能保护环境的路。这条路可能不好找,但为了我们的地球,为了我们后代的未来,这条路,咱们必须得找,也必须得走。

0 阅读:101
评论列表
  • 2024-03-21 00:59

    2021年,三峡电站的年发电量为1036.49亿千瓦时,千分之一的电就够了,不要忘了,gpt为10亿用户服务

合胜财

简介:感谢大家的关注