担心AI需求过剩耗电过大,谷歌AI模型训练新方法可能是个好消息

迈步看大势 2024-07-08 19:02:37

谷歌的人工智能研究实验室 DeepMind 发表了关于训练 AI 模型的新研究,声称可以将训练速度和能源效率大大提高一个数量级,与其他方法相比,性能提高 13 倍,能效提高 10 倍。随着关于人工智能数据中心对环境影响的讨论升温,新的JEST训练方法及时出现。

DeepMind 的方法被称为 JEST 或联合示例选择,它以一种简单的方式打破了传统的 AI 模型训练技术。典型的训练方法侧重于训练和学习的单个数据点,而JEST则基于整个批次进行训练。JEST 方法首先创建一个较小的 AI 模型,该模型将对来自极高质量来源的数据质量进行分级,并按质量对批次进行排名。然后,它将该分级与更大、质量更低的集合进行比较。小型 JEST 模型确定最适合训练的批次,然后根据较小模型的结果训练大型模型。

DeepMind的研究人员在他们的论文中明确表示,这种“将数据选择过程引导到更小的、精心策划的数据集的分布上的能力”对于JEST方法的成功至关重要。成功是这项研究的正确词;DeepMind 声称“我们的方法超越了最先进的模型,迭代次数减少了 13×,计算量减少了 10×。

然而,这个系统完全依赖于其训练数据的质量,因为如果没有尽可能高质量的人工策划的数据集,引导技术就会分崩离析。“垃圾进,垃圾出”的口头禅没有比这种方法更真实的了,它试图在训练过程中“跳过”。这使得业余爱好者或业余AI开发人员比大多数其他方法更难匹配JEST方法,因为可能需要专家级的研究技能来管理最初的最高等级的训练数据。

JEST的研究来得并不算太早,因为科技行业和世界各国政府正在开始讨论人工智能的极端功率需求。2023 年,AI 工作负载约占 4.3 吉瓦,几乎与塞浦路斯国家的年用电量相当。而且事情绝对没有放缓:一个 ChatGPT 请求的成本是谷歌搜索的 10 倍,Arm 的首席执行官估计,到 2030 年,人工智能将占据美国电网的四分之一。

人工智能领域的主要参与者是否以及如何采用JEST方法还有待观察。据报道,GPT-4o 的训练成本为 1 亿美元,未来更大的模型可能很快就会达到 10 亿美元大关,因此公司可能正在寻找在这个部门节省钱包的方法。有希望的人认为,JEST方法将用于将当前的训练效率保持在更低的功耗,从而降低人工智能的成本并帮助地球。然而,更有可能的是,资本机器将保持踏板踩在金属上,使用 JEST 方法将功率消耗保持在最大值,以实现超快的训练输出。成本节约与产出规模相比,谁将获胜?

0 阅读:7

迈步看大势

简介:感谢大家的关注