新研究:ChatGPT 能耗或远低于此前预估,单次查询仅约 0.3 瓦时

xxn 阅读:93385 2025-02-12 08:00:53 评论:0

根据 IT之家 2 月 12 日的报道,Epoch AI,这个非营利的人工智能研究机构,针对 ChatGPT 的能耗提出了一项新研究,表明其能耗水平可能低于此前普遍认知的情况。

过去,有一项被频繁引用的研究显示,ChatGPT 在回答问题时大约需要消耗 3 瓦时的电力,这一数值比谷歌搜索要高出 10 倍。然而,Epoch AI 的研究团队认为这一估算是被高估的。通过对 OpenAI 最新的默认模型 GPT-4o 的分析,研究显示,ChatGPT 每次查询的平均能耗大约为 0.3 瓦时,低于许多常见家用电器的能耗。

Epoch AI 的数据分析师约书亚・尤(Joshua You)在与 TechCrunch 的采访中指出:“与日常电器的使用、调节室温或开车相比,ChatGPT 的能耗并不显著。”

IT之家观察到,随着人工智能领域的迅猛发展,能耗及其环境影响已成为公众关注的热点话题。上周,超过 100 个组织联合发声,呼吁 AI 行业及相关监管机构采取措施,确保新的 AI 数据中心不会过于消耗自然资源,并尽量减少依赖不可再生能源。

约书亚・尤提到他进行此项分析的原因在于,以往的研究数据过时。例如,那些得出 3 瓦时能耗估算的研究假设 OpenAI 使用的是较老且效率低下的芯片来运行其模型。尤还表示:“我注意到公众在讨论时正确地认识到未来几年的 AI 能耗将会大幅增加,但未能准确描述当前的 AI 能耗情况。此外,我的一些同事发现,3 瓦时的查询能耗估算基于早期研究,初步计算显示该数字似乎偏高。”

虽然 Epoch AI 提出的 0.3 瓦时的能耗数据是一种估计,因为 OpenAI 尚未提供足够的详细信息进行精确计算,但这项研究依然具备重要意义。同时,该分析并未考虑 ChatGPT 在图像生成或输入处理等额外功能上所消耗的电量。尤也表示,带有较长文件附件等“长输入”的查询可能会比简单问题消耗更多电力。

尽管如此,尤预计,ChatGPT 的基本能耗在未来可能会上升。他指出:“随着 AI 技术的不断进步,训练这些 AI 模型可能需要更多的能源,将来 AI 的使用频率会更高,并处理更加复杂和多样化的任务,而不仅仅是像现在这样使用 ChatGPT。”

此外,OpenAI 和整个 AI 行业的重点也在向推理模型转移。与能够接近实时响应的模型 GPT-4o 不同,推理模型在“思考”答案时可能需要数秒甚至数分钟,这会消耗更多的计算能力,因而导致更高的能耗。

尤表示:“推理模型将会承担越来越多的旧模型无法完成的任务,并生产更多的数据,这需要更多的数据中心进行支持。”虽然 OpenAI 已经开始推出更节能的推理模型,如 o3-mini,但目前看来,这些效率的提高似乎难以抵消由于推理模型的“思考”过程和全球 AI 使用量增加所带来的额外能耗需求。

广告声明:文中涉及的对外跳转链接(包括但不限于超链接、二维码、口令等形式),旨在传递更多信息,以节省筛选时间,结果供参考。

声明

1.本站遵循行业规范,任何转载的稿件都会明确标注作者和来源;2.本站的原创文章,请转载时务必注明文章作者和来源,不尊重原创的行为我们将追究责任;3.作者投稿可能会经我们编辑修改或补充。

搜索
排行榜
关注我们

扫一扫关注我们,了解最新精彩内容