新研究:ChatGPT能耗或远低于此前预估,单次查询仅约0.3瓦时

业界
2025
02/12
10:08
IT之家
分享
评论

2 月 12 日消息,非营利人工智能研究机构 Epoch AI 发布了一项针对 ChatGPT 能耗的新研究,指出其能耗水平可能远低于此前的普遍认知。

此前,一个被广泛引用的数据显示,ChatGPT 回答一个问题需要消耗约 3 瓦时的电量,这一数字是谷歌搜索的 10 倍。然而,Epoch AI 的研究人员认为这一数据被高估了。通过分析 OpenAI 最新的默认模型 GPT-4o,Epoch AI 发现,ChatGPT 的平均查询能耗约为 0.3 瓦时,低于许多家用电器的能耗水平。

Epoch AI 的数据分析师约书亚・尤(Joshua You)在接受 TechCrunch 采访时表示:“与使用普通电器、调节室内温度或驾驶汽车相比,ChatGPT 的能耗并不算什么。”

IT之家注意到,随着 AI 行业的快速发展,其能耗问题和对环境的影响成为公众关注的焦点。就在上周,超过 100 个组织联合发表公开信,呼吁 AI 行业和监管机构确保新的 AI 数据中心不会过度消耗自然资源,避免依赖不可再生能源。

约书亚・尤指出,他之所以开展这项分析,是因为此前的研究存在过时的问题。例如,得出 3 瓦时能耗估计的研究报告假设 OpenAI 使用的是较老、效率较低的芯片来运行其模型。尤表示:“我看到很多公众讨论都正确地认识到 AI 在未来几年将消耗大量能源,但并没有准确描述当前 AI 的能耗情况。此外,我的一些同事注意到,每次查询耗电 3 瓦时的估算数据是基于较旧的研究,而且从初步计算来看,这一数字似乎过高。”

尽管 Epoch AI 的 0.3 瓦时数据是一个估算值,因为 OpenAI 尚未公布足够的细节来进行精确计算,但这一研究仍然具有重要意义。此外,该分析并未考虑 ChatGPT 的图像生成或输入处理等额外功能所消耗的电量。尤也承认,带有长文件附件等“长输入”的 ChatGPT 查询可能会比普通问题消耗更多的电量。

不过,尤预计,ChatGPT 的基础能耗未来可能会增加。他指出:“AI 将变得更加先进,训练这些 AI 可能需要更多的能源,未来的 AI 可能会被更频繁地使用,并且处理更复杂、更多的任务,而不是像现在人们使用 ChatGPT 这样。”

此外,OpenAI 和整个 AI 行业的关注点也在向推理模型转移。与 GPT-4o 等能够近乎即时响应的模型不同,推理模型需要花费数秒甚至数分钟来“思考”答案,这一过程会消耗更多的计算能力,从而导致更高的能耗。

尤表示:“推理模型将越来越多地承担旧模型无法完成的任务,并为此生成更多的数据,这都需要更多的数据中心支持。”尽管 OpenAI 已经开始推出更节能的推理模型,如 o3-mini,但目前来看,这些效率提升似乎不太可能抵消推理模型“思考”过程以及全球 AI 使用量增加所带来的额外能耗需求。

【来源:IT之家】

THE END
广告、内容合作请点击这里 寻求合作
ChatGPT
免责声明:本文系转载,版权归原作者所有;旨在传递信息,不代表砍柴网的观点和立场。

相关热点

9 月 3 日消息,OpenAI 昨天发布新闻稿,宣布将在下月为 ChatGPT 助手添加家长控制功能,可自动监测孩子的敏感性提问并让家长及时获悉相关状态。
业界
6 月 20 日消息,据《时代》杂志 18 日报道,麻省理工学院媒体实验室一项新研究发现,过度依赖 ChatGPT 可能削弱批判性思维能力,引发外界对生成式 AI 对大脑发育影响的担忧。
业界
6 月 16 日消息,据《纽约时报》最近的一篇专题报道,ChatGPT 似乎正在推动部分用户陷入妄想或阴谋论思维,或者至少在强化这类思维。
业界
6 月 11 日消息,OpenAI 正以迅猛的节奏不断更新新一代生成式 AI 模型。
业界
自推出聊天机器人ChatGPT不到三年的时间里,美国人工智能研究公司OpenAI的年化经常性收入(ARR)已突破100亿美元。
业界

相关推荐

1
3