苹果研究人员称其设备端模型ReALM性能优于GPT-4,可大幅提升Siri智能程度

业界
2024
04/02
11:34
IT之家
分享
评论

4 月 2 日消息,虽然目前 Siri 可以尝试描述信息中的图像,但效果并不稳定。不过,苹果公司并没有放弃人工智能领域的探索。在最近的一篇研究论文中,苹果的人工智能团队描述了一种可以显著提升 Siri 智能的模型,而且他们认为这个名为 ReALM 的模型在测试中优于 OpenAI 的知名语言模型 GPT-4.0。

IT之家注意到,ReALM 的特别之处在于,它可以同时理解用户屏幕上的内容和正在进行的操作。论文将信息分为以下三种类型:

屏幕实体:指的是当前显示在用户屏幕上的内容。

对话实体:指的是与对话相关的内容。例如,用户说“打电话给妈妈”,那么妈妈的联系人信息就是对话实体。

背景实体:指的是与用户当下操作或屏幕显示内容可能并不直接相关的实体,比如正在播放的音乐或即将响起的闹铃。

如果能够完美运行,ReALM 将使 Siri 变得更加智能和实用。他们将 ReALM 与 OpenAI 的 GPT-3.5 和 GPT-4.0 进行了性能对比:

“我们同时测试了 OpenAI 提供的 GPT-3.5 和 GPT-4.0 模型,并为它们提供了上下文信息,让它们预测一系列可能的实体。GPT-3.5 只接受文本输入,因此我们只提供了文字提示。而 GPT-4 能够理解图像信息,因此我们为它提供了屏幕截图,这显著提升了它的屏幕实体识别性能。”

那么苹果的 ReALM 表现如何呢?

“我们的模型在识别不同类型实体方面均取得了显著进步,即使是最小的模型,在屏幕实体识别上的准确率也比原有系统提升了 5% 以上。与 GPT-3.5 和 GPT-4.0 的对比中,我们最小的模型与 GPT-4.0 的性能相当,而更大的模型则明显优于它。”

论文的结论之一是,ReALM 即使拥有比 GPT-4 少得多的参数,也能在性能上与之匹敌,并且在处理特定领域的用户指令时表现更加出色,这使得 ReALM 成为一种可以在设备端运行的、实用高效的实体识别系统。

对于苹果而言,如何在不影响性能的情况下将这项技术应用于设备似乎是关键所在,随着 WWDC 2024 开发者大会即将于 6 月 10 日召开,外界普遍期待苹果将在 iOS 18 等新系统中展示更多的人工智能技术成果。

【来源:IT之家

THE END
广告、内容合作请点击这里 寻求合作
苹果Siri
免责声明:本文系转载,版权归原作者所有;旨在传递信息,不代表砍柴网的观点和立场。

相关热点

4月23日消息,据多家外媒及彭博社报道称,苹果公司新任Siri工程负责人Mike Rockwell正对语音助手团队进行大规模人事调整,旨在通过引入外部技术骨干加速Siri的技术迭代与功能升级。
业界
4 月 23 日消息,彭博社今天(4 月 23 日)发布博文,报道称苹果新任 Siri 工程负责人 Mike Rockwell 正在对语音助手 Siri 的开发管理团队进行大刀阔斧的改革。
业界
北京时间4月23日,据彭博社报道,苹果公司新任Siri工程主管迈克·罗克韦尔(Mike Rockwell)正在重组负责开发该语音助手的管理团队,他向员工保证此举将为公司的成功奠定基础。
业界
4 月 8 日消息,据彭博社记者马克・古尔曼在其最新一期《Power On》通讯中披露,苹果公司备受瞩目的新一代智能家居中心指挥设备,原本有望在今年与消费者见面,如今却可能面临延迟,其发售日期将推迟到 20...
业界
北京时间3月21日,苹果CEO蒂姆·库克(Tim Cook)更换了Siri业务负责人,以解决AI功能开发严重滞后的问题。
业界

相关推荐

1
3