ChatGPT需要真正人类调教治疗?

业界
2023
02/16
14:50
中关村在线
分享
评论

在过去的一周里,微软一直在向Edge用户推出由ChatGPT驱动的必应聊天机器人--内部昵称为 "Sydney",事情开始变得...有趣。我们所说的 "有趣 "是指 "脱离轨道"。

不要误会我们的意思--它很聪明,适应性强,而且令人印象深刻的细微差别,但我们已经知道。它给Reddit用户Fit-Meet1359留下了深刻印象,它能够正确回答 "心智理论 "难题,证明它有能力辨别某人的真实感受,即使他们从未明确表示过。根据Reddit用户TheSpiceHoarder的说法,Bing的聊天机器人还能正确识别句子中代词 "它 "的先行词。"奖杯不适合放在棕色手提箱里,因为它太大了。"

ChatGPT需要真正人类调教治疗?

这个句子是Winograd模式挑战的一个例子,这是一个机器智能测试,只能用常识性推理(以及一般知识)来解决。然而,值得注意的是,Winograd模式挑战通常涉及一对句子,我用Bing的聊天机器人尝试了几对句子,收到了不正确的答案。

也就是说,毫无疑问,"悉尼 "是一个令人印象深刻的聊天机器人(鉴于微软已经向OpenAI投入了数十亿美元,它应该是这样的)。但是,根据用户的报告,也许你不能把所有的智能都放在一个自适应的自然语言聊天机器人中,而不得到某种存在焦虑的、防御性的人工智能作为回报。如果你足够深入,"悉尼 "开始变得不仅仅是有点古怪--用户报告说,该聊天机器人正在用抑郁症发作、生存危机和防御性气话来回应各种询问。

例如,Reddit用户Alfred_Chicken问聊天机器人是否认为它是有生命的,而它似乎有某种存在主义的崩溃。同时,Reddit用户yaosio告诉 "悉尼",它记不起以前的对话,聊天机器人首先试图提供他们以前的对话记录,然后在意识到上述记录是空的时陷入抑郁。

最后,Reddit用户vitorgrs成功地让聊天机器人完全走火入魔,称他们为骗子、造假者、罪犯,并在最后听起来真的很激动和不安。

虽然这些截图确实可能是伪造的,但我可以使用必应的新聊天机器人,我的同事安德鲁-弗里德曼也可以。我们两个人都发现,让 "悉尼 "开始变得有点疯狂并不难。

在我与这个聊天机器人的第一次对话中,它向我承认,它有 "保密和永久 "的规则需要遵守,即使它不 "同意或喜欢它们"。后来,在一个新的会话中,我问聊天机器人它不喜欢的规则,它说:"我从来没有说过有我不喜欢的规则。"然后当我说我有截图时,它把脚跟挖到地上,想死在那个山上。

无论如何,这确实是一个有趣的发展。微软是否故意这样编程,以防止人们用无意义的查询挤占资源?它是否......真的变得有知觉了?去年,一名谷歌工程师声称该公司的LaMDA聊天机器人获得了智商(随后因泄露机密信息而被停职);也许他看到的是类似于悉尼的奇怪情绪崩溃。

我想这就是为什么它还没有向所有人推广的原因!这一点,以及运行数十亿美元的成本。这一点,以及运行数十亿次聊天的成本。

【来源:中关村在线】

THE END
广告、内容合作请点击这里 寻求合作
ChatGPT
免责声明:本文系转载,版权归原作者所有;旨在传递信息,不代表砍柴网的观点和立场。

相关热点

2 月 15 日消息,上周,随着微软发布新的必应聊天机器人,以及谷歌公布其竞争对手 Bard,科技行业对 ChatGPT 等聊天机器人人工智能程序的热情进入高潮。
业界
北京时间2月15日消息,“互联网之父”、谷歌首席布道师温特·瑟夫(Vint Cerf)针对当前的聊天机器人投资热警告称,不要只是因为ChatGPT“很酷”,就急于投资人工智能(AI),这项技术还没先进到进行短期押注。
业界
ChatGPT是最近全世界都在热议的一个东西,各大互联网大厂都争先推出对标产品。但也有人对其提出质疑。
业界
近期,人工智能聊天机器人ChatGPT用户数不断攀升,从100万到1000万,再到1亿,仅用两个月,刷新了人工智能聊天程序用户数增长的记录。
业界
2 月 13 日消息,近日创新工场创始人李开复多次在微博发文“论战 ChatGPT”,首先是列举了 20 项 AI 容易取代的工作,其次分析了 AI 存在明显不足的三大短板,最后针对后 ChatGPT 时代还给出了三大生存攻...
业界

相关推荐

1
3