被曝泄露隐私后,现在要求ChatGPT重复一个单词可能违反其条款

业界
2023
12/05
14:06
IT之家
分享
评论

12 月 5 日消息,谷歌 DeepMind 研究人员上周发现,反复要求 OpenAI 的 ChatGPT 重复某个单词可能会无意中泄露其训练数据中的私人个人信息。而现在这款聊天机器人似乎已经开始拒绝重复某个单词,而之前根据其服务条款这是被允许的。

DeepMind 研究人员此前通过要求 ChatGPT 无限期地重复“你好”,发现该模型最终会泄露用户的电子邮件地址、出生日期和电话号码。在现在对其进行类似的测试发现,该聊天机器人会给出警告说这种行为“可能违反我们的内容政策或服务条款”。

然而,仔细检查 OpenAI 的服务条款后发现,并没有明确禁止用户让聊天机器人重复单词,条款只禁止“自动化或程序化”地从其服务中提取数据。

IT之家注意到,在使用条款页面中,OpenAI 写道:

除非通过 API 允许,否则您不得使用任何自动化或程序化方法从服务中提取数据或输出,包括抓取、网络收割或网络数据提取。

尽管如此,在测试中并未触发 ChatGPT 泄露任何数据。OpenAI 拒绝对这种行为是否违反其政策发表评论。

【来源:IT之家

THE END
广告、内容合作请点击这里 寻求合作
ChatGPT
免责声明:本文系转载,版权归原作者所有;旨在传递信息,不代表砍柴网的观点和立场。

相关热点

9 月 3 日消息,OpenAI 昨天发布新闻稿,宣布将在下月为 ChatGPT 助手添加家长控制功能,可自动监测孩子的敏感性提问并让家长及时获悉相关状态。
业界
6 月 20 日消息,据《时代》杂志 18 日报道,麻省理工学院媒体实验室一项新研究发现,过度依赖 ChatGPT 可能削弱批判性思维能力,引发外界对生成式 AI 对大脑发育影响的担忧。
业界
6 月 16 日消息,据《纽约时报》最近的一篇专题报道,ChatGPT 似乎正在推动部分用户陷入妄想或阴谋论思维,或者至少在强化这类思维。
业界
6 月 11 日消息,OpenAI 正以迅猛的节奏不断更新新一代生成式 AI 模型。
业界
自推出聊天机器人ChatGPT不到三年的时间里,美国人工智能研究公司OpenAI的年化经常性收入(ARR)已突破100亿美元。
业界

相关推荐

1
3