安全考量还是测试错误?微软短暂限制员工访问OpenAI的ChatGPT

业界
2023
11/10
13:11
财联社
分享
评论

11月10日讯 自去年年底以来,OpenAI凭借其重磅聊天机器人产品ChatGPT大获成功,而这家初创企业背后最大的投资者是微软。但据媒体了解到,周四有一小段时间,微软员工被禁止使用ChatGPT。

“出于安全和数据方面的考虑,许多人工智能(AI)工具不再供员工使用,”微软在其内部网站上的更新消息中表示。媒体还看到了一张截图,显示微软员工无法在企业设备上访问ChatGPT。

据悉,微软已经向OpenAI投资了130亿美元,占其49%的股份。通过双方的合作,微软享有所有OpenAI产品的优先使用权,同时OpenAI可以使用微软的Azure服务训练最新的模型等产品。微软目前几乎所有最重要的生成式AI产品都依赖于OpenAI。

对OpenAI的押注可能是微软近年来最成功的投资之一。本周早些时候,在OpenAI的首届开发者大会上,微软首席执行官萨蒂亚·纳德拉与OpenAI创始人Sam Altman一起出现在舞台上。OpenAI在此次大会上的重磅更新推动微软股价升至近历史高位。

“虽然微软确实投资了OpenAI, 而且ChatGPT也有内置的保护措施来防止不当使用,但该网站仍然是第三方外部服务。”微软表示。“这意味着由于隐私和安全风险,你必须谨慎使用它。这也适用于任何其他外部AI服务,如Midjourney或Replika。”

短暂限制后恢复访问

值得注意的是,尽管微软最初表示,将禁止使用ChatGPT和设计软件Canva,但后来删除了相关内容,并恢复了对ChatGPT的访问。

在给媒体的一份声明中,微软表示,对ChatGPT的暂时限制是在对大型语言模型(LLM)系统进行测试时出现的错误。

“我们当时正在为大型语言模型测试端点控制系统,无意中为所有员工打开了它们。”一位微软发言人表示。“我们在发现错误后不久就恢复了服务。正如我们之前所说,我们鼓励员工和客户使用Bing Chat Enterprise和ChatGPT Enterprise 等具有更高级别隐私和安全保护的服务。”

微软的更新建议人们使用该公司自己的必应聊天工具,该工具依赖于OpenAI的人工智能模型。

据媒体报道,今年1月,一位微软高级工程师在一个论坛上写道,员工可以使用ChatGPT,但建议不要输入机密信息。

许多大公司都限制了ChatGPT的使用,通常是为了防止机密数据共享。经过大量互联网数据训练后,ChatGPT可以对人们的聊天信息做出类似人类的回应。该服务拥有超过1亿用户。

【来源:财联社

THE END
广告、内容合作请点击这里 寻求合作
微软 ChatGPT
免责声明:本文系转载,版权归原作者所有;旨在传递信息,不代表砍柴网的观点和立场。

相关热点

相关推荐

1
3