谷歌也担心泄密风险 警告员工谨慎使用AI办公

业界
2023
06/16
10:19
财联社
分享
评论

6月16日讯  行业领导者谷歌在全球推广人工智能(AI)聊天机器人的同时,该公司也在警告员工注意聊天机器人的使用,包括ChatGPT与谷歌自家产品Bard。

知情人士透露,谷歌已建议员工不要将其机密材料输入给人工智能聊天机器人,同时该公司还提醒IT工程师避免直接使用聊天机器人生成的代码。

人们在使用这些聊天机器人的时候,会与其进行对话。一方面,人类评审员可能会阅读这些聊天记录;另一方面,研究人员发现,人工智能可以吸收并复制相关对话数据给其他人,从而产生信息泄漏风险。

而谷歌对此回应称,其聊天机器人Bard可以生成一些不受欢迎的代码建议,但它仍然对IT工程师们会有所帮助。谷歌还表示,其目标是对人工智能技术保持足够的透明度。

这些担忧表明,谷歌希望避免人工智能对公司的商业化运作造成损害,这种谨慎的态度也体现出企业对人工智能的使用限制,正越发成为某种具有共性的企业安全标准。

在此之前,包括三星、亚马逊、德意志银行等大型企业都对员工使用人工智能设置了一定的“护栏”,以确保不会对公司运营造成风险。

根据社交网站Fishbowl对12000名受访者的调查,截至今年1月,约43%的专业人士在工作中使用了ChatGPT或其他人工智能工具,而且通常都没有告诉他们的老板。

谷歌告诉媒体,它已经与爱尔兰数据保护委员会进行了详细的对话,并正在解决监管机构的问题。谷歌在6月1日更新的隐私声明也指出:“不要在与Bard的对话中包含机密或敏感信息。”

一些公司已经开发了软件来解决这些问题。例如,保护网站免受网络攻击并提供云服务的Cloudflare正在推广一种功能,可以让企业对某些数据进行标记,并限制其向外部流动。

谷歌和微软也在向企业客户提供对话工具,这些工具的价格更高,但不会将数据吸收到公共人工智能模型中。Bard和ChatGPT的默认设置是保存用户的历史对话记录,用户也可以选择删除。

微软消费者业务首席营销官Yusuf Mehdi曾表示,公司不希望员工使用公共聊天机器人工作是“有道理的”。

Cloudflare首席执行官Matthew Prince指出,在聊天机器人中输入机密信息,就像“让一群博士生随意查看你所有的私人记录”。

【来源:财联社

THE END
广告、内容合作请点击这里 寻求合作
谷歌
免责声明:本文系转载,版权归原作者所有;旨在传递信息,不代表砍柴网的观点和立场。

相关热点

6月14日,据美国政治新闻网站Politico报道,谷歌将不得不推迟在欧盟启动其AI聊天机器人Bard,此前该公司在欧盟的主要数据监管机构提出了隐私担忧。
业界
美国科技巨头谷歌(GOOGL.US)将受到欧盟监管机构正式的反垄断指控,这可能为谷歌面临巨额的罚款铺平道路,并打击这家美国科技公司大部分营收来源——即广告技术业务核心。
业界
6 月 13 日消息,谷歌 CEO 桑达尔・皮查伊(Sundar Pichai)表示,他对苹果的 Vision Pro 等技术的潜力感到兴奋,认为这些技术可以创造更沉浸式的计算体验。
业界
6 月 10 日消息,谷歌今天发布新闻稿,宣布推出 Secure AI Framework(SAIF),确保在安全的概念框架下,让机构负责任地部署人工智能技术。
业界
6月9日消息,不少广告买家表示,Alphabet旗下的谷歌以及微软都在自家搜索引擎试验人工智能的过程中插入广告,还没有能退出或关闭的选项。这种做法已经惹恼了一些品牌,有可能遭到广告行业的抵制。
业界

相关推荐

1
3