英国多个组织呼吁监管机构限制Meta利用人工智能进行风险评估

业界
2025
06/09
14:32
IT之家
分享
评论

6 月 9 日消息,据卫报报道,互联网安全活动人士向英国通信监管机构 Ofcom 发出呼吁,要求限制人工智能(AI)在关键风险评估中的使用。这一呼吁是在有报道称 Meta 公司(旗下拥有 Facebook、Instagram 和 WhatsApp)计划将风险评估流程自动化之后提出的。

Ofcom 表示,在上个月一份报告称 Facebook、Instagram 和 WhatsApp 的母公司高达 90% 的风险评估工作将很快由人工智能完成后,该局正在“考虑活动人士在信中提出的担忧”。

据IT之家了解,根据英国的《在线安全法案》,社交媒体平台需要评估在其平台上可能出现的伤害风险,并制定相应的缓解措施,特别是要保护儿童用户并防止非法内容的出现。风险评估流程被视为该法案的关键内容。

包括莫莉・罗斯基金会(Molly Rose Foundation)、国家防止虐待儿童协会(NSPCC)和互联网观察基金会(Internet Watch Foundation)在内的多个组织在致 Ofcom 首席执行官梅兰妮・道斯(Melanie Dawes)的信中表示,使用 AI 驱动的风险评估是一种“倒退且令人高度担忧的举措”。

这些组织在信中强调:“我们敦促您公开声明,根据法案要求的‘合适且充分’标准,完全或主要通过自动化生成的风险评估通常不应被视为符合要求。”信中还要求监管机构对平台可能试图简化风险评估流程的假设提出质疑。

Ofcom 的一位发言人表示:“我们已明确要求相关服务告知我们,谁完成了、审查了和批准了他们的风险评估。我们正在考虑这封信中提出的关切,并将在适当的时候作出回应。”

Meta 公司则回应称,这封信故意歪曲了该公司在安全方面的立场。Meta 表示,公司致力于遵守法规并保持高标准的安全措施。Meta 的发言人指出:“我们并不是使用 AI 来做出风险决策。相反,我们的专家开发了一种工具,帮助团队识别特定产品是否符合法律和政策要求。我们在人类监督下使用技术,以提高我们管理有害内容的能力,而我们的技术进步显著改善了安全结果。”

此前,美国国家公共广播电台(NPR)曾报道,Meta 计划通过 AI 系统审批其算法更新和新的安全功能,而不再由员工进行审查。一位匿名的 Meta 前高管向 NPR 表示,这种改变将使公司能够更快地推出 Facebook、Instagram 和 WhatsApp 的应用更新和新功能,但可能会给用户带来“更高的风险”,因为潜在问题在新产品发布前更难被预防。

NPR 还报道称,Meta 正在考虑将青少年风险和虚假信息传播监测等敏感领域的审查流程自动化。

【来源:IT之家

THE END
广告、内容合作请点击这里 寻求合作
Meta
免责声明:本文系转载,版权归原作者所有;旨在传递信息,不代表砍柴网的观点和立场。

相关热点

9 月 13 日消息,市场调查机构 CounterPoint Research 昨日(9 月 12 日)发布博文,报告称 2025 年第 2 季度全球扩展现实(XR,含虚拟现实 VR 和增强现实 AR)头显市场,Meta 凭借着 71% 份额位居榜首。
业界
9 月 6 日消息,当地时间周四,美国总统特朗普在白宫宴请群英。除马斯克、黄仁勋外,美国最具影响力的科技巨头领袖均有到场。
业界
6 月 28 日消息,科技媒体 TechCrunch 昨日(6 月 27 日)发布博文,报道称 Meta 旗下的社交网络平台 Facebook 正向用户请求访问手机相册权限,以便调用 AI 来优化用户上传的图片内容。
业界
6月25日,小米官微发文称,全新小米AI眼镜将于明晚7时(6月26日)的人车家全生态发布会上正式登场,官方海报称这是一款“面向下一代的个人智能设备”。
业界
北京时间6月24日,据彭博社报道,美国众议院已将Meta旗下聊天应用WhatsApp列入了禁止国会工作人员在政府配发设备上使用的应用名单,原因是对该应用的数据安全性存在担忧。
业界

相关推荐

1
3