逾百名专家联合呼吁优先研究AI意识,确保人工智能不会“受虐”

业界
2025
02/06
17:11
IT之家
分享
评论

2 月 6 日消息,据《卫报》当地时间 2 月 3 日报道,一封由包括斯蒂芬・弗莱在内的人工智能专家和思想家签署的公开信警告称,若 AI 技术得不到负责任的开发,具备感情或自我意识的 AI 系统可能面临被伤害的风险。

超过 100 位专家提出了五项原则,旨在指导 AI 意识研究,随着技术的迅速发展,越来越多的人担心,某些 AI 系统可能会被认为具备感知能力。

这些原则包括:

优先研究 AI 的意识,确保不会导致“虐待和痛苦”;

对发展具备意识的 AI 系统进行约束;

逐步推进 AI 系统的研发;

公开分享研究成果;

避免做出误导性或过于自信的声明,特别是创造具备意识的 AI。

公开信的签署者包括伦敦大学的安东尼・芬克尔斯坦等学者,以及来自亚马逊、WPP 等公司的 AI 专家。

这封信与一篇研究论文一起发布,论文中指出,具备意识的 AI 系统可能在不久的将来被开发出来,或者至少是表现出具备意识的特征。

研究人员表示:“可能会创造出大量具备意识的系统,这些系统可能会遭受痛苦。”如果强大的 AI 能够自我复制,可能会诞生“大量需要道德考虑的新生命体”。

该论文由牛津大学的帕特里克・巴特林和雅典经济商业大学的西奥多罗斯・拉帕斯共同撰写,强调即使公司没有刻意研发具备意识的 AI 系统也应制定相应的指南,以应对“无意中创造出有意识实体”的风险。

论文承认,关于 AI 是否能具备意识,学术界存在广泛的不确定性,但它认为这是一个“不容忽视”的问题。

论文还提出,若 AI 系统被定义为“道德病人”—— 即在道德上“独立存在且值得关注的实体”,那么摧毁这一系统是否就等同于杀害动物,这一问题值得深思。

这篇论文已发表于《人工智能研究》期刊。它还警告,错误地认为 AI 系统已具备意识,可能会导致政治资源的浪费,使得不切实际的福祉推广工作被展开。

据IT之家了解,去年曾有一些资深学者预测,到了 2035 年,部分 AI 系统具有意识并具有“道德意义”的可能性是现实的。

2023 年,谷歌 AI 项目负责人德米斯・哈萨比斯曾表示,目前的 AI 系统“绝对”没有感知能力,但未来很可能具备。

他在接受美国 CBS 采访时表示:“尽管哲学界尚未对意识达成共识,但如果我们指的是自我意识之类的特质,那么我认为 AI 未来有可能具备。”

【来源:IT之家】

THE END
广告、内容合作请点击这里 寻求合作
AI
免责声明:本文系转载,版权归原作者所有;旨在传递信息,不代表砍柴网的观点和立场。

相关热点

2 月 6 日消息,谷歌公司昨日(2 月 5 日)发布博文,邀请所有 Gemini 应用用户,访问最新 Gemini 2.0 Flash 应用模型,并放开 2.0 Flash Thinking 推理实验模型。
业界
2 月 5 日消息,据 Thelec 报道,三星电子副董事长李在镕、OpenAI 首席执行官萨姆・阿尔特曼和软银首席执行官孙正义于本周二在韩国首尔举行了三方会晤,旨在探讨人工智能领域的潜在合作机会。
业界
1 月 25 日消息,彭博社马克・古尔曼(Mark Gurman)今天(1 月 25 日)发布博文,报道称苹果公司任命 Kim Vorrath 负责 AI 和 Siri 业务,希望能提振苹果在人工智能领域的竞争力。
业界
1 月 25 日消息,科技媒体 Windows Latest 昨日(1 月 24 日)发布博文,报道称微软正开始邀请 Copilot 用户,免费体验“深度思考”(Think Deeper),会花费更多时间分析问题,并逐步剖析推理生成更详细...
业界
1月25日消息,据媒体报道,当地时间1月24日,美国科技巨头Meta的CEO扎克伯格在社交平台发帖宣布,Meta公司今年的资本支出将达到600至650亿美元的规模,并且将重点押注于人工智能(AI)领域的发展。
业界

相关推荐

1
3