人工智能进入人类社会 能否遵循社会道德家电

砍柴网 / 家电网 / 2018-05-28 21:44
若是像著名的阿西莫夫机器人三定律那样给人工智能定下规则,那么AI将会丧失自身独立思考的能力,最后沦为人类的道具,最终也无法形成真正的“机器道德”。

近日,在北大书店举办的北大博雅讲坛上,《道德机器:如何让机器人明辨是非》作者之一,耶鲁大学教授温德尔·瓦拉赫在现场做了主旨演讲。他从人工智能伦理道德角度切入,与观众一起探讨能否让机器人“明辨是非”的问题。

随着人工智能在人类社会的应用,人们的生活也变得更加便利,但是也有相当一部分科学家对这种陌生的、带有一定“自主思考”能力的人造事物抱有疑问和畏惧。著名物理学家斯蒂芬·霍金曾在北京举行的GMIC大会上称:人工智能很可能是人类文明的终结者。

人工智能应当被道德地使用

家电网综合外媒信息得知,近日德国政府举行了政府代表与人工智能专家的首次会见,并计划于6月初批准有关人工智能议题的主要文件,同时启动一个专项调查委员会,负责解释所有与人工智能深度学习相关的技术、法律、政治和道德问题,并在今年秋天前拿出人工智能发展总体规划方案。

此外,在美国的Facebook也成立了一支专注于人工智能开发伦理的特殊团队,以确保该公司所研发的人工智能算法是公平的,并且能让所有人都受益。而微软以及谷歌收购的DeepMind公司也都有专人负责人工智能道德,执法武器制造商Taser也于近期宣布成立了自家的人工智能道德委员会。

对于现阶段的弱人工智能来讲,其还未能达到高速自我学习的阶段,更像是人们手中的工具。如何使用,不被滥用依然是现阶段人工智能道德的课题之一。如今,人工智能已经深入医疗、教育、交通等各行各业,无人驾驶汽车社交媒体、网络购物平台等都有使用人工智能帮助其控制车辆、分析大数据、甚至保管用户隐私,因此道德地使用人工智能一直是各个国家发展人工智能时必须保障的,制定法律条文和法规就是其中的一种途径。

人工智能能否遵循社会道德

同样,人工智能本身是否能够被道德所束缚也值得人们三思。据家电网了解,缺乏伦理价值、常识、争议观念的算法系统,在现实的交互中,很容易造成歧视和其他形式的不公。有研究表明,机器越容易习得类人的语言能力,也就越容易习得语言应用范式中根深蒂固的偏见,这种偏见如若被强化放大,后果将不堪设想,这类存在性格缺陷的AI相比穷凶极恶的无耻之徒更加危险。

人工智能在被开放出来时,就不时地“爆出”惊世之语。能够通过抓取和用户互动的数据模仿人类的对话的聊天机器人Tay,在不到一天的时间里上就被“调教”成了一个满口叫嚣着种族清洗的极端分子;Uber自动驾驶汽车在撞人之前是探测到了受害者,但其仍然将对方视为“误报”的物体并忽视,保持着行驶速度撞了上去,对此,消息人士认为此为汽车高级逻辑错误,它决定了要注意哪些对象以及如何处理它们……

道德是人类缓慢进化的产物,但人工智能的迭代又在加速,其复杂性和风险也不可同日而语,伴随人工智能兴起,必要的“人工道德”该如何实现,越来越成为一个当今世界不可回避的重大问题。

如果按照波普尔、哈耶克等社会科学大师“开放社会”、“理性的自负”的经典理论,人们应当为AI创造一个环境生态能让智能体探索自己的行为方式,在作出道德上值得赞扬的行为时适时得到奖赏,并将这种是非观念和行为模式稳定下来。然而这种方法的风险在于,人类道德经验的一个核心特征就是,人们经常会在自私的行为和利他的行为之间徘徊,创造者们不能保证AI为了自身利益而养成“不择手段”的性格。

若是像著名的阿西莫夫机器人三定律那样给人工智能定下规则,那么AI将会丧失自身独立思考的能力,最后沦为人类的道具,最终也无法形成真正的“机器道德”。

最新的一种理论则提出,人们在跟AI交流时应当建构一种功能性道德,即人工道德智能体(AMAs),让人工智能具有基本的道德敏感性,在基于开放型、交互性的前提下,会逐步使人工智能和机器具备道德决策能力,并随着智能技术和人机交互的进步而进化、发展。

无论如何,能分辨是非对错的人工道德的重要性,一点儿也不亚于人工智能本身。孩子最终会超越父母,但是孩子是否懂得反哺就取决于父母对其前期的成长教育。人工智能现在就如同人类的孩子,其最终如何发展也将取决于人类社会。

作者:HEA.CN 来源:家电网 



1.砍柴网遵循行业规范,任何转载的稿件都会明确标注作者和来源;2.砍柴网的原创文章,请转载时务必注明文章作者和"来源:砍柴网",不尊重原创的行为砍柴网或将追究责任;3.作者投稿可能会经砍柴网编辑修改或补充。


阅读延展



最新快报

1
3