机器人学三大法则(机器人三大原则)

人类最糟糕的发明是什么?显然,不同的人会有完全不同的看法。看来中国人普遍认为是转基因。这个东西挺有意思的。总的来说,中国的转基因技术比较落后。(当然,我们在这个

机器人学三大法则(机器人三大原则)插图

机器人学三大法则(机器人三大原则)插图(1)

人类最糟糕的发明是什么?显然,不同的人会有完全不同的看法。看来中国人普遍认为是转基因。这个东西挺有意思的。总的来说,中国的转基因技术比较落后。(当然,我们在这个领域也有世界顶尖的人才,比如张峰和高彩霞。)所以市面上能看到的转基因食品很少。全国人民几乎没有机会吃到转基因食品。但是世界上对转基因的担忧和恐惧是最高的。在美国市场,转基因食品占70%以上。20年来,2亿多美国人甘愿做全人类的小白鼠,每天吃转基因食品,吃了2万多亿吨。到目前为止,还没有人受到转基因食品的实际伤害,的确,也找不到任何人。谁能说得清美国有谁因为吃了转基因食品而生病、死亡或不能生育?所以转基因的发明到底是好是坏,至少到现在都无法下结论。当然,这不是我们今天要讨论的内容。只是个铺垫。

我想说:汽车是人类最糟糕的发明。有大量充分确凿的统计数据证明,全世界每年有100万到120万人因为车祸而死亡。2000万至3000万人受伤,其中许多人终身残疾。不像转基因,我们几乎每个人都能说出几个我们认识的被车祸伤害过的人。不是吗?但奇怪的是:我从来没有听到有人谴责人类发明了汽车,或者要求禁止汽车。相反,中国人对车、好车、名车的追求和热爱始终保持着高烧!当然,这不是我今天要讨论的。这只是一个伏笔。

今天我想和大家讨论的是:前几天,我的同学李菲菲告诉我们,有一件事比发明汽车更可怕,那就是医疗。她说:每年医院误诊和医疗事故造成的死亡人数是车祸死亡人数的三倍以上。这是什么意思?这意味着每年有多达300万到360万人因为错误的医疗而死亡!

李菲菲博士(1976-),毕业于普林斯顿大学和加州理工学院,科学家,谷歌云端人工智能首席专家,斯坦福大学终身教授,人工智能实验室主任。她不能随便说话。而且,她的这番话是在刚刚举行的2018世界人工智能大会上的官方发言。

首先要明确一点,李菲菲绝对不是一个否定现代医学,崇拜前现代医术的人(国内网上有很多这样的人)。就像我严厉批判汽车一样,我也不是一个否定现代出行技术,希望大家回到马车、牛车、人力车时代,或者开着车在云端转悠的人。

现代医学是一门伟大的科学。从根除大规模传染病,包括曾经消灭四分之一到二分之一人口的鼠疫、黑死病和天花,到安装支架绕过心脏,现代医学已经将人类健康提高到了以前无法想象的水平空。一定要和那些反现代的传统复古元素划清界限。但是,现代医学完全靠人来操作;这就好比汽车,完全靠人来操作和运行;这使得人为错误不可避免地带来巨大的人命损失。

正如90%以上的车祸都是“人为失误”造成的一样,90%以上的医疗误诊和操作失误也是如此。所以汽车行业和医疗行业现在已经成为人工智能的主要突破口。因为,很明显,在人犯错最多的领域,人工智能肯定会犯错最少。这就是李菲菲和她的家人进来的地方。

人工智能一定是下一个文明,下一个人类时代的生产力核心。用人工智能打败围棋手,只是人工智能的一个小测试边缘,也是人工智能的初始实力。如果人工智能在汽车行业和医疗行业的应用能让这两个行业给人类带来的巨大生命损失减少哪怕一半,想想看,这是多么伟大的成就啊!以汽车为例,大多数专家认为,如果汽车最终完全智能化,也就是无人驾驶,目前90%以上的车祸是可以完全杜绝的。也就是说,拯救至少一百万条生命。是不是很爽!这也可以用同样的方式推断到医学治疗上。

但是现在我们人类就没那么简单了。大家都不会相信人类的科技进步是单一方向的。科学技术可能给我们带来巨大的成就;也可能给我们带来无尽的灾难。不是吗?所以人类从原始基因带来的怀疑情结,现在不是减弱了,而是加强了。如果我们闭着眼睛都觉得转基因那么可怕,那么人工智能会比它更可怕吗?

对周围世界保持强烈的怀疑,大概是原始人类能够生存下来并到达生物圈顶端的主要原因之一。那么,对未来科技保持强烈的怀疑,也很可能是人类长期生存,永远保持优势的一个基本条件。所以,从现在开始,人类要思考人工智能将来会不会危害人类。人类应该如何应对?

我们很高兴地看到,今天,处于人工智能前沿的研究人员已经注意到了这一点。在2018世界人工智能大会上,李菲菲说:

人工智能(AI)如此强大,人类从未创造出对社会产生如此巨大影响的技术。而我们,包括我们的人工智能专家,对它未来的发展知之甚少。这让我一个AI科学家害怕了!

为此,她提出,为了应对AI技术给人类带来的新挑战,必须坚持以人为本的AI。具体来说,就是:人工智能三定律:

第一,AI必须更深入地反映人的思维。其次,社会有责任引导和监控AI对人类发展的影响。虽然工程是第一挑战,但我们更应该关注AI带来的社会和伦理挑战。第三,AI应该强化人类,而不是取代人类。AI可以代替危险的工作,但是人的素质会因为AI而不断发展。李菲菲提出的三个原则确实在人与机器,尤其是智能机器的关系上做出了突破性的创新。以往人类对人与机器关系的研究,很少从她的角度去观察和讨论。

如果追溯到人类与智能机器关系的确定,毫无疑问大家都会想到阿西莫夫(1920-1992)。早在1942年,他就出版了科幻小说《逃避现实》,提出了机器人三定律:

第一条规则是,机器人不得伤害人,或者袖手旁观和看着人受伤。第二条规则是,除非违反第一条规则,否则机器人必须服从人的命令。第三定律,除非违反第一或第二定律,机器人必须保护自己。阿西莫夫率先提出为机器人制定规则,甚至在智能机器人甚至计算机出现之前。并从理论上总结了人机关系的主要原则。而在他创造的三大法则中,人类的绝对主人地位无可争议地被确定。所以机器人三定律有非常重要的启蒙功能。

到1985年,计算机已经运行并快速发展了40年,人工智能诞生了30年。阿西莫夫这时看到了:一方面,智能机器的出现即将成为现实;另一方面,世界越来越不安,人类之间的冲突越来越严重。因此,在他的新书《机器人与帝国》中,他将自己的三定律扩展为四定律,也就是他增加了第零定律:

规则0:机器人不得伤害整个人类,或者坐视整个人类受到伤害。第一条规则:除非违反第零条规则,否则机器人不得伤害人或坐视人受到伤害;第二定律:除非违反第零或第一定律,否则机器人必须服从人的命令;第三定律:除非违反第零、第一或第二定律,否则机器人必须保护自己。可以看出,晚年的阿西莫夫已经开始担心人工智能和机器人会被用在武器、军备竞赛和人类自相残杀的战争中。在他的最后一部科幻小说中,他希望通过自己提出的这些虚拟原则来约束人类的行为。爷爷心地善良!

机器人学三大法则(机器人三大原则)插图(2)

但是,机器人三定律实际上具有很强的局限性和模糊性。最重要的是,似乎没有人能够完全遵循阿西莫夫的原则,真正造出一个预先植入了他的三定律或四定律的机器人。

应该说,直到最近十年,人类创造生产智能机器或者智能机器人的工作真正全面展开的时候,一线的人工智能专家,比如李菲菲,才很快意识到,人类和智能机器人的关系绝对不是谁指挥谁,谁领导谁,谁服从谁的问题。这不是如何处理两者对立的问题。这是一个人和人工智能,或者说机器人,如何相互理解、交流、合作,甚至相互融合的问题。

当你真正开始设计、创造、制造AI机器人的时候,你需要的根本不是判断AI是最好的发明还是最差的创造?我们是在创造一个伟大的天使,还是在制造一个邪恶的魔鬼?事实上,我们并不面临这种选择,只是希望我们创造的AI系统能够完全理解并遵循人类的价值观和目标。这就是李菲菲的第一篇文章所说的:AI必须在更深层次上反映人的思维。

如果真的能实现这一点,那么人类创造的AI机器人就不能再是对人类的一种异化、异己、对立的力量。而是一种和人类有着完全相同的价值取向和目标取向的力量。

人类创造的AI机器人将不再与人类存在非此即彼的不兼容关系;是人机携手,共生共荣,共创未来的关系。

机器人学三大法则(机器人三大原则)插图(3)

人工智能机器人一定有其远超人类的特殊优势能力。所以从工程学的角度来说,AI机器人可以做人类根本做不到的事情。但也是对人类的补充。因为人类是有创造力的,有同情心的,有同理心的,有审美的,有身体的。无论AI的工程技能有多强,它也必须了解人类的这五个特征,并努力将自己融入这五个特征中,这样才能利用其优秀的工程技能来支持人类独特能力的体验、增强和发展。从而在伦理上与人类并驾齐驱,而不是与之冲突。也就是李菲菲的第二篇文章说人类要应对AI带来的工程和社会理论的挑战。

从人机关系的终极目标来说,那是李菲菲说的第三个:AI应该增强人类,而不是取代人类。......人的素质会因为AI而有新的不断的发展和提高。这也决定了人类开发的AI机器人会包容所有人,支持所有人,发展所有人,而不是相反。人创造的AI永远是协助、辅助、尊重人类的力量,而不是相反。

据我观察,其实李菲菲提出的人工智能三定律代表了当今人工智能研发精英团队的共识。我也看过谷歌团队之外的人工智能专家提出的一些原则和规则,比如苹果团队和微软团队。无论你提出三原则、四原则、五原则还是六原则,我都深深地感觉到,其实有很大的共识。追求人类与人工智能的相互理解、支持和融合,代表了未来人工智能的主导方向。

机器人学三大法则(机器人三大原则)插图(4)

机器人学三大法则(机器人三大原则)插图(5)

免责声明:本站所有文章内容,图片,视频等均是来源于用户投稿和互联网及文摘转载整编而成,不代表本站观点,不承担相关法律责任。其著作权各归其原作者或其出版社所有。如发现本站有涉嫌抄袭侵权/违法违规的内容,侵犯到您的权益,请在线联系站长,一经查实,本站将立刻删除。

作者:美站资讯,如若转载,请注明出处:https://www.meizw.com/n/115721.html

发表回复

登录后才能评论