摘要:随着人工智能的不断发展,机器人渗透我们生活的各个领域,在造福我们的同时,也给我们带来了系列伦理风险思考。 文章系统探讨了机器人的应用现状,研究了机器人和人类相处时引发的一系列伦理层面的风险问题,提出了应对机器人伦理风险的应急科学伦理策略。
关键词:机器人;伦理风险;应急科学伦理
在电影《我,机器人》的开头,当两辆车掉进水里之后,机器人必须做一个选择,是先救警探还是孩子,尽管警探喊着先救孩子,但最终机器人救了警探,因为它计算出警探有 45%的生还机会;而孩子只有 1 1 % 的生还机会。那么问题来了:当遇到同样问题时,我们人类会做出同样的选择吗?或者说如果可以,我们想让机器人做出什么样的选择呢?
一、机器人的应用情况
随着人工智能化的发展,机器人已经被运用到社会各个行业,比如工业、教育业、医学业等。工业上,越来越多的机器人代替工人去工作,机器人去实现工业化生产相对于人类的优势在于它们可以从事高强度作业、危险作业,而且能够持续作业。教育业方面,科技的不断进步早已使机器人教学不是梦想,很多智能教育机器人的出现就是一个很好的证明,教育型机器人改变了我们的教育方式,起码和传统教育比起来它对孩子们的学习更有吸引力。医学上的机器人可以执行精确度更高的手术,机器人不会产生疲劳感,这样大大减少了医生在手术中由于疲劳而引起失误的风险,减轻了医生的负担,从某种程度上提高了手术的成功率,但谁又能确保在手术过程中机器人不会出现程序错误呢。科学的脚步不会停下,人工智能的发展更不会停滞,未来智能机器人会更多地应用到各行各业。未来我们会随处可见机器人也不足为奇,也许机器人会像各种各样的商品一样,在柜台被人类所挑选。未来驾照考试一定会减少甚至消失,因为无人驾驶的汽车肯定会普及。
二、机器人引发的一系列伦理风险问题
(一)机器人能否完全代替人类
当谷歌人工智能机器人 AlphaGo 打败围棋世界冠军李世石,当微软机器人小冰写出了一部名为《阳光失了玻璃窗》的诗集,我们有了这样的思考:机器人会下围棋,会写诗,机器人可以完全替代我们人类吗?正如前面所说,当机器人广泛应用于社会各个领域时,它的地位就将不可忽视,它会与我们的生活息息相关。现在某些博物馆、展览会的接待人员都被智能的机器人替代。机器人它不仅会在工业、教育业、医学等替代一些人类的工作,随着它的不断智能化,它完全可以替代人做各项工作。那么问题就来了,当机器人替代我们完成了各项工作,我们还需要做什么?还能够做什么?法国生物学家拉马克曾提出一个观点——用进废退,虽然这个观点后期被达尔文所推翻,但是我们不能否认这个观点在某些方面的正确性。虽然机器人是被我们所制造,我们仍要有忧患意识,这是古人所教给我们的经验。
事实上,上述的机器人战胜了人类围棋或者是写出了诗集,终究还是我们人类自己战胜了自己。是人类创造了机器人,人脑仍然是最高级的。我们有思想,有判断,有评估,所以我们是有人性的动物,而机器人的“人性”是需要商榷的。若是我们人类在面对文章开始所提到的情况时,我们肯定会先救小孩子,因为我们的道德要求我们这么做,我们推崇尊老爱幼,我们推崇对特殊人群像孕妇、老人们的优先保护。但是机器人不会这样,它们没有思想,没有判断,它们只会通过冰冷的计算得出生还率,然后依据这些数字去救人。这就是前言中的机器人为什么选择救了警探的原因。归根到底,机器人是没有伦理道德的,不过机器人却可以引发一系列的伦理风险问题。
(二)机器人是否会伤害人类
现在科学家对机器人的研究都遵循阿西莫夫的机器人学三大定律:机器人不能伤害人类,或者由于应该履行的任务不去做而使人类受到伤害;在不违反第一法则的前提下,机器人必须服从人类的命令;在不违反第一及第二定律的情况下,机器人还必须保护自己[1]。根据阿西莫夫的三大定律,机器人是不可能伤害人类的,一旦机器人想要伤害人类,它就不可能被制造出来。机器人不需要思考,它们只需要服从人类的命令就可以了。
现实中有一个案例证明阿西莫夫的三大定量是可以被打破的。201 6 年在美国的达拉斯市发生一起枪杀案,美国警方使用了一台载有炸弹的机器人,让机器人慢慢靠近枪手,然后引爆炸弹,枪手当场炸死。这是美国发生的第一起通过机器人来杀死嫌疑犯的事件。无论此件事情的初衷是什么,导致的最后结果只有一个,那就是机器人杀人了。这违反了阿西莫夫的第一条定律,这是令人可怕和担忧的。任何事情只要开了先例,后面肯定会涌现许多类似事情。只要有一例机器人杀人的例子,后面机器人杀人的事情就不再稀少。这甚至为犯罪分子找到了更好的一个理由,罪犯们为了减轻或者逃避法律的制裁,故意用机器人杀人。无独有偶,同样是在美国的密歇根州一家汽车零部件生产的维修工万达,在工作时,被机器人困住,导致死亡。万达的丈夫就将机器人制造商和设计商告上了法庭。这两个案例都证明阿西莫夫的三大定律不是无法打破,现在被证明的是机器人可以伤害人类,它不仅会带来一系列财产损伤赔偿问题,更给人类带来严重的身体伤害,甚至是死亡。
除了人身伤害之外,机器人难道不会给我们人类带来情感上的伤害吗?答案是否定的。当机器人造成我们心理上的伤害时,谁又来承担责任呢?在阿西莫夫《骗子》一文中,有一个能读懂人心灵的机器人,听起来很不可思议,但却令人惊叹。当专门研究机器人心理学的女博士凯文和机器人交流之后,机器人能知道凯文博士心里所想,并且告诉了凯文博士,她的暗恋对象也恰好喜欢自己。这令凯文博士很高兴,每天都打扮得漂漂亮亮地出现在心上人面前,不久却被告知心上人要结婚了。看多么狗血的剧情,心上人结婚,对象却不是自己。然而这还不是全部,当一个数学家去要求机器人计算一道题时,机器人当然知道数学家心里所想——数学家并不希望机器人算出答案。因此,当机器人说出我不会的时候 (实际上机器人可是一个数学鬼才),数学家高兴地离去。不久,数学家知道了机器人是可以算出答案的,它可以快速计算出一道数学题的答案。这个机器人骗子因为能读懂人的心理活动,才会知道每个人最想听到的答案,机器人不说谎,人类听到答案就会难过,而机器人不能让这种情况出现,它们不被允许伤害人类。可机器人终究是一个机器人,它没有人类一样的情感。它不会预料到人们知道真相的那一刻,精神上所受到的痛苦。反过来我们看一下人类,我们人也会说一些谎言,有的谎言还被亲切地称为“善意的谎言”。善意的谎言是没有恶意的言语,是不想让对方失去信心而说出的话语,可给予人自信。比如,医生为了让癌症病人能坚强地活下去,往往会告诉他们病能治好,给他们希望让病人重拾自信。再比如,老师经常对学习成绩差的学生说他们可以做到,经常鼓励他们。医生用善意的谎言让病人重拾自信,老师用善意的谎言让学生勤奋刻苦。若结局是癌症病人痊愈了,学生果然考取优异成绩,那么无可厚非,这是善意的谎言所带来的 happy endi ng。但是若结局不是这样呢,对他们来说何尝不是一种更大的精神伤害。谎言就是谎言,即使它是善意的谎言,本质仍然是谎言,终会给对方带来伤害。我们人或许还可以弥补这种善意谎言带来的伤害。机器人呢,机器人所造成的人类精神情感上的伤害,它要怎么去弥补?
(三)机器人能否与人类恋爱
一个像人的机器人她可以像人类一样谈恋爱,一样结婚生子吗?这个问题我相信每个人都想知道答案。现在男女比例不均衡,单身男生就不断增多,如果可以和机器人谈恋爱、结婚,这样正好缓解了现在男女比例严重失调所带来的问题。人人都渴望爱,渴望拥有一个幸福的婚姻生活,但现在很多人却没有相爱的对象,一个像人的机器人正好可以满足人类的这种需求,特别是对于那些在现实生活中找不到伴侣的人来说会是更为不错的选择。当然我们不能否认由此引发的伦理道德问题。
社会舆论能接受这种爱情吗?我们当代人还都保留着传统的思想,现在同性恋都不能被社会全部接受,人与机器人的爱情,肯定会引起更大的舆论热潮。我们和机器人是不同的,我们都说爱情是幸福的,可是一个不被祝福的爱情,一个不被世人允许的爱情,该怎样继续走下去?更可怕的是,我们还有父母以及兄弟姐妹,当亲人们都不理解时,我们就不应该把这种爱情继续下去。我们同意真爱无罪,但是我们不允许抛弃亲情去实现所谓的你和机器人的真爱(除非你们被亲人们接受,显然现在社会还是不允许的),那是自私的。
结婚之后,下一代怎么办?机器人和人类也会孕育出自己的宝宝吗?这是非常可怕的,而且目前的科学技术也没有达到这种地步。即使在未来很长一段时间,机器人真的可以像人类一样,进行性生活,能够生育,生出的孩子又是一个什么物种?这个机器人与人的孩子可以上户口,可以称之为中国公民吗?当孩子看到自己与周边的孩子都不一样时,会不会对这个孩子造成心理伤害?周围的父母会让这样一个孩子与自己的孩子玩耍吗?孩子难道不会想知道到底为什么来到这个世界,来到这个世界到底有什么用(在这个大家都不接受它的世界)?这样的结局就是,我们不仅让自己站在了舆论的浪尖,更让孩子站在了风口浪尖。
地球能容纳大量的机器人和人类共同生活吗?现在中国人口就达到了 1 4 亿,如果以上两种情况都被允许,肯定会涌现出大量的情感机器人,肯定会有更多的人类选择与机器人相爱,这个时候,我们的地球还能容纳超负荷的人口总数和机器人总数吗?而且更可怕的是,人会老去,机器人却不会,到最后地球上难道只剩机器人了,我们人类会被自然所淘汰,这是多么可怕的事情。
三、解决机器人伦理风险问题的应急科学伦理原则
(一)同步发展进步原则
同步发展进步原则是指人类和机器人共同进步发展。我们可以看着机器人一步步走入我们的生活,替代掉我们的工作,甚至控制我们的时候,我们却还在原地踏步吗?时代都是在进步的,未来机器人会不断智能化,而如果机器人的智能越来越高, 机器人来作决策可能不会只是梦想, 终有实现的一天。我们人类需要独立,不能做嗷嗷待哺的孩子,同步发展才是正确的选择。
相关知识推荐:自动化机器人类论文发表指导
自动化机器人就是自动执行工作的机器装置,它可以代替一部分人工,比如:扫地、送快递等一些需要人工操作的工作,机器人则可以代做,应用范围是比较广的。随着自动化机器人的发展,关于自动化机器人方面的论文也多了起来。那自动化机器人类论文怎么发表呢?许多人都不是很了解。本文小编就自动化机器人类论文发表给大家进行指导,供大家参考。有投稿需求的,可以咨询期刊天空在线编辑。
同步发展我们需要做到以下几点:第一,理性对待人工智能技术产品,这是共同发展的前提,不能因为畏惧人工智能替代我们的能力,而选择放弃对机器人的使用;第二,减少对机器人的依赖程度,还是前面所说,我们不能依靠机器人代替我们完成所有的任务;第三,不断提升自己的技能,时代发展是快速的,我们不可能原地踏步,要紧随时代潮流,不断学习专业知识,扩展自己的眼界。机器人的智能化是我们用人类最聪明的大脑研究出来的,这种能力不能荒废。
(二)责权利相适应原则
在法制中国的社会,人犯了错会承担相应的责任,在民事案件承当民事责任、在行政案件中承担行政责任,在刑事案件中承担刑事责任,即使达不到需要承担以上三种责任的程度,犯错的人也会受到相应的教育,然后改正(当然这里我们排除一些屡教不改的人,因为大部分人还是知错就改)。机器人也应该这样,它们需要承担责任,需要对自己的过错承担责任。可是机器人不是自然人,它还不能成为承担责任的主体。但是不是意味着,机器人造成的人员伤亡、财产损失就可以忽略了,那这样子,以后的犯罪分子都拿机器人作为犯罪工具去实施犯罪了。这可真为他们找了一个很好的躲避责任的借口:这些违法的事情都是机器人做的。在机器人不能承担责任的情况下,我们往往会追究人的责任。其实就像上述案例一样,为什么要告机器人制造商和设计商呢,很简单,设计商设计出来的理论产品由制造商制造变成了实际的产品,他们有责任对自己的产品负责。国家政府赋予了设计商设计机器人的权力,赋予了制造商制造机器人的权力,那么设计商和制造商就应该承担相应的责任。如果机器人造成了事故,它的设计商,制造商包括营销商都要承担相应的责任,必要的时候法院可以要求对机器人进行销毁。这就是责权利相适应原则。责权利相适应原则要求我们做到: ①出台并完善相关法律法规,无规矩不成方圆,现代中国是一个法制中国,既
然有机器人伤害人的例子存在,我们就需要完善法律法规。这是保障。②明确事故的严重程度,这是是否要承担责任的依据,根据事故的不同的程度,相应的责任也不同。③法官判案既要有理有据,更要考虑社会公民的舆论导向,公平地处理这类由机器造成的事故。能确定自然人无主观错误的,不应判处严厉的刑罚,判决的结果要有说服力。
(三)公序良俗原则
公序良俗原则在民法上是指民事主体从事民事活动的内容和目的不得违反公共秩序和善良风俗。在这里引用特指人和机器人的关系不能违背公共秩序和善良风俗。就好比人和机器人相爱并结婚,人一旦和机器人结婚,必然会打破现有的婚姻模式和国家的开放二胎政策,社会公共秩序一定会紊乱,固有的家庭模式也会被重新归置。人和机器人到底能不能相爱并结婚,现在仍然存在很大争议。法无规定则禁止,所以我们当前有必要遵循公序良俗原则,当然法律上也没有禁止人和机器人结婚,法无禁止则允许,这是矛盾的地方。人和机器人的相处是必然的,人性又是好奇的,对机器人产生情感也无过错,可是在当代社会,真的被允许吗,即使允许,谁又能保证不会带来一系列新的问题。毫无疑问,目前遵守公序良俗原则是一个很好的选择。
公序良俗原则要求我们做到: ①正确处理人和机器人的关系,保持一定的距离。②加强正确爱情观的教育培养。③机器人制造者要遵循社会伦理道德,避免盲目过度地制造情感机器人,故意让机器人模拟人类的情感,让人们对机器人产生依赖,这是不道德的。科学的目的是造福于人类,不是给人类带来问题。
四、结论与展望
21 世纪是一个科技高速发展的时代,是一个人工智能化的时代,是一个 5G即将到临的时代,我们对机器人的制造和创新不会停止,机器人所带来的伦理道德风险问题也会一直存在,任何事物都是两面性的,当它为我们带来效益的时候,肯定伴随着一系列问题。流行的事物总是一个接一个,现在是机器人走进我们的生活,未来,会有更强的技术产品走进我们的生活。所以说我们人类的大脑是无法用科学研究的,只要我们善于思考,善于创新,我们就会生产出一代又一代的科技品。我们人脑是强大的,因此我们不可能被机器人包括未来我们设计出更人工智能的产品所代替的。这肯定的前提就是我们要和它们同步发展。一旦我们停止思考,我们就会荒废自己的大脑,从而使自己落后,然后只剩下抱怨。希望这场机器人伦理大爆炸之后,给我们带来的是黎明的曙光,让人和机器人的关系更融洽和谐。
* 稍后学术顾问联系您