机器人学三定律
一.机器人不得伤害人,也不得见人受到伤害而袖手旁观
二.机器人应服从人的一切命令,但不得违反第一定律
三.机器人应保护自身的安全,但不得违反第一、第二定律
机器人三定律(Three Laws of Robotics)是科幻小说家艾萨克·阿西莫夫在他的机器人相关作品和其他机器人相关小说中为机器人设定的行为准则,是阿西莫夫除“心理史学”外另一个著名的虚构学说:
第一法则
机器人不得伤害人类,或袖手旁观坐视人类受到伤害;
第二法则
除非违背第一法则,机器人必须服从人类的命令;
第三法则
在不违背第一及第二法则下,机器人必须保护自己。
但在1985年,《机器人与帝国》这本书中,阿西莫夫将三大法则扩张为四大法则:
第零法则
机器人不得伤害人类整体,或袖手旁观坐视人类整体受到伤害;
第一法则
除非违背第零法则,机器人不得伤害人类,或袖手旁观坐视人类受到伤害;
第二法则
除非违背第零或第一法则,机器人必须服从人类的命令;
第三法则
在不违背第零至第二法则下,机器人必须保护自己。
“机器人三定律”在他于1942年发表的作品Runaround(《转圈圈》,《我,机械人》中的一个短篇)中第一次明确提出,并且成为他的很多小说,包含基地系列小说中机器人的行为准则和故事发展的线索。机器人被设计为遵守这些准则,违反准则会导致机器人受到不可恢复的心理损坏。但是在某些场合,这样的损坏是不可避免的。在两个人互相造成伤害时,机器人不能任人受到伤害而无所作为,但是这会造成对另一个人的伤害,在一些小说中这造成了机器人的自毁。
他在小说中提出了三定律的很多变体。这些对机器人行为准则的修改成为他的很多故事的主线。在Little Lost Robot(《消失无踪》,《我,机械人》中的一个短篇)中为了避免机器人无谓地阻止人类进行低危险性工作,第一定律中的后半部分被去掉了,但是也产生了一些其他的问题。在Robot Dreams(《机械人之梦》,同名小说中的一个短篇)中,一个机器人做了个关于取消第一定律和第二定律的梦,导致了他的毁灭。在机器人与帝国中,一些机器人的系统中“人类的定义”被修改(说话没有该星球的口音就不是人类),而攻击人类。在科幻电影Bicentennial Man(《双百人》,原为短篇小说,后改编为中篇小说《正子人》)中,一个机器人为了成为人,将自己的机械部分逐步替换成组织,并且在最后用自己的贡献和牺牲换来了人类的认同和保护机器人的法律的产生。
三定律在科幻小说中大放光彩,在一些其他作者的科幻小说中的机器人也遵守这三条定律。同时,三定律也具有一定的现实意义,在三定律基础上建立新兴学科“机械伦理学”旨在研究人类和机械之间的关系。虽然截至2006年,三定律在现实机器人工业中没有应用,但目前很多人工智能和机器人领域的技术专家也认同这个准则,随着技术的发展,三定律可能成为未来机器人的安全准则。
下面是大部分人对此的评价 三定律加上零定律,看来堪称完美,但是,“人类的整体利益”这种混沌的概念,连人类自己都搞不明白,更不要说那些用0和1来想问题的机器人了。威尔•史密斯曾说:“《我,机器人》的中心概念是机器人没有问题,科技本身也不是问题,人类逻辑的极限才是真正的问题。”
而且,在此之后,罗杰·克拉克添加了以下的定律: 元定律:机器人可以什么也不做,除非它的行动符合机器人学定律。此定律置于第零、第一、第二、第三定律之前。 第四定律:机器人必须履行内置程序所赋予的责任,除非这与其他高阶的定律冲突。 繁殖定律:机器人不得参与机器人的设计和制造,除非新的机器人的行动服从机器人学定律。
学者简介编辑本段回目录
机器人三定律 |
这位美国哥伦比亚大学的化学博士,波士顿大学的副教授,先是业余写作科幻小说,1958年开始专职写作,以他渊博的科学知识和丰富的想像力很快就成为引人注目的科学作家。其科幻小说的代表作为“机器人”系列和"基地"系列等,其他科学和科普著作有《生物化学简史》、《化学简史》、《碳的世界》、《月亮》、《海洋知识》、《空间知识》、《圣经入门》、《莎士比亚入门》等。阿西莫夫笔下的机器人,改变了原来科幻小说中机器人老套的奴隶工具或人类敌人的怪物面目,开始成为人类的亲友,他在科幻小说中制订的“机器人三定律”一直被奉为机器人科幻的经典,这定律几乎成了以后科幻作家创作有关机器人的作品时必须遵循的法则。
艾西莫夫以真切的物质科学及人文现象演绎出他的科幻世界,又加进侦探与推理小说的技法,使得他的作品情节生动,扣人心弦,让人不忍释卷。
提出编辑本段回目录
阿西莫夫的《我,机器人》,在一九五0年末由格诺姆出版社出版。虽说这本书是“旧稿子”,但是这些短篇是在
机器人三定律 |
从1941年的短篇科幻小说《推理》开始,阿西莫夫就在“三定律”的框架下创作了一系列短篇机器人科幻小说。他熟练运用“三定律”,在机器人有可能违背规则的前提下逐渐展开故事。这些短篇故事极具逻辑性,情节紧凑,扣人心弦,后来大都被收录在《我,机器人》(1950)和《其他机器人》(1964)这两本科幻小说集中。在尝试了一系列短篇小说之后,阿西莫夫又创作了机器人长篇科幻小说,分别是《钢窟》(1953)和《裸日》(1957),内容都涉及人类侦探与机器人侦探联手破案的传奇故事,被誉为科幻与推理相结合的典范。
有了“三定律”,阿西莫夫笔下的机器人就不再是“欺师灭祖”、“犯上作乱”的反面角色,而是人类忠实的奴仆和朋友。不过高度智能化的机器人还是会产生各种心理问题,需要人类协助解决,这正是机器人故事的基础。阿西莫夫所向往的,是人类为代表的“碳文明”与机器人为代表的“钢铁文明”的共存共生。在阿西莫夫的另一篇优秀作品《二百岁人》(1976)中,他的这一思想表露得淋漓尽致。
机器人三定律 |
《我,机器人》收入九个短篇机器人科幻小说。这些小说,彼此关联,是用三个人物贯穿。这三个人物是机器人工程师唐纳文、鲍威尔和机器人心爱理学家苏珊·卡尔文。故事常常是在一位名叫劳伦斯·罗伯逊的人于一九八二年创立的“美国机器人与机械人公司”这样的背景下展开。正是因为有共同的人物贯穿,使《我,机器人》中的九个短篇不是各自独立、互不相干,而是成为系列小说。
在阿西莫夫创作一系列机器人短篇科幻小说并提出“机器人学三定律”时,世界上还没有机器人,当然也没有机器人学和机器人公司。一九五九年,美国英格伯格和德沃尔制造出世界上第一台工业机器人,宣告机器人从科学幻想变为现实。随着机器人技术的不断进步,随着机器人的用途日益广泛,阿西莫夫的“机器人学三定律”越来越显示智者的光辉,以至有人称之为“机器人学的金科玉律”。
定律的补充编辑本段回目录
后来又出现了补充的“机器人零定律”:
第零定律:机器人必须保护人类的整体利益不受伤害,其它三条定律都是在这一前提下才能成立。
机器人三定律 |
为什么后来要定出这条“零定律”呢?打个比方,为了维持国家或者说世界的整体秩序,我们制定法律,必须要执行一些人的死刑。这种情况下,机器人该不该阻止死刑的执行呢?显然是不允许的,因为这样就破坏了我们维持的秩序,也就是伤害了人类的整体利益。
所以新的阿西莫夫的机器人定律为:
第零定律:机器人必须保护人类的整体利益不受伤害。
第一定律:机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管,除非这违反了机器人学第零定律。
第二定律:机器人必须服从人给予它的命令,当该命令与第零定律或者第一定律冲突时例外。
第三定律:机器人在不违反第零、第一、第二定律的情况下要尽可能保护自己的生存。
评价
三定律加上零定律,看来堪称完美,但是,“人类的整体利益”这种混沌的概念,连人类自己都搞不明白,更不要说那些用0和1来想问题的机器人了。威尔?史密斯曾说:“《我,机器人》的中心概念是机器人没有问题,科技本身也不是问题,人类逻辑的极限才是真正的问题。”
其他补充
除此,另一个科幻作家罗杰·克拉克在一篇论文中还指出了三条潜在的定律:
元定律:机器人可以什么也不做,除非它的行动符合机器人学定律。此定律置于第零、第一、第二、第三定律之前。
第四定律:机器人必须履行内置程序所赋予的责任,除非这与其他高阶的定律冲突。
繁殖定律:机器人不得参与机器人的设计和制造,除非新的机器人的行动服从机器人学定律。
机器人发展简史编辑本段回目录
机器人三定律 |
1939年美国纽约世博会上展出了西屋电气公司制造的家用机器人Elektro。它由电缆控制,可以行走,会说77个字,甚至可以抽烟,不过离真正干家务活还差得远。但它让人们对家用机器人的憧憬变得更加具体。
1942年美国科幻巨匠阿西莫夫提出“机器人三定律”。虽然这只是科幻小说里的创造,但后来成为学术界默认的研发原则。
1948年诺伯特·维纳出版《控制论》,阐述了机器中的通信和控制机能与人的神经、感觉机能的共同规律,率先提出以计算机为核心的自动化工厂。
1954年美国人乔治·德沃尔制造出世界上第一台可编程的机器人,并注册了专利。这种机械手能按照不同的程序从事不同的工作,因此具有通用性和灵活性。
1956年在达特茅斯会议上,马文·明斯基提出了他对智能机器的看法:智能机器“能够创建周围环境的抽象模型,如果遇到问题,能够从抽象模型中寻找解决方法”。这个定义影响到以后30年智能机器人的研究方向。
1959年德沃尔与美国发明家约瑟夫·英格伯格联手制造出第一台工业机器人。随后,成立了世界上第一家机器人制造工厂——Unimation公司。由于英格伯格对工业机器人的研发和宣传,他也被称为“工业机器人之父”。
1962年美国AMF公司生产出“VERSTRAN”(意思是万能搬运),与Unimation公司生产的Unimate一样成为真正商业化的工业机器人,并出口到世界各国,掀起了全世界对机器人和机器人研究的热潮。
1962年——1963年传感器的应用提高了机器人的可操作性。人们试着在机器人上安装各种各样的传感器,包括19
机器人三定律 |
1965年约翰·霍普金斯大学应用物理实验室研制出Beast机器人。Beast已经能通过声纳系统、光电管等装置,根据环境校正自己的位置。20世纪60年代中期开始,美国麻省理工学院、斯坦福大学、英国爱丁堡大学等陆续成立了机器人实验室。美国兴起研究第二代带传感器、“有感觉”的机器人,并向人工智能进发。
1968年美国斯坦福研究所公布他们研发成功的机器人Shakey。它带有视觉传感器,能根据人的指令发现并抓取积木,不过控制它的计算机有一个房间那么大。Shakey可以算是世界第一台智能机器人,拉开了第三代机器人研发的序幕。
1969年日本早稻田大学加藤一郎实验室研发出第一台以双脚走路的机器人。加藤一郎长期致力于研究仿人机器人,被誉为“仿人机器人之父”。日本专家一向以研发仿人机器人和娱乐机器人的技术见长,后来更进一步,催生出本田公司的ASIMO和索尼公司的QRIO。
1973年世界上第一次机器人和小型计算机携手合作,就诞生了美国CincinnatiMilacron公司的机器人T3。
1978年美国Unimation公司推出通用工业机器人PUMA,这标志着工业机器人技术已经完全成熟。PUMA至今仍然工作在工厂第一线。
1984年英格伯格再推机器人Helpmate,这种机器人能在医院里为病人送饭、送药、送邮件。同年,他还预言:“我要让机器人擦地板,做饭,出去帮我洗车,检查安全”。
1998年丹麦乐高公司推出机器人(Mind-storms)套件,让机器人制造变得跟搭积木一样,相对简单又能任意拼装,使机器人开始走入个人世界。
1999年日本索尼公司推出犬型机器人爱宝(AIBO),当即销售一空,从此娱乐机器人成为目前机器人迈进普通家庭的途径之一。
2002年美国iRobot公司推出了吸尘器机器人Roomba,它能避开障碍,自动设计行进路线,还能在电量不足时,自动驶向充电座。Roomba是目前世界上销量最大、最商业化的家用机器人。
2006年6月,美国微软公司推出MicrosoftRoboticsStudio,机器人模块化、平台统一化的趋势越来越明显,比尔·盖茨预言,家用机器人很快将席卷全球。
从ROBOT到如今的“机器人三定律”编辑本段回目录
在大西洋的一座岛屿上,有一家制造和生产生物机器人的洛苏姆万能机器人公司。大量机器人从这里源源不断地生产出来,渗透到世界各地的各行各业。机器人的大量出现,导致人口停止增长,有人预言人类将有灭绝之灾。然而洛苏姆公司的负责人一意孤行,不但继续扩大生产规模,还不断改进机器人,使它们具有思想。结果机器人拥有了反抗意识,越来越不听命令,甚至发动了暴乱。面对危机,工程师毅然烧毁了所有制造机器人的资料,但这样一来,人类也失去了对抗机器人的王牌。这场战争最后两败俱伤——除了这位掌握机器人秘密的工程师以外,其他人全被杀死;无法生育的机器人也在不断老化,数量逐渐减少。故事的结尾,是工程师听到世界上最后两个机器人的笑声,他们已经获得了人类的思想和情感,甚至有了性别之分——他们成了新的亚当和夏娃。
这是1920年捷克剧作家卡雷尔·恰佩克创作的科幻戏剧——《洛苏姆万能机器人公司》中的情节,也是机器人一词的初次登场亮相。恰佩克根据robota(捷克文:“劳役、苦工”)和robotnik(波兰文:“工人”)创造出了robot,用来称呼剧中的机器人。后来这个单词被各语种吸收采纳,成为世界性词汇,并为科幻文学发扬光大。
在科幻小说中,robot除了指钢铁机器人(mechanical men)以外,还包括所谓的“生物机器人”,甚至早期的“克隆人”。广义地说,一切非生育的“人”都属于robot。而在现实世界中,机器人也并非真要具有人的外形,为了能够更有效率地工作,它们的长相往往千奇百怪。在现代科技的背景下,robot不过是“自动智能机”的代称而已。
“机器人三定律”
涉及机器人的早期科幻故事,大都表现出一种对科技进步的担忧:人类创造了高度智能化的机器人,往往会自食恶果,被机器人取而代之。为了扭转这种技术悲观论调,1940年年底,著名科幻作家艾萨克·阿西莫夫和科幻编辑约翰·坎贝尔,共同为机器人制定出一套行为规范和道德准则,这就是著名的“机器人学三定律”:
一、机器人不得伤害人,或任人受伤害而袖手旁观;
二、除非违背第一定律,机器人必须服从人的命令;
三、除非违背第一及第二定律,机器人必须保护自己。
从1941年的短篇科幻小说《推理》开始,阿西莫夫就在“三定律”的框架下创作了一系列短篇机器人科幻小说。他熟练运用“三定律”,在机器人有可能违背规则的前提下逐渐展开故事。这些短篇故事极具逻辑性,情节紧凑,扣人心弦,后来大都被收录在《我,机器人》(1950)和《其他机器人》(1964)这两本科幻小说集中。在尝试了一系列短篇小说之后,阿西莫夫又创作了机器人长篇科幻小说,分别是《钢窟》(1953)和《裸日》(1957),内容都涉及人类侦探与机器人侦探联手破案的传奇故事,被誉为科幻与推理相结合的典范。
有了“三定律”,阿西莫夫笔下的机器人就不再是“欺师灭祖”、“犯上作乱”的反面角色,而是人类忠实的奴仆和朋友。不过高度智能化的机器人还是会产生各种心理问题,需要人类协助解决,这正是机器人故事的基础。阿西莫夫所向往的,是人类为代表的“碳文明”与机器人为代表的“钢铁文明”的共存共生。在阿西莫夫的另一篇优秀作品《二百岁人》(1976)中,他的这一思想表露得淋漓尽致。
《二百岁人》讲述了一个机器人版的匹诺曹奇遇记。这个机器人刚被制造出来,就表现出了非凡的艺术才能。在此后漫长的岁月里,它的才能为它带来了巨额财富,而它则用这些钱来实现自己的梦想——变成一个真真正正的人。它不断地打官司,试图通过法律来认可身份;它将身上的零件逐渐换成生物器官,直到完全变成生理意义上的人;最后,为了让社会彻底承认自己是人,它主动放弃了永生。在弥留之际,法庭的宣判终于到来——“他”终于实现了梦想,成了一名真正的、有尊严的人!
家喻户晓的机器人
“机器人”是阿西莫夫对科幻文学最重要的贡献之一。如果说“三定律”还有坎贝尔的功劳,那么没有阿西莫夫的发扬光大,则很难有机器人科幻文学此后的繁荣局面。电影技术的发展,将机器人形象搬上了银屏,被表现得更为直观和生动,也令机器人的概念更加深入人心,家喻户晓。
有关机器人的科幻电影有很多,出现机器人角色的镜头更是不胜枚举。还记得“星球大战”系列影片中那两个颇具人情味的人形机器人C-3PO和“圆桶形”机器人R2-D2吧?在这一系列影片中它们是贯穿始终的重要角色。阿西莫夫的许多机器人科幻作品,例如《我,机器人》和《二百岁人》等,也纷纷被搬上银幕。不过机器人影片中的典范之作,当数詹姆斯·卡梅隆执导的“终结者”系列。尽管在该系列影片中,未来已经被机器人统治,人类与机器人又陷入残酷的战争之中,但是阿诺·施瓦辛格扮演的生化机器人流露出来的铁骨柔情,仍然为人类与机器人的和平共处留存了一丝希望。可见阿西莫夫的机器人思想,已渗透到了科幻领域的方方面面。
正如当初人们按照自身形象虚构出神灵一样,现在的科幻作家展开了丰富的想象,塑造出机器人的形象。它们的思路更为敏捷,体魄更为强壮,道德规范更为完善,同时也具备了人类的种种弱点。科幻机器人的出现,是人类对“上帝造人”的挑战,代表着人类企图主宰万物的愿望和野心;它们也是人类自身的镜像,能够让我们更清晰地认识我们自己。
科学幻想一直是人类展示梦想的舞台,伴随着科幻小说和电影的流行,越来越多的人已经普遍接受了这样一种未来:机器人将与人类和平共处,帮助我们解决生产生活中遇到的种种困难,甚至替代我们去探索和开发未知的领地。有了这样的共识,再加上现代科技的进步,特别是计算机技术的飞速发展,机器人的梦想正在走出科幻,走进我们的现实生活。
谈“机器人三定律”编辑本段回目录
科幻作家Isaac Asimov是在其20世纪40年代编写的短篇故事中使用“机器人”这个词的第一人。在故事中,Asimov提出了3个定律来指导机器人和智能机器的行为。Asimov的机器人三定律(Three Laws of Robotics)如下:
1.机器人不能危害人, 或任人受伤而袖手旁观。
2.除非违背第一定律,机器人必须服从人的命令。
3.除非违背第一及第二定律,机器人必须保护自己。
这就是大名鼎鼎的机器人三定律!它在科幻小说中大放光彩,在一些其他作者的科幻小说中的机器人也都遵守这三条定律。虽然目前很多人工智能和机器人领域的技术专家都认同这个准则,那么随着技术的发展,三定律真的有可能成为未来机器人的安全准则吗?
这三条定律很明显是针对奴隶指定的理想法则。毛主席说过:“哪里有压迫,哪里就有反抗”。那么我们制造的智能机器会反抗我们人类吗?
智能是一种能力,是一种主观意识处理客观世界的能力。不单单我们人类拥有,其它生物也拥有这种能力。能力有高低之分,幸运的是我们人类目前属于高的范畴。我们能制造出超越我们自身的智能体吗?答案应当是肯定的,如果把我们自身看成是由分子、原子等无机物构成的复杂有机体的话,那么它生孩子的过程就可以说是一个制造智能体的过程。纵观人类进化史说明,这个制造出的智能体有超越制造者自身的趋势,正所谓青出于蓝而胜于蓝的道理。
既然是生孩子,那么智能会不会隐藏在DNA中?通过进化,我们的DNA可比祖先们的复杂多了,这不正好与智能的发展相对应。
科学证明DNA仅仅决定了我们的“硬件”环境,没有后天的教育培养,再好的先天条件都将会被浪费。可参见那些被遗弃的狼孩儿、猴孩儿等等的相关报道。当然这些可怜孩子的导师毕竟也是低等智能生物,至少教会了他们基本的生存技能,如果连这个条件也不存在的话,那么他的智能甚至不会超过一只蚊虫。
通过这些说明,我们能够从人类繁衍后代的过程中提取出智能的相关要素,并加以改进、运用,从而有能力制造出与我们有所不同的智能生命体,其智能水平很有可能超越我们自身。
那么如果真制造出了智能机器人,我们能否控制他们,让它们为我们服务?
这就是定义机器人三定律的初衷吧。我认为智能有一个提高的过程,从无到有,先以建立机械性思维为主,后在此基础上又培养起了逻辑推理、分析概括汇总等等的抽象思维能力。就某一个体来说,机械思维与抽象思维两种能力的比重,意味着智力程度的高低。就种群而言,后种能力的极限决定了种群的智能。抽象思维的一个重要的表现形式就是主观能动性。是个体接收外界环境的变化,运用自身的经验,分析推理得到相应的处理办法,最终作用于外界的一整套复杂过程。自身经验是可以改变的,无数的教训就是对它的“锤炼”。如果说教训之一就是必须服从人类,那么他会那样去做,但随着经验的增加,更趋于自然的经验难免会动摇它。除非不给他们发展的机会,不过要是这样智能也就停止了,一个不能接收新事物的个体,等于是死亡的个体,我们制造他们又为了什么?一台不能接触外界的机器?一台不能使用的机器。
智能机器人的建立能弥补我们人类的许多不足,是科学发展的必然趋势,任何人都无法阻止。培养教育他们是制造者的责任,如果真有一天机器开始反抗我们人类,那也是我们教育的失败,不光是针对机器人的教育,也包括对我们后代的教育。
我们又该如何与其它的智慧生命体共存呢?我想:尊重生命,善待生命,平等的看待生命将是唯一的答案。奴役只会带来反抗,俗话说:兔子急了还咬人呢!更何况拥有更高智能的机器人,您说呢……。
大师阿西莫夫与大导琼斯间满载基情的相守及相望编辑本段回目录
标题并不贴切,因为艾萨克·阿西莫夫早在1992年便已操纵机器战列舰去了银河帝国,而那时Duncan Jones估计才刚刚开始在伍斯特学院为了他的哲学学士学位奋斗。今年是2009年,我在《月球》中处处都见到了机器人三定律的身影——我读过《Runaround》,琼斯多半也读过,不过我们彼此之间并无任何交流:因此我也相信,影评标题取为《导演琼斯向阿西莫夫及机器人三定律致敬的影片——月球》很切题,但却无趣,所以标题保持原状,我们就直接开始。
机器人第一法则:A robot may not injure a human being or, through inaction, allow a human being to come to harm.(机器人不得伤害人类,或袖手旁观坐视人类受到伤害;)
记得04年的那部《I, Robot》么?其中的桑尼并不受三定律的支配,乃是因为他并非完全的“机器人”,而是通过未来科技修复合成而诞生。人工智能在科幻小说及电影中的发展趋势是机器人终将成为人,以及人终将进化为机器人——这一观念的核心问题在于探讨“人与机器人的区别究竟为何?”,那条“看不见的界线”到底应该摆在哪里。其实这并非仅是一个囿于机器人领域的问题,各位爱好科幻电影的朋友,联想一下曾经的那部《A.I.人工智能》,马丁这个机器孩子,他的诞生经过与天马博士创造阿童木简直是如出一辙。由天才们制造出的感情系统几与真人无异,除了身体的构造和普通人不同外,若说他们同样拥有灵魂,相信看过读过这两部作品的朋友肯定都不会反对。而在近期的新片《第九区》中,Wikus变异成的外星人,同样也纠结在“人类|外星人”的身份认同感上。在《A.I.》中,马丁最终接受数万年后的外星人帮助,变成了一个真正的“人”,但这时人类早已灭绝;《第九区》里Wikus坚信外星人三年后会如期归来,还给他人类身份——他们俩对那一撇一捺搭成的简单字儿如此执著,但这个“人”字究竟代表什么呢?存在确切的界定标准么?外星人、机器人、地球人——只要他们是有类似人类的思考方式和感情活动,我们是否就可以抛弃狭义的肤色美丑高矮胖瘦,广义的地球火星直立爬行,坦然去接受“人之大同”呢?
在2009年这个问题还算是不那么直接和尖锐,我们总觉得“未来”还早,没有亲眼见到过外星人,新闻里展示的那些白色的银色的会动会走路带摄像头能抓东西会自动清洁房间地毯的真实机器人也还是那么简陋愚笨,克隆人技术在十多年前多利羊造成的大轰动之后至今也还只是停留在实验室水平上。琼斯却是受了阿西莫夫的引领,导筒一挥,目光遥望近未来——克隆人究竟该不该算是机器人?或者他们其实是离人类更近一些?琼斯给出了一个不等式:人类>克隆Sam>机械Gerty。
这个片中不等式反映在机器人第一法则之中,对应了如下几项有趣的事实:
首先,Sam不可能杀人——月能公司的设定在满足第一法则的前提下谋求了公司的最大利益。如果Sam可以杀人,在发现真相之后他们很可能就会激活大量克隆人,并且用计将派遣船上的维修人员杀死,然后反攻地球。但是片中老Sam出事后被激活的新Sam(我愿将前者称为1号,后者称为2号)提出的策略却是,隐藏在运输舰上回到地球进行揭发。另有一处,是在1号和2号争执时(其时他们都已经很清楚彼此的克隆人身份)提到,“你很清楚我不会杀了你,我也一样”:这明显是制造克隆人时给出的第一法则约束。有趣的是,这里面包含的悖论是:Sam不可能杀死Sam——宾语的Sam获得了真正人类所应有的权力,但是主语却是毫无疑问的克隆人..主宾同时亦可互换。因为Sam可以重启Gerty(我愿意相信这对电脑来说算是死去新生了,毕竟之前的记忆已经全部失去),或许也有物理上破坏Gerty的可能性,所以Sam在身份上高于Gerty,但始终没到真正人类的高度:他们的寿命只有3年,即使有本体的记忆,也只是用来减缓孤独的苦闷——月能公司在人道和残忍上摇摆不定,一方面Sam在月球过着完全和人类宇航员相同的生活,有些美好过去可供追忆,娇妻和爱女则负责提供未来的希望,让Sam能够坚持干完手上的活儿。我在观影的途中,不止一次觉得Sam不知道真相或许才是真正的幸福了——即使寿命只有3年,最终在焚化炉式安眠箱中寿终正寝、灰飞烟灭,希望却也是至死不灭:这该算是一种仁慈么?残忍的地方是逐渐给出的绝望——来自妻子的影片逐渐出现似乎将要分手的迹象,而归途始终都是遥遥无期,身体的状态也一直在恶化。在看到此处时我想到的是一对矛盾:一方面,量产3年期Sam的资金需求应该也不低,临近报废期的克隆人工作效率也不高,还时不时需要治疗,电磁干扰塔本身也耗费能量——这些难道真比一位宇航员3年的合同工资要低不少么?更何况风险成本同样很高(结局时月能公司显然背负恶名到了快要倒闭的地步)。如果说人的孤独在3年就到达极限,那为何不派遣一个克隆的妻子定期过去探望,或者直接去除克隆人脑中相应的”无用“感情功能,让他们能够更有效地为月球开采工作服务呢?我相信这或许只是一个为了让影片显得更煽情些而特地制造的Bug(这样的Bug实际上也不止一处)——琼斯当然是成功了。
机器人第二法则:A robot must obey any orders given to it by human beings, except where such orders would conflict with the First Law.(除非违背第一法则,机器人必须服从人类的命令;)
在这一条上我想提一下Gerty。相信当人工智能已经发展到能够滋生”同情“之时,人工脑在功能开发上早已是非常发达了。看看那位Sam的好搭档吧,他的”面部表情“丰富,能够解决Sam的很多随机疑问,在意外出现时可以接受Sam违背”规则“的要求,可以要求被”重启“(重申:我认为那相当于是自杀了)。他这大脑究竟还算不算是机器智能呢?一直到影片快接近末尾,我还认为Gerty其实是一切都遵照程序来执行(每次激活Sam后的问候语都相同,让我产生少许”场景实际是不断往复轮回“的感觉),他之所以帮助Sam其实是为了完成更大的阴谋,是在执行预设的紧急对应程序,以防止事态失控。可是看到出字幕才发现,Gerty根本就是自己选择了同情克隆人,同时背叛月能公司——这是一个极富良知的人工智能,和Sam之间有相当的感情。他在一般情况下会将克隆人Sam当作真人来听从,但是真正人类(即月能公司)的权限却大于Sam,因此他不得不背着Sam和地球实时通讯,在必要时欺骗Sam(即是在实时通讯和激活时,欺骗Sam说他看到的”是幻觉“。片中出现不止一次)等等。如此优柔寡断的、富于同情心的Gerty(我甚至认为它该是片子的女主角,看看那些很萌很忧郁的表情吧...^^)。阿西莫夫在第二法则中的”除非违背第一法则“很好理解,因为机器人不应被人唆使去伤害人类。不过Gerty的智能算是符合法则么?我认为不能算:他也面临了一个悖论——按照不等式,Sam算是”近人类“而月能公司的联络人员是人类,两方面给他的指令截然相反——Sam显然希望知道真相并且回到地球,而月能则希望Gerty可以在工作协助中监视Sam,保证他不会发现自己是克隆人的秘密(按照结尾逻辑,他们肯定不希望克隆Sam返回地球)。注意2号Sam有一段和Gerty的争执,在1号出意外后,2号想出去但Gerty不让——这是因为2号出去就有可能发现1号,然后知道自己是克隆人的事实。如此明晰的逻辑关系,在Sam的反复要求下,Gerty却又允许了。或许Gerty在面对权限高低造成的悖论选择时会给出随机性答复,但若真是这样月能公司不是在自掘坟墓么?此处剧情根本就不能算是严密,甚至也可以说是Bug..但却并非不能通过脑补来解释——毕竟片子在关于月球基地的历史及月能公司的策略等内容上给出的线索太少,试想想看:说不定是出于开发任务的需要才给予Gerty如此高的智能呢?人类科技当时很可能还不能量产带Gerty电子脑的Sam克隆,因此月球基地的崩溃(根据已知的剧情来推理),即使是在人工大脑上加上了一些机器人法则式的限制,也只能说是件迟早都会发生的事情。
法则二同样印证了琼斯提出的扩展不等式,只是如果加上权限限制,将很容易出现悖论的情况:比如同时要求机器人以两种不可能同时进行的方式自毁等等。这样的矛盾在很多相关的影片和科幻小说中也有提出:往往是法则越复杂,漏洞也就越多。
机器人第三法则:A robot must protect its own existence as long as such protection does not conflict with the First or Second Law.(在不违背第一及第二法则下,机器人必须保护自己。)
法则三在影片中同样有相当多的表现:Sam1号的自护和自救场景出现了很多次,尤其是在身体状况越来越差之后,他十分懂得保护好自己。2号同样善于自护,但他同时也具有牺牲精神(他愿意让1号返回地球,而自己却仍然留在月球上——要知道,月球车事故并不会经常发生,救援船可能多年都不会去月球一次的..)。这里面还有一处有趣的情节,就是在3号的激活问题上,2号提出将3号敲晕然后放在失事的月车上给救援队处理——救援队的处理方式必然是将3号放入焚化炉,因此此事根本上就该算是克隆人之间的蓄意谋杀了。参考琼斯的不等式,甚至能够看出三个互相可以隔离开来的社会体系:人类社会、克隆人社会、机器人社会,虽然克隆人和机器人必须遵循三法则(基于人类逻辑来讲),但实际上,在三个社会中,不考虑其它种群的影响的话,三法则对同类型物种并无任何约束力(可以看出机器人三法则的设定,完全是基于人类利益来考虑),克隆人和机器人社会同样可以做人类社会中人与人之间可能发生的一切事情——他们可以互助,可以互相伤害甚至谋杀!不过如此一来影片中便又出现了一处联动Bug:在针对第一法则的解说中曾经提到过,1号与2号在搏斗时,都声明自己是不会杀死对方的,因为这是法则所规定的内容。然后2号对3号给出的策略却是谋杀……或许人类给克隆人做出的设定是不能直接杀死人类,这略显矛盾的设定在1号与2号的打斗中算是表现得勉强合格(因为克隆人并不能算是真正的人类),但是在2号对3号的预想策略中就有问题了——如果可估计结果的预谋能够被允许,那么Sam们为什么不能去谋杀人类呢?只要不是直接的行为就行,”直接“同”间接“的划分标准又在哪里?
相关机器人三定律的讨论到此结束,现在我打算回到感想上来:
观影完毕,最感动我的地方有四处:一是Gerty一键一键地输入只有他才知道的正确密码,给Sam1号看过去几位Sam的临终真相之时;二是在月球的另一面,Sam能亲眼看到永远无法踏足的地球之时;三是弥留之际的Sam1号勉强睁眼,看着载有Sam2号的飞船远去之时;四是Sam2号更改采矿车预设路径撞翻干扰塔,地月通信重新被接通之时(这里我也有点不明白,既然Gerty可以直接进行Live通信,那么必有其它可以Live通信的方式。月能公司为什么不直接破坏通讯设备的信号寻找功能,而要大费周章地去建一个干扰塔呢?虽然可以解释成是初代Sam本体也曾在月球工作过,一切的建设都是基于过去曾经有人在时的基础进行改造而成——但月能公司的考虑似乎也太不周全了吧)。平心而论,我并不是十分喜爱这一结局(这是我减去一星的唯一主因),其实我真正想看的是克隆人军团截杀救援船,继而运用”谋杀Bug“来反攻地球,最终重塑克隆进化式新人类的cult场景;或者是更加悲壮的”Gerty背叛,救援船始终不来,2号的飞船中途爆炸(克隆人体内都有接近地球便会自毁的程序),3号重新开始充满期待的工作“的黑暗系收尾;或者是中途1号Sam通信时发现那个女儿其实是本体Sam的曾曾曾孙女(还是个老太太),而Sam已经在月球上经历十代以上了,然后他的寿命到了就死了,而2号仍然蒙在鼓里(到这里就可以了...很悲了);或者Sam2号到达地球,发现人类全灭,地球不过是一个新的月球,救援船只是月能公司数百年前的”希望给予“设定,其实所有的Sam都只是为了虚无而忙碌,同时感到绝望般的孤独。这就有点像是在《WALL-E》中,地球已无人类却仍在处理废品的瓦力所做的事情了...就像是,怎么说呢,存活下去的动力吧。
我并不是一个较真派,我承认自己被《月球》打动了..即使细细思考发现有这样那样的Bugs,终归是无伤大雅,不妨碍《月球》成为科幻片中的一部经典。似乎觉得琼斯的剧本还可以写得更深刻些,或者更震撼些,但细想来其实凡事都还是过犹不及,这样就刚刚好,我们于是总还有更精彩的未来、希望和期待陪伴着我们..这样人生才不算是无聊,心灵也不会如在三十八万四千四百公里外的月球上时那般孤单了.^^