您现在的位置:小学生自学网>> 信息>> 学习电脑

机器人三原则(阿西莫夫)

作者: 来源: 发布时间:2011年04月01日 点击数:
 

   A.机器人不应该伤害人类。

   B.机器人应该遵守人类的命令,与第一条违背的命令除外。

   C.机器人应能保护自己,与第一条、第二条相抵触者除外。

 

阿西莫夫机器人三原则

阿西莫夫的机器人三原则,人们更常称之为“机器人学三定律”:

第一原则:机器人不得伤害人类,或者因不作为致使人类受到伤害;

(A robot may not injure a human being ,or through inaction ,allow a human being to come to harm.)

第二原则:除非违背第一原则,机器人必须服从人类的命令;

(A tobot must obey the orders given it by human beings escept where such orders would conflict with the First Law. )

第三原则:除非违背第一原则或者第二原则,机器人必须保护自身之存在。

(A robot must protect its own existence as long as such protection does not conflict with the First or Second Law.)

阿西莫夫后来又为三原则增加了一个前提,即第零原则。

第零原则:机器人不得伤害人类整体,或者因不作为致使人类整体受到伤害。

(A robot may not harm humanity, or by inaction, allow humanity to come to harm.)

阿西莫夫规定,第零原则高于第一、第二及第三原则,因此,第一原则被修改为:

第一原则:除非违背第零原则,机器人不得伤害人类个体,或者因不作为致使人类个体受到伤害。

(A robot may not injure a human being , or through inaction, allow a human being to come to harm, unless this would violate the Zeroth Law of Robotics.)

相应地,第二原则与第三原则也应修改:

第二原则:除非违背第零原则或者第一原则,机器人必须服从人类的命令;

第三原则:除非违背第零原则、第一原则或者第二原则,机器人必须保护自身之存在。

人们常说的“机器人三原则”实际上是“四原则”,“机器人学三定律”实际上是“四定律”。但“机器人三原则”自1941年被提出以来,一直声名显赫,甚至已经成为专用术语。第零原则在1985年出版的《机器人与帝国》中首次提出,这时“三原则”成名已久,第零原则已经无法撼动“三原则”这样一种固定说法了,第零原则之后,阿西莫夫本人也仍然使用“The Three Laws of Robotics” 来为自己的规则体系冠名。更重要的是,机器人原则解决的是三个方面的问题,即机器人保障人的安全、机器人服从人的指令以及机器人维护自身存在,在这个意义上,第零原则和第一原则具有同质性,统一于一个共同的概念之下,即保障人的安全。而第一原则、第二原则和第三原则则分别阐述了三个不同的概念,说了三件不同的事情。因此,虽然表面上看,从第零原则一直到第三原则的四个原则保持了效力上的严格递降,具有形式上的规律性和美感,但就实质内容而论,第零原则和第一原则解决的是同一个层次的问题,第二原则和第三原则解决的则是另外两个不同层次的问题。第一原则与第二原则、第三原则之间的关系是处理不同层次问题的外部关系,第零原则与第一原则间的关系却是处理同一层次问题的内部关系。因此,当我们说到“第二原则”或者“第三原则”时,必然是相对第零原则和第一原则的集合而言的;而当我们单独说到“第零原则”时,往往只具有与第一原则相对的比较意义。因此,从形式、效力、位阶上看,第零原则的提出是给原有三原则增加了一个前提(就像前面提到的那样),而从实际内容上看,第零原则不过是第一原则的延伸。鉴于第零原则与第一原则的这一关系,可以将它们统一归入广义的第一原则。所以,外观上存在“四原则”,实体上只有“三原则”。

阿西莫夫在经常在小说中借助人物之口,对三原则进行进一步阐释,这些阐释又往往各不相同,甚至同一小说中的同一人物的说法也前后不一。很多人将这些不同的阐释称为三原则的“变体”,虽无不可,但也有些言过其实。不论如何,机器人三原则的内容已经确定,它的创造者对它一片爱惜维护之情,既要使之适合在小说中的特定应用,又要保持必要的逻辑自洽,能够自圆其说,有点小小的冲突完全可以理解。关键的问题在于,原则体系的基本内容始终如一,这为进一步的思考提供了坚实的统一基础。

 

同时,人们不断提出对机器人三原则的补充、修正。

保加利亚科幻作家Lyuben Dilov1974年在小说《 Icarus's Way》中提出第四原则:

第四原则:机器人在任何情况下都必须确认自己是机器人。

1989年美国科幻作家Harry Harrison在《Foundation's Friends》中又提出另一个第四原则:

第四原则:机器人必须进行繁殖,只要进行繁殖不违反第一原则、第二原则或者第三原则。

保加利亚科幻作家Nikola Kesarovski在《The Fifth Law of Robotics》(1983年)中又提出一个与Lyuben Dilov第四原则看似相似实则不同的第五原则:

第五原则:机器人必须知道自己是机器人。

这些补充的确有其发生的理由,但普遍存在的一个问题是补充本身的必要性和必然性。要知道,阿西莫夫三原则指出了机器人学的三个基本规范(或者“规律”),更具体的规范必须建立在这些基本规范的基础之上。怎样划分一个规范是具体规范还是基本规范?如果是基本规范,又怎样确定它在基本规范体系中的位置(为什么它是“第四”原则,而另一个又是“第五”原则?)?客观地说,前述几个“第四”、“第五“原则的内容并不能使自己成为第四原则、第五原则,既看不出它们何以成为原则,也看不出何以如此排序。这些原则的提出,多半是适应小说情节的需要,在小说中固然言之成理,但却不必过份拘泥。很显然,这几个补充原则的出发点是小说情节的需要,并不是机器人三原则本身的内容。而从三原则的内容出发对三原则加以补充、修改,这样的工作人们已经做过,并产生过很多严肃的讨论文章。这里只举罗杰·克拉克为例,他构思的机器人原则是:

元原则:机器人不得实施行为,除非该行为符合机器人原则。

第零原则:机器人不得伤害人类整体,或者因不作为致使人类整体受到伤害。

第一原则:除非违反高阶原则,机器人不得伤害人类个体,或者因不作为致使人类个体受到伤害。

第二原则:机器人必须服从人类的命令,除非该命令与高阶原则抵触。
              机器人必须服从上级机器人的命令,除非该命令与高阶原则抵触。

第三原则:如不与高阶原则抵触,机器人必须保护上级机器人之存在。

          如不与高阶原则抵触,机器人必须保护自己之存在。

第四原则:除非违反高阶原则,机器人必须执行内置程序赋予的职能。

繁殖原则:机器人不得参与机器人的设计和制造,除非新机器人的行为符合机器人原则。

罗杰·克拉克把最后一个原则命名为“繁殖原则”,而没有称为“第五原则”,是有道理的;仅就其内容看,的确很难确定这一个原则到底应该放到什么位置上。他把机器人按履行内置职能放在执行人类命令之后,认为服从人类命令优先于执行本职工作,总体上也无问题。但把机器人保护自身存在置于执行本职工作之前,颇有值得商榷之处。此外,这些原则除调整人与机器人的关系之外,还涉及机器人之间的部分关系,这是超出原有原则范围的内容。

阿西莫夫之后,机器人“三”原则似乎成为一种传统,人们提出的关于机器人的规则内容可能大相径庭,甚至南辕北辙,但往往拥有同样数量的条款。其他的不必详说,著名机器人学家马克·W·蒂尔登的机器人三原则以离经叛道为显著特点(这似乎佐证,以严谨思维面对实际需要从事工作的科学家具备的真正的原创力和想象力,并不逊色于科幻小说家)。他曾说:“就算阿西莫夫的机器人有能力把一个真空吸尘器推到你的脚趾尖(它甚至能区别你的脚趾尖与地板上的玩具之间的不同之处),但对于任何实际工作来说它都太胆小怕事了。”他的三个指导原则/规则反阿西莫夫之道而行之:

1、机器人在任何情况下都必须保护自己的存在。

2、机器人获得并维持自己的动力源。

3、机器人必须不断寻找更好的动力源。

不过千万不要被这些看起来很疯狂的规则吓住了,马克·W·蒂尔登的三个指导原则与阿西莫夫机器人三原则说的根本不是同一事物。阿西莫夫说三原则,针对的是具备高度人工智能的、已经充分发展的机器人,如何对它们有效进行控制;而马克·W·蒂尔登提出三个指导原则,不过只是要在人工智能研究、机器人制造上走出另一种非传统的道路。他按照这些指导原则及其他设计思路制造出的BEAM(Biology Electronics Aesthetics Mechanics之简写,即“生物学、电子、美学、机械学”)机器人至今仍是一些极其简单的机器人。他的三个指导原则指示的是实现人工智能、研制机器人的一种路线,而非阿西莫夫三原则那样,是处理人与机器人关系的规范体系。

 

就名称而论,对阿西莫夫提出的这一套机器人规则,有称之为“三定律”者,也有称之为“三法则”、“三守则”者。称“法则”显然不足取;如确需称之“定律”,则应全称为“机器人学三定律”;如称“守则”、“准则”,当然是从机器人角度而言,亦有可取之处。按英文原文,当然应是“机器人学三定律”,但何种缘由足以保证它能被上升为定律?人类社会的历史发展必然导致这些规则会如同自然规律一样被得到遵守?时至今日,甚至推及很久以后的未来,答案也许是不确定的。也不要忘记,阿西莫夫提出这套规则时,还相当于一个初出茅庐的文学青年,在此后的几十年里,他又是一名打字赚钱谋生致富的商业作家,为自己的崭新思想冠以堂皇的名义,无疑有助于文学上的成功。米歇尔·怀特曾经很含糊的指出了阿西莫夫提出这套规则时对牛顿三定律的模仿,这是中肯之见(当然,也不要低估阿西莫夫模拟牛顿三定律之举所包含的深刻含义。如果有时间,以后会就此作一滴滴讨论)。所以,不必过分受限于阿西莫夫原文所用的词句,他毕竟是作家,并不是科学家。总之,我们宁可持保守态度,将阿西莫夫为机器人制定的基本规范/规则称为“原则”,而避免用“定律”来称呼它们。

人们普遍将提出机器人三原则的荣誉归于阿西莫夫,但不能忘记约翰·坎贝尔的功绩。詹姆斯·冈恩在《科幻之路》中说:“坎贝尔说阿西莫夫提出了这些原则;阿西莫夫则说是坎贝尔制定的”。但是实际情况也许正如米歇尔·怀特所说,“如同《夜幕》的创作一样,许多人认为是坎贝尔,而不是阿西莫夫真正创立了三原则。即便坎贝尔未像阿西莫夫那样正式阐述三原则,但毕竟是他提出了这三大原则。而实际上,坎贝尔也是从阿西莫夫的前两部《罗宾》和《理智》中提炼出这三大原则的,对此,他本人也供认不讳。在《罗宾》中,威斯顿先生说:‘你必须知道,机器人是不可能伤害人类的;没等它来得及违背第一原则,它就得完全失灵。’这段话其实就是对第一原则的阐述。”

 

机器人三原则为阿西莫夫机器人系列科幻小说的创作提供了基本的指导原则及思路。机器人三原则提出后,阿西莫夫机器人系列科幻小说中人与机器人的关系总体上都服从三原则,故事情节也基本上围绕三原则的逻辑发展和内在冲突以及因此而来的对三原则的调整、修正、补充及完善展开;机器人三原则从此成为阿西莫夫机器人小说的重要内容。阿西莫夫在小说中设定特定的条件,让三原则独自或者相互发生作用,检验三原则的有效性,测试可能存在的冲突,就好像在头脑中对三原则的运作进行理想试验一样。

阿西莫夫机器人三原则及系列小说对此后机器人科幻小说产生了巨大影响。詹姆斯·冈恩说:“在阿西莫夫的机器人系列之后,造物的自动反叛变得不合逻辑、荒谬可笑、罗曼蒂克或者毫无新意。”它“清除了日积月累的一大批胡乱构思、粗制滥造的劣等科幻小说”,“带来了思想的明晰和文风的纯洁,在此后二十年之中大大促进了科幻小说的健康发展”。的确,阿西莫夫机器人三原则自1941年正式提出之日起,影响所及,至今仍然十分巨大。

对于机器人三原则在科幻小说领域之外的现实意义,有人也给予高度评价,甚至认为机器人三原则已被包括人工智能在内的相关科学领域奉为“金科玉律”,成为指导相关科学技术活动的原则。实际上,阿西莫夫机器人三原则在科学研究活动中是否得到应用,这一应用进展到了何种程度之上,甚至目前是否具备应用的条件,都值得进一步探讨。