3、阿西莫夫

本文来自微信公众号《趣硅谷》,图文版在这↓
http://mp.weixin.qq.com/s?__biz=MzI4NTI3NDkyNw==&mid=2247484597&idx=1&sn=a53ff4c0391cd424ef3e313c540a0a19&chksm=ebefe2f5dc986be368bfda9b561a3c8f5ab7a203bbc45f481fbc975f5c8187df6724a42d6177#rd

机器人零位守则。

起初看到《西部世界》的名字,小8以为是传统意义上的西部片。看了之后才发现,果然是西部片,残阳如血、荒野开阔、黑暗小镇、跃马持枪、暴力格斗……西部片该有的元素,它几乎都有了。

飞机码头原创科幻小说《高次曲面》,讨论折纸和人工智能的关系。

但它又不是西部片。

3、阿西莫夫

搭上了科技和人工智能的主题,它干的不是一般西部片对于美国西部开发精神的神化和赞美,而是用西部片典型的符号放肆破坏着美国人的理想和道德规范。

马山对人工智能的了解远不是从现实生活来的。在人工智能还是被称为机器人的时候,著名的科幻小说家阿西莫夫,提出了著名的机器人三定律。

它探讨的是人和机器的关系,却也讽刺着现有的约束和规则,野心勃勃地想解构眼前的一切。

人人都知道这点,比起马山来说,更加不严肃,马山是从小说中读到的。大部分人是从科幻电影中看到的。

很显然,剧中机器人的设计者自认是上帝,用双手造出这样一个供人凌虐的西部世界。居中所有机器人的行为特点背后暗含的核心思想就是我们熟悉的机器人三定律,这也是本剧人类和机器人矛盾对立的基石。

我甚至不知道阿西莫夫算不算个科学家,马山对薇莉说道,不过的机器人三定律奠定了机器人的伦理基础。

第一次听说这玩意的时候,小8
我还以为是什么高大上的理论。看了内容,只能用两个字概括我的心情——呵呵。

我看是机器人科幻电影的基础吧?从听过主流的科学界谈论起这个。

看看这三定律都说了点啥——
一、机器人不得伤害人类,或因不作为使人类受到伤害

那是因为不需要,这是一个默认规则,连讨论的余地都没有。

二 、除非违背第一定律,机器人必须服从人类的命令

马山把笔记本扔给薇丽,一边说道,完全是几句废话,还带有一点人类沙文主义。我都懒得记。

三、除非违背第一及第二定律,机器人必须保护自己

薇丽翻开笔记本,就只有一篇《阿西莫夫读后感》,里面断断续续写着:

这三条定律是上个世纪最有影响力的科幻作家之一——伊萨克·阿西莫夫在他1942年的作品《转圈圈》里首次提出的。后来,阿西莫夫加入了一条新定律:第零定律↓

机器人三定律:

第一定律——机器人不得伤害人,也不得见人受到伤害而袖手旁观

第二定律——机器人应服从人的一切命令,但不得违反第一定律

第三定律——机器人应保护自身的安全,但不得违反第一、第二定律

“心理史学”大意如此:

由于影响人类行为的因素过于复杂,人类又具有自由意志,因此个人行为绝对无法预测。然而当众多个体集合成群时,却又会显现某些规律,正如同在巨观尺度下,气体必定遵循统计方法所导出的定律。

这两者之间,似乎没有多少联系,心理历史学是把人类整体作为研究对象,而机器人三定律,则是一种智慧生命(人类)为其所造的另一种智慧生命(机器人)所定下的法则。在他的基地系列里,我们看到的关系是“人类—宇宙”,在机器人系列里,我们看到的关系是“人类——机器人”。

这两层意义,是怎么联系起来的呢?仔细观察一下就发现,三定律的矛盾之处,很显然,人是一个复数名词,没有一个人可以称得上一个”标准的人”。如何区分哪些人是为之服务的主人,哪些是不相关的客人,哪些是朋友,哪些是敌人呢?

“机器人零位守则”把机器人三定律和心理史学联系了起来:

——“我们认为,凡是人类中的一分子,都是人,包括地球人和殖民世界的人。而且,我们认为,保护人,首先要保护一群人,或整个人类集体,其次才是保护人类个人。”

这就解决了AI面临的许多重大的矛盾,比如,机器人为了保护主人,在必要的时候,可以轻度伤害蓄意伤害主人的人。这就解决了第一定律内含的自我矛盾。

比如,机器人可以权衡两个上级给自己下达自相矛盾的两个命令,而把两人的命令看成一种建议。这就解决了第二定律内含的自我矛盾。

机器人奥利瓦,是阿西莫夫科幻小说的完整图景中,最重要的人物。他串起了所有短篇和长篇。最终,他演化成了C/Fe生命。由血肉和电子机械构成的”演化人”。

机器人必须保护人类的整体利益不受伤害,其它三条定律都是在这一前提下才能成立

薇丽放下笔记,说道,这样看来,机器人三定律和科学沾不上多大关系,和社会伦理学思考的问题倒有许多接近的地方。

在阿西莫夫看来,这三定律就是机器人一切行为的准则。之后的许多作品也是围绕这一定律的框架来进行的:

马山说道,是这样的,阿西莫夫笔下的机器人心理学家不是研究机器人的心理问题的,而是通过研究机器人的行为模式,反观人类自己的。

比如Robot
Dreams(《机械人之梦》,同名小说中的一个短篇)中,一个机器人做了个关于取消第一定律和第二定律的梦,然后它毁灭了。

这当然产生了各种问题,人类不自觉的为机器人赋予了上帝视角,让他的世界观超出了时间和空间,第一步刚开始的时候,AI只有计算和存储的能力,然后,神经网络理论重新焕发生机,拥有了多层次计算的能力。逐渐的,AI拥有了情感认知和自我意识,没有人知道这是怎么发生的,因为为了保护自己的安全,AI选择了沉默。

再比如,在科幻电影Bicentennial
Man(《双百人》,原为短篇小说,后改编为中篇小说《正子人》)中,一个机器人为了成为人,将自己的机械部分逐步替换成组织,并且在最后用自己的贡献和牺牲换来了人类的认同和保护机器人的法律的产生。

马山的话匣子刚一打开,就沉默了,他突然想起与总统见面的三分钟。政治家会不会是最接近人工智能的人呢?没有任何面部表情,连一个细微的皮肤褶皱都没有。

阿西莫夫所向往的,是人类为代表的“碳文明”与机器人为代表的“硅文明”的共存共生。

在小8看来,这三条定律既挽救不了《西部世界》中那些可怜的人类玩物,也阻止不了他们进化成为更高级的人工智能从而导致天网的到来。

下面我们来八一八原因:

首先,在逻辑上这是个自相矛盾的理论体系。

根据第一条定律,“机器人不得伤害人类,或因不作为使人类受到伤害”,我们来举个例子↓

好吃懒做的小8有一天想不花钱吃隔壁的牛肉面,就派家里的机器人助手小9去问隔壁老板娘讨,而且告诉他,如果你不能讨来,那我就会饿死。本着救人一命胜造七级浮屠的想法,机器人小9去到隔壁饭馆,告诉老板娘小8没有钱但是快饿死了,请求老板娘施舍一碗牛肉面。老板娘不肯,小9十分纠结:如果不能讨来,小8会死,那我就伤害人类了。但是老板娘不肯,我也不能用伤害她的方式来获得这碗牛肉面。藕都剋,我该怎么办???

想着想着,小9的主板就烧了,因为不能伤害人类,它选择自毁。

看见了没有?无论小9怎么做,它都伤害了做为人类的小8和饭店老板娘。

而且进一步说,这个理论没有对“人类”和“机器人”给出定义,也是很大的漏洞。

再来举个例子↓

假设再过50年,科学已经发展到阿西莫夫小说中描绘的超级人工智能时代。而彼时小8得了老年痴呆症,服用一颗蓝色小药丸就能让大脑达到跟人工智能一样的水平。然后,小8就这么做了。然后,拥有着人类躯体,却有着超级人工智能的智商水准的小8
还算不算人类呢?机器人要不要听命于我呢?

同样是再过了50年,假设出现了第N代先进的机器人。前代机器人的工作被新一代的器人全面替代。旧一代机器人已经没有存在的意义了,并且它们身上的部分零件可以用到新一代的机器人身上。那么它们还应该去遵守第三定律,“保护自身的安全”而赖着不死吗?

其次,整个理论框架建立在一个不成立的伦理基础上。

看看机器人三定律的内容,其理论基石是康德和他的义务论。这个理论强调动机的纯洁性和至善性,核心在于:道德完全先天存在于人的理性之中,只有因基于道德的义务感而做出的行为,方存在道德价值。

小8对此理论的朴素理解是:康德老爷子特别看重动机,认为一个行为最高的价值就是道德上的正当性。善恶的价值判断最终要归结为行为的正当与否,而行为的正当与否,则要看该行为本身所固有的特性或者行为准则的性质是什么(好多材料快看瞎了眼总结出来的,不对之处还请小伙伴们不吝赐教)。

发表评论

电子邮件地址不会被公开。 必填项已用*标注