机器人定律鞭策莫及自动驾驶的法律与伦理困

2019-03-22 14:47:00 来源: 桂林信息港

谷歌2015年4月份宣布,它们的自动驾驶汽车已经行驶超过 100 万英里。据摩根斯坦利数据调研,自动驾驶汽车在 2025年会进入家家户户。这迫使我开始思考人生了,在这些自动驾驶汽车的背后,是否会有伦理和哲学问题呢?

(来源:摩根斯坦利)

机器人定律

法则:机器人不得伤害人类,或坐视人类受到伤害。

第二法则:除非违背法则,机器人必须服从人类的命令。

第三法则在不违背及第二法则下,机器人必须保护自己。

他后来又加了一个第零法则:

机器人不得伤害人类整体,或坐视人类整体受到伤害。

尽管这只是来源于科幻小说,却给我们提供了一个非常好的哲学语境—AI(人工智能)应该如何与人类共存。如果把自动驾驶汽车归为这一话题下讨论,我们是否处于一个非常好的时代呢?(暂且不讨论自动驾驶汽车会导致计程车和卡车司机的失业问题,否则的话某种程度下机器人法则和第零法则是失效的)。

电车难题

然而,在这背后,有着机器人定律不能解决的问题。

电车难题是一个非常的哲学思想实验,它的内容是这样的:

一辆电车行驶在轨道上。在它的前方,有五个人被绑在轨道上而不能逃脱。电车继续行驶,就会碾压到他们。而你可以拉一个拉杆,转到另一个轨道上。但是在这个轨道上也绑了一个人。你有两个选择:

1. 不拉杆,五人死于你手下

2. 拉杆,一人死亡

你会怎么做呢?

我们很容易预见到自动驾驶汽车将来也会碰到类似的难题,而这个时候,它必须做出一个选择。

举例来说,一个十字路口,一辆五口之家驾驶的汽车闯了红灯。这时,自动驾驶汽车有两个选择:

1. 继续往前走,那么五口之家将会死于车祸。

2. 向右拐,撞向一辆一人驾驶的汽车,一人死亡。

汽车该怎么做?

从实用主义(利益化)的角度来讲,向右拐(拉杆)是的选择,毕竟一人死亡怎么都比五人死亡好。

顺便一提,在一个哲学家的调查中,68.2%的人同意拉杆。所以这其实根本不是一个问题,答案很简单,向着利益化就好了,遵循 “绝多人之绝大幸福”(出自 Jeremy Bentham)。

但是,思维转化一下,如果你就是那一个受生命威胁的人呢?

那么我们考虑另外一个版本的电车难题,一个关于胖子的版本:

故事还是像刚刚描述的那样。而你站在一个天桥上,电车会从你脚下通过。一个胖子站在你旁边,这时你发现,如果把胖子推下去,他就能阻止电车的行进。也就是说,牺牲这个胖子,而救活五个人。你会这么做吗?

大多数人面对这个问题都会选择坐看惨剧发生(不推胖子)。然而这跟前面的问题并没有什么太大区别,从利益化的角度来讲,还是得推胖子。那为什么人们改变了想法呢?难道正确的答案应该是 “不拉杆” 吗?

康德的命令学说能从某方面解释这个行为:

仅仅依据那条你同时愿意它成为一条普遍法则的准则来行动

简单来说,我们不应该把人类只是当作达成目的的一种手段。因此,把救人当作杀人的意图是不对的,对于康德的命令学说是禁忌。

关于实用主义(利益化)的讨论还有一个不完善的地方,至少我们在界定这个哲学假说时就已经有漏洞了。这个世界很复杂,所以答案并不可能像我们讨论的那样简单。如果说,仍然是关于车的例子。坐着五人的车是刚刚抢劫完银行的抢劫犯,而坐着一人的车是一个在癌症治疗上做出突出贡献的科学家。你还会希望无人驾驶汽车仅仅只是遵循 “利益化” 去救更多的人吗?

所以我们或许应该给每个人安置一个价值指数,这样对于利益化的定义会更为完善(尽管也会更复杂)。所以在这种情况下,我们假定科学家的生命价值大于那五个抢劫犯,那五个抢劫犯就必须得死。

但是,如果在一个由 Google 和 Apple 来评定我们生命价值的世界中。每时每刻,那些汽车都有可能为了拯救他人而撞向我们。你乐意吗?

所以,关于这个哲学假说,尽管回答可以很简单。但它也让问题变得复杂和有趣。当无人驾驶汽车变为现实,这个问题一定会一次又一次被提起。Google,Apple,Uber 之类的科技公司,将来或许必须得想出一个答案。拉,还是不拉杆?

,我想留下一个问题给读者自己回答。你和无人驾驶汽车绑定了所有权。在一个雨天路滑的山崖边上,你坐在无人驾驶汽车上,路上打滑。如果继续前行,你就会把同样载有一个人的无人驾驶汽车撞向悬崖外,而如果急转弯,则你自己会掉下悬崖外。现在,两辆车上各有一个人。汽车该怎么做呢?

机器人定律鞭策莫及自动驾驶的法律与伦理困

它应该优先保证自己的拥有者的生命吗?

本文标签: