无人驾驶汽车很拉风,但出了车祸应该谁负责?这在未来似乎是必须思考的问题!
第一次听到机器人应当被赋予法律人格的说法时,感觉这种说法很疯狂。因为机器人毕竟不是人。
但是,法律人格的概念并不考虑实体是否是一个有血有肉的活生生的人,而是考虑实体能否承担法律责任。
《机器人也是人》(Robots Are People)一书的作者、律师约翰•弗兰克•韦弗(John Frank Weaver)在Slate网站上发帖称,“如果我们希望机器人为我们完成更多的工作,例如为我们驾驶或送货,我们需要使它们能承担法律责任。如果我们像与真人打交道那样与机器人打交道,法律就理应承认,我们与机器人的关系就像我们与真人的关系一样别无二致。这就要求我们承认,在有些情况下,与真人或机构一样,机器人也可以获得保险,并对自己的行为负责。”
问题在于:如果我们不把机器人看作享有一定法定权利和负有法定义务的实体,我们就很难有效地利用机器人。我们能够用来确定机器人权利、义务的工具就是法律人格。
目前,Google等公司的处境很可笑。例如,如果Google向用户销售了一辆无人驾驶汽车,而后无人驾驶汽车出了交通事故,谁应当承担赔偿责任——用户还是Google?控制无人驾驶汽车的算法,以及传感器和整个控制系统都是Google的产品。甚至Google内部员工都曾认为,为无人驾驶汽车交通事故承担赔偿责任的应当是Google,而非用户。
但在现实生活中,无人驾驶汽车可能需要进行一定的维护保养,或只能在特定区域内行驶。因此,承担交通事故赔偿责任的不应当是算法,而应当是车主。
无人驾驶汽车自己承担责任
我们来分析韦弗提出的场景。一辆无人驾驶汽车为了避开在路上慢悠悠地散步的一头小鹿而转弯,并因此与汽车相撞。如果无人驾驶汽车采取了优秀驾驶员可能采取的措施——也就是说不存在过错,Google(或其他无人驾驶汽车厂商)应当承担赔偿责任吗?
韦弗对这一问题的答案是否定的。机器人本身应当承担法律责任,在他看来,“无人驾驶汽车是独立的投保对象,可以向受害者支付赔偿,保护车主不会被追究法律责任”。
如果这听起来有些荒诞,我们不妨来设想一下另外一种场景。如果Google销售了10万辆无人驾驶汽车,它应当为这些汽车的所有交通事故承担赔偿责任吗?哪家公司能承担得了这样的法律责任?
设计顾问布赖恩•舍伍德•琼斯(Brian Sherwood Jones)与韦弗的看法截然不同。他说,认为“事故是由机器人造成的想法是荒谬的”。他认为,如果我们不“让人来承担责任,将出现大量逃避责任的情况”。
韦弗指出,使机器人成为一个独立的法律主体,有助于我们厘清它们在我们生活中的角色。因此,只要无人驾驶汽车不存在过错,但发生了交通事故,汽车——作为一个法人,可以使用自己的保险。也就是说,承担赔偿责任的应当是无人驾驶汽车的法人实体。
Google的世界不会出现重大交通事故
另外一种选项是,Google等公司可以开发商业和运营模式,减轻它们的风险,或在获得收益的同时承担巨大的风险。因此,Google可以自己经营车队,而非向用户销售无人驾驶汽车。Google无人驾驶汽车的部分设计——车身小、重量轻、速度受限,似乎表明,Google已经采取措施确保其汽车不会发生严重的交通事故。
有人会认为,机器人“人”的例子表明,我们的司法系统在处理“人格”方面有些滞后,没有跟上快速发展的企业或机器人等现代系统的复杂性。可能我们需要的不仅仅是赋予机器人以人格,而是彻底改变非人类实体的人格这个概念本身。
正如温迪•柯米纳(Wendy Kaminer)警告的那样,将人格概念的范畴限制为“自然人”将引发一系列意想不到的后果。也就是说,在人格概念上开倒车是不可能的,因此最明智的做法可能是,把人格概念的范畴扩展到机器人。