自动驾驶汽车的道德问题复杂不可能超越人类

作者: zhanganna

  自动驾驶技术的发展一直在继续,经过电脑模拟,创意科技家提出“电车难题”问题:孕妇坐在自动驾驶汽车上,14岁女孩骑自行车迎面而来,一辆卡车横穿到自动驾驶汽车前面,自动驾驶汽车如何选择?

  Cherubini认为,汽车的决策可以基于三个原则:一个是“保护主义”原则,汽车的首要任务是保护乘客安全。这与自动驾驶汽车制造商目前的做法类似;第二个是“人文主义”原则,汽车设法去拯救最多的人;第三个是“利益优先”原则,汽车将保护最有价值的财产。

自动驾驶汽车的道德问题复杂不可能超越人类

  在第一个原则下,汽车应该撞上骑车人,因为孕妇的生命更为重要;在第二个原则下,汽车应该撞向货车,因为孕妇可能会流产,但是骑车女孩的死亡风险更大;在第三个原则下,自动驾驶汽车会认为,无论是那种选择,乘客的损失都会超过保险所得,但是,由于与卡车相撞的概率更小,它会选择撞骑自行车的人。

  在Cherubibi模拟的状况中,人的生命总是受到威胁,自动驾驶汽车需要决定谁活下来,谁会死去。他想要提醒人们,道德决策是极为复杂的问题,很难简化为一种算法。当Cherubini开始研究自动汽车的道德问题时,他相信,机器道德不可能超越人类道德。但是,随着研究的深入,他开始重新思考,“如果你要思考机器道德,你必须首先思考自身的道德。我真的比机器更好吗?”他对Fastcodesign网站说。

自动驾驶汽车的道德问题复杂不可能超越人类

  那么,Cherubini希望自动驾驶汽车采取何种算法呢?“当然,我想说自己是人文主义者。但是从内心深处,我只希望得到保护,获得安全。”

  因此,他并不想给汽车制造商推荐任何算法。“如果一辆汽车在德国制造,符合德国的国情和文化,然后,它被进口到了中国。那么,这辆车或许无法适应中国的国情,”他说,“不同文化拥有不同的道德观。”

  如果汽车拥有者可以选择算法呢?那仍然是有缺陷的。因为,那种情况下,每个人的生命要依赖于他人的道德选择。最后,Cherubini提出了一个新方案,“它不用决定去做什么——而是随机行动,”他说,“我们现在就是这样。我们不去思考撞这个人还是那个人——我们惊慌失措了。你不需要确定其他人的价值,认为某人更应该受到伤害。”

网友评论