论文部分内容阅读
随着自动驾驶汽车驾驶模式的升级,平衡道德与法律之间的矛盾迫在眉睫。在伦理困境中,确定自动驾驶汽车什么样的决定和行为在道德上是允许的、禁止的或强制的,是一个众所周知的哲学难题。伦理困境视野下的自动驾驶汽车事故,正面临技术、道德、法律的三重困境,自动驾驶汽车领域先行国家已经开始制定规则明确责任框架,而我国现行的法律规范不足以解决这类与道德有关的事故主体认定与责任承担问题。一方面,自动驾驶汽车不同于其他的智能工具,需要明确自动驾驶汽车及其系统在事故中扮演的特殊角色,另一方面需要设置明确的法律义务以减少伦理与技术的摩擦。为了更合理的对伦理困境视野下自动驾驶汽车事故的责任主体进行认定,设置情景实验以便在未来的实践过程中提供理论参考,最终实现利益的衡平。目前学界关于伦理困境视野下自动驾驶汽车事故的责任主体问题还未有明确论断,且伴随着自动驾驶汽车算法决策系统存在算法“黑箱”等问题,使得靠系统进行价值衡量无法实现,国际上对于相关问题的政策标准在我国也存在适用局限,理清责任主体相关问题极为必要。随着自动驾驶汽车模式由人类控制层级到全智能层级转变,算法承担越来越多“控制”职能,虽然各学者对于AI是否应当具有承担责任的主体地位各持己见,但社会大众普遍接受自动驾驶汽车作为人类工具的一部分。要认定伦理困境视野下自动驾驶汽车事故的责任承担主体类型并研究主体地位,必须衡量自动驾驶汽车算法的道德性,其是责任主体地位研究的重要因素。根据市场、算法开发者及关怀性选项等多重筛选下的算法决策模型具有道德性,还要将结果合理作为辅助衡量标准之一。但由于与非伦理困境视野自动驾驶汽车事故显著不同,在伦理困境中驾驶人也不应丧失控制权。除此之外,结合实践案例建立伦理困境情景模型确定其他责任主体,如算法开发者和汽车制造商,并设置其具有的法律义务从而更好的说明主体承担责任的方式。在肯定自动驾驶系统不具有自主承担责任的能力后,给算法开发者辅以适当的披露义务、提醒义务,再结合驾驶人的注意义务和接管义务,为伦理困境中自动驾驶汽车发生事故时可能产生的主体问题提出相对可行的解决方案。