当自动驾驶汽车撞车时,谁负责法院需要知道
2022/6/12 来源:不详北京哪治疗白癜风医院收费低 https://wapjbk.39.net/yiyuanfengcai/tsyl_bjzkbdfyy/
今年3月,澳大利亚发生了第一起涉及自动驾驶汽车的严重事故。一名行人在被一辆特斯拉3型车撞到时,受到了致命的伤害,司机称该车处于“自动驾驶”模式。
在美国,公路安全监管机构正在调查一系列事故,特斯拉斯驾驶的自动驾驶仪在交通停止时撞上了闪光的急救车。
在美国,一辆特斯拉3型汽车与一辆静止的应急响应车相撞
“自动驾驶”汽车的决策过程往往不透明且不可预测(甚至对其制造商而言),因此很难确定谁应对此类事件负责。然而,“可解释人工智能”这一不断发展的领域可能有助于提供一些答案。
自动驾驶汽车撞车谁负责?虽然自动驾驶汽车是新的,但它们仍然是制造商制造和销售的机器。当它们造成伤害时,我们应该询问制造商(或软件开发人员)是否履行了安全责任。
现代过失法源自著名的DonoghuevStevenson案,一名妇女在她的姜汁啤酒瓶中发现了一只腐烂的蜗牛。该制造商被发现疏忽大意,不是因为他被期望直接预测或控制蜗牛的行为,而是因为他的装瓶过程不安全。
按照这种逻辑,基于人工智能的系统(如自动驾驶汽车)的制造商和开发人员可能无法预见和控制“自动”系统所做的一切,但他们可以采取措施降低风险。如果他们的风险管理、测试、审计和监控实践不够好,他们应该承担责任。
多少风险管理就足够了?困难的问题将是“多大的谨慎和多大的风险管理就足够了?”在复杂的软件中,不可能提前测试每个bug。开发商和制造商如何知道何时停止?
幸运的是,法院、监管机构和技术标准机构在为风险但有用的活动制定护理和责任标准方面拥有丰富的经验。
标准可能非常严格,就像欧盟的人工智能条例草案一样,它要求在不考虑成本的情况下“尽可能”降低风险。或者,它们可能更像澳大利亚的过失法,允许对不太可能或不太严重的风险进行不太严格的管理,或者风险管理会降低风险活动的整体效益。
AI不透明将使法律案件复杂化一旦我们有了明确的风险标准,我们就需要一种方法来实施它。一种方法是赋予监管机构施加处罚的权力(例如,ACCC在竞争案件中的做法)。
受到人工智能系统伤害的个人也必须能够起诉。在涉及自动驾驶汽车的案件中,针对制造商的诉讼将尤为重要。
然而,为了使此类诉讼有效,法院需要详细了解人工智能系统的流程和技术参数。
出于商业原因,制造商通常不愿透露此类细节。但法院已经有了平衡商业利益的程序,并有适当数量的信息披露以促进诉讼。
当人工智能系统本身是不透明的“黑匣子”时,可能会出现更大的挑战。例如,特斯拉的自动驾驶仪功能依赖于“深层神经网络”,这是一种流行的人工智能系统,在这种系统中,即使是开发人员也永远无法完全确定它是如何或为什么达到给定的结果的。
可解释的人工智能对救援有帮助吗?打开现代人工智能系统的黑匣子是新一轮计算机科学和人文学者