MIT万字论文解析好用的自动辅助驾驶
2024/8/24 来源:不详保守来看,可能我们与真正意义上的自动驾驶汽车,还隔着几十年的距离。在此之前,人机共驾可能会成为一种常态,人类不仅要参与到实际驾驶中,同时还要扮演「监察员」的角色,牢牢盯着人工智能系统的运行。
但正是这样的「常态」,却一直是自动驾驶行业的「沼泽地带」。
在自动驾驶过程中出现突发状况时,如何让驾驶者及时且安全地接管控制汽车是一个汽车行业争论已久的难题。而这也正是行业内称作L3级别自动驾驶、甚至是L2级别自动辅助驾驶急需解决的问题:用户到底该不该信任这一类「人工智能辅助的驾驶系统(AI-assisteddrivingsystem)」?
其实业界针对自动化场景下人类行为的研究已经有超过70年的历史了。之前的研究表明:人类在交出控制权很长一段时间后,会自然地对可信赖的自动化机器产生过度信任的感情。
于是,如何平衡用户信任和风险,成为了众多车企和自动驾驶公司的「抉择」。这迫使很多车企直接越过沼泽,放弃了这种中间状态的「L3级别自动驾驶」——「与其在技术不成熟时把责任转嫁到消费者身上,倒不如真正踏实的致力于直接实现完全自动驾驶汽车。」
但是依旧有很多辅助驾驶功能带来的体验让用户「上瘾」,包括能够不断升级的特斯拉Autopilot系统。
其实针对Autopilot的安全性问题,业界对特斯拉颇有微词。上月,美国国家交通安全委员会(NTSB)发布的调查报告显示,3月份发生在美国佛罗里达州的一起特斯拉致死事故中,车祸发生时Autopilot处于激活状态,且驾驶员双手并没有放在方向盘上。尽管特斯拉官方也一直在强调,Autopilot属于辅助驾驶系统,开启后驾驶员仍要手扶方向盘保持注意力集中。但事实上,之前很多起致死事故中,车主几乎都处于「拖把」的状态,完全将生命交给了一套功能仍有待完善的智能机器。
错误的特斯拉Autopilot系统使用示范
网络用户
「我们接受批评和建议,不过我们做的所有决定都是处于为客户最佳体验的考虑。」在今年第一季度的电话会议上,ElonMusk解释说,「这些严重事故大部分都发生在经验丰富的驾驶员身上,这种盲目自信容易让人放松警惕,导致了悲剧的发生。」但Musk始终坚信自己的观点:「Autopilot比任何传统汽车更加安全。」
针对这样的行业难题,MIT花费三年时间,以上亿条的实验数据来说明、讨论和进一步拆解「信任」与「分险」以及「警惕性」之前的关联。这项研究的论文已经公开发布(下载