麻省理工学院,微软开发模型以识别AI的弱
2024/8/24 来源:不详美丽的黄皮肤爱心援助工程 http://nb.ifeng.com/a/20180523/6600898_0.shtml
汽车制造商和公司在获得批准以对自动驾驶汽车进行公开测试方面遇到困难,这几乎迫使他们不得不移动到可以进行测试的位置,创建假冒城市或使用虚拟模拟器。虽然仿真器使公司能够接近真实世界的测试,但它们不如真实的测试好,并且可能无法向自动驾驶汽车教授每种可能的情况。
为了让公司更好地了解自动驾驶汽车是否在模拟器中学习了他们需要的一切,麻省理工学院(MIT)和微软的研究人员提出了一个解决方案。
这些组织的研究人员认为,可以通过测试系统是否准备好应对现实世界中的意外事件,来将其模型用于改进AI系统。
麻省理工学院以救护车为例。尽管我们都可以将救护车与道路分开,因为这是一辆大型白色车辆,带有闪烁的灯光,会发出很大的噪音,但自动驾驶汽车可能不知道它是什么或闪烁的含义。正如麻省理工学院所声称的那样,这可能是自动驾驶汽车系统无法分辨普通白色汽车以外的救护车的问题。
为了识别自动驾驶汽车的弱点,研究人员依靠人类的投入,即人们观看了自动驾驶汽车系统在现实世界中的相互作用。如果人类注意到自治系统将要犯错,他们将提供反馈。在人类的反馈下,研究人员将其与训练数据和机器学习技术配对,以创建指出可能存在盲点的模型。
这些“盲点”在热图中突出显示,从而将区域从低到高分解为潜在问题的可能性降低。例如,如果系统检测到救护车并在10次中有9次驶过安全车,则将其分类为安全状况。如果一个自治系统只检测到一辆救护车一次,那么这就是一个盲点。
麻省理工学院的研究生拉米亚·拉玛克里希南(RamyaRamakrishnan)说:“该模型可以帮助自治系统更好地了解未知信息。”“很多时候,当部署这些系统时,它们训练有素的模拟与实际设置不符,并且可能会犯错误,例如发生事故。这种想法是利用人类来弥补模拟与模拟之间的差距。现实世界中,以一种安全的方式,因此我们可以减少其中一些错误。”
虽然听起来该模型可以在现实世界中运行,但当自动驾驶汽车将要犯错误时,受过训练的驾驶员将能够提供即时反馈,而MIT和Microsoft仅在视频游戏中测试了该模型。在这里,研究人员可以为出错的地方提供安全的地方。