极客汽车专访FUTURUSARHUD的量
2024/9/8 来源:不详来源:南早网
无论是给WHUD添加动画,还是利用左右眼不同的画面欺骗大脑,营造立体效果,总归是在现阶段ARHUD技术不成熟时的权宜之计,它们更像是ARHUD成熟前的「代餐」......
提到车里的HUD,我们总能听到不同的声音:爱它的人觉得它能带来战斗机般的驾驶沉浸感,讨厌它的人嫌弃它鸡肋;有的人偏爱它所营造出的科技感,有的人认为挡风玻璃前大量信息影响了驾驶视线;有的人嫌弃它白天不够清晰,有的人则讨厌它夜间的色彩太过炫目……
说到HUD的这些「槽点」,我们不得不替它喊句冤。
虽然这项源自战斗机的技术在年就被引入汽车中,但是从早期需要借助透明树脂玻璃板的CHUD到如今用挡风玻璃做屏幕的WHUD,再到成像效果更好的ARHUD,真正让HUD进化的时间,也就智能汽车上路这几年。
因此,尽管HUD颇具争议,但丝毫不影响它在智能汽车上的普及速度:过去在高端车上才会选装的HUD,如今逐渐走入了中低端车型,甚至在前不久发布的理想L9中,HUD直接取代了仪表盘,成为了信息显示的第一选择。就在HUD一路向「下沉市场」高歌猛进的同时,效果也鸟枪换炮,图像越来越大,成像效果更好,显示更多辅助驾驶信息……但是对于这个领域的头部玩家们来说,ARHUD绝对是共同的追求目标。
以往,CES一直是先锋科技的晴雨表,能让我们了解到ARHUD的最新进展,不过在车展都不得不推迟的当下,想深入接触HUD玩家们的最新进展也增加了难度,更多的是从已经落地的量产车上窥视一二。
为此,我们特意联系到了GeekCar的老朋友,位于北京的FUTURUS未来黑科技。作为国内HUD领域的先行者之一,FUTURUS在年开始正式与宝马合作,也是国内某头部造车新势力的核心HUD供应商。
在与FUTURUS聊天的过程中,我们对于过去一年里体验过无数次的「ARHUD」逐渐从熟悉变得陌生,又从陌生开始有了新的认识。
你的ARHUD,是真「AR」么?
过去的年,被不少人称作「ARHUD元年」。
什么是ARHUD呢?作为ARHUD的前身,WHUD通过前挡风玻璃作为屏幕,将HUD虚像投射到挡风玻璃前方某处,这样当驾驶员开车时,就可以直视前方一边开车一边看车速、油耗等仪表信息,甚至导航和辅助驾驶信息,而不用再频繁低头或转头查看仪表和中控屏幕。ARHUD,就是在WHUD的基础上,将这些信息「AR化」,让HUD虚像与道路现实场景融合。
(从CHUD、WHUD到ARHUD的效果进化)
要想让HUD虚拟图像与现实场景融合,就需要图像有纵深效果:标注前方5米处的车辆时,图像看起来在5米的位置;标注前方10米外的车道线时,图像能营造出10米外的效果。能够呈现三维立体的虚拟图像,适应人眼连续变焦的过程,呈现虚实融合的视觉效果,可以说是一款ARHUD的必要条件。
年,有不少车型推出了「ARHUD」功能,比如奔驰S级轿车,大众ID.系列,红旗E-HS9、长城WEY摩卡等等,看起来市场一片火热。这些顶着「ARHUD」名头出道的产品,在视觉效果上的确做出了改进,比如图像更大更清晰,成像距离更远,有的甚至颇具动态感,但是实际体验下来的感受却差强人意。
不是用户们太挑剔,而是人的眼睛太聪明。
这些「ARHUD」产品,采用近距离单层或双层2D显示屏。对于用户来说,究竟是2D还是3D,似乎并不重要,只要好用就够了。可关键就是,它们并不好用。
这就像学生时代常玩的裸眼3D图,目前的「ARHUD」主要利用左右眼看到不同的画面来欺骗大脑,最终在脑海中呈现出立体的效果。
然而并不是每个人都能轻松地看出裸眼3D图,人眼的差异也决定了并不是每个人都会被「欺骗」,看出立体的效果。再配合车辆行驶的晃动,可能就会收获一个体验糟糕、让人眩晕恶心的「ARHUD」。
就算解决了眩晕的问题,如何让二维的图像与三维的世界完美融合,依然是无法解决的门槛问题。
比如当ARHUD配合ACC功能时,需要对前车位置进行跟踪,车辆位置拉远,标注前车位置的图像也要相应拉远。为了营造出「模拟跟踪」的动态效果,有的「ARHUD」就用到了动画。
在奔驰S级的ARHUD上,就通过2D动画来营造指引箭头的动态效果,让画面看起来充满立体感。不过,动画虽然可以模拟,但与环境的融合就无法通过动画实现了,因此奔驰S级就干脆放弃了让虚像与环境融合的打算,让ARHUD的虚拟信息们「孤零零」地漂在挡风玻璃前方。
此外,目前「ARHUD」的另一个弊端就是为了在现有平面显示的基础上提升视场角和成像尺寸,封装尺寸过大。我们仍以目前相对效果最好的奔驰S级为例,它所搭载的「ARHUD」箱体尺寸达到27L。这个尺寸和背后的成本,让很多平价车型都望而却步。
因此,无论是给WHUD添加动画,还是利用左右眼不同的画面欺骗大脑,营造立体效果,总归是在现阶段ARHUD技术不成熟时的权宜之计,它们更像是ARHUD成熟前的「代餐」:
一边利用这些技术让消费者熟悉和接受ARHUD的概念,另一边加紧「真ARHUD」的研发,让虚拟图像3D化与现实融合,图像就不再是「漂」在车辆前方,而是「长」在前方需要跟踪和识别的对象上,自然可以避免视觉疲劳、眩晕、影响驾驶的弊端。
是什么「拖慢了」ARHUD的脚步?
如果说HUD上车到如今,30多年的时间可以算作是「历史悠久」,那ARHUD的概念却也并非新鲜产物。早在年宝马NEXTVISON的概念车上,我们就能看到ARHUD概念的雏形。
几年前,行业对于ARHUD落地的预期还乐观地设定在了年。可如今身处年,尽管不少所谓的「ARHUD」产品已经落地,但是真正能呈现AR效果的量产车显然还要等上一段不短的时间,否则也不会急于推出「代餐」们来面市。
对此,FUTURUS未来黑科技联合创始人尉鸿轩表示:HUD的技术已经成熟了,但是ARHUD还远没有成熟。
那是什么让ARHUD前进的脚步如此艰难呢?
01技术门槛:虚拟成像与实景的虚实融合
用FUTURUS未来黑科技创始人、CEO徐俊峰的话来说,ARHUD最难的就是通过3D光场显示技术呈现虚拟世界,以及虚实实时融合技术。
区别于现有的2D版「ARHUD」,ARHUD的关键在于驾驶员视线前方打造一个三维的显示屏,像全息投影一样将虚像立体地呈现,这也成为目前HUD领域头部玩家们 比如,作为传统HUD供应商的德国大陆投资了初创公司DigiLens,专注研发全息波导技术,通过类似全息瞄准镜的原理打造三维成像的效果;松下和HUD初创公司WayRay则都选择了激光全息投影技术,以达到虚像的立体化和视觉连续变焦效果。
在AR领域一直蓄势待发的苹果也在公开的专利中显示,将通过光场HUD技术输出三维成像效果。与苹果类似,作为国内企业的FUTURUS也采用光场ARHUD技术,甚至早在年就进行了相关专利布局,比苹果还要抢先一步。FUTURUS计划在北京车展期间亮相的光场ARHUD,可能是目前我们能近距离接触到的最接近「真AR」的HUD产品。
可以说,在如何打造真ARHUD这件事情上,各家都在争分夺秒,竞争异常激烈。
与此同时,打造出一个三维的虚拟世界后,还要进一步解决延时、抖动等虚实融合的高阶难题。这种融合既包括空间的融合,也包括时间的融合。
为此,FUTURUS通过自主研发的图形矫正、数据补偿、3D渲染技术,将HUD虚像和周边环境信息进行3D化呈现,并在对应空间位置上进行对齐展示。当虚像与实景完美融合,HUD画面虚像就像「长在」环境中,自然不会出现违和和不真实感。
在时间上,ARHUD对于仪表信息的展示是实时的,特别是当ARHUD与导航和ADAS系统打通后,路线指引、车道保持预警、前方障碍物预警等更多信息都需要被展示,HUD虚像部分的展示也就必须与车载传感器、处理器、车辆信息以及周边环境实时同步,将延时控制在人眼觉察不到的毫秒范围内。
当然,除了虚拟图像的处理和虚实融合这个核心关卡外,ARHUD还要面临很多HUD之前遇到的共性问题,比如不同PGU(成像单元)技术路线的选择,决定了成像效果和直接成本,但更多要依赖上游材料供应商等;核心元件光学曲面镜对于精度的严苛要求,更是对ARHUD的上游制造商提出了考验。
02HUD供应商的里程碑:量产上车
对于HUD供应商和初创公司们来说,里程碑的时刻是什么呢?
「量产上车。」尉鸿轩如此回答。
在他看来,HUD上车,是一个探索次优解的过程。作为以光学设计为核心的产品,其精密和复杂程度比相机有过之而无不及,微小的结构调整都影响着最终的效果。这也让HUD产品的上车难度,不亚于前期的研发投入。
占据HUD市场半壁江山的日本精机就曾透露,它们从年开始着手打造奔驰S级的HUD,到年底奔驰S级量产面世,经历了近三年时间,这还是建立在日本精机在传统WHUD领域多年量产经验的基础上。
无独有偶,国内某造车新势力的HUD功能从规划上车到最终量产也历经了足足四年之久。期间每一次车型的微小调整、挡风玻璃角度的变化,都需要相应地调整HUD光路设计方案,特别是核心部件光学曲面镜;车身传感器布局的变化,HUD的数据接入也需要相应调整。这也注定了无论是HUD,还是ARHUD,都很难批量化、模块化打造。
量体裁衣,限制了ARHUD最终上车的步伐。
对于真ARHUD的落地时间,国内外企业不约而同地给出了相似的答案。在FUTURUS看来,从今年光场ARHUD的发布,到最终在量产车上应用,还需要约3年时间,也就是年。无独有偶,在CES上展示了激光全息投影ARHUD技术的松下,也将产品的落地预期定在了年。
看来,尽管不少人将年看作ARHUD元年,但要想用上真正的ARHUD,我们还需要几年的等待。
当人类不需要驾驶,ARHUD的终局在哪里?
无论是战斗机驾驶室内的HUD,还是如今智能汽车上的HUD,最大的作用,就是将关键信息呈现在视线前方,降低低头查看仪表盘时短暂的视线偏离引发事故的风险。
ARHUD与自动驾驶的发展,看起来似乎相互矛盾:如果未来的某天,完全自动驾驶实现,不再需要人开车了,那我们还需要ARHUD么?ARHUD的作用是什么呢?
马斯克常提到的「第一性原理」,对于HUD来说同样适用。从CHUD到WHUD,再到未来的ARHUD,尽管它们形态不同、效果不同,但使命是不变的:作为座舱内的显示载体,为人类提供便利,满足用户的交互需求。
因此,当自动驾驶逐渐解放了驾驶员,人类的需求发生变化,HUD的作用自然也会发生变化。
01信息模拟器阶段:驾驶安全是首要任务
现阶段,人类掌握着驾驶的绝对主动权,智能驾驶系统的作用是提出预警和特殊情况下的辅助干预。将驾驶必要信息直观且不干扰视线地展示在驾驶员眼前,让驾驶更安全,是HUD现阶段的使命。
因此目前的HUD更像一个信息模拟器,显示车速、限速等仪表信息的同时,显示导航和部分ADAS信息来辅助驾驶。
比如,ARHUD与LDW车道偏离报警系统、ACC自适应巡航系统等结合,标注前方车道,在偏离时给出预警提示,标出前方车辆位置,根据前方车辆的远近来调整跟车距离。甚至在理想L9上,HUD不再是一个仪表信息备份的「选配」方案,而是直接取代了物理仪表盘的存在。
(理想L9上取代了实体仪表盘的HUD)
02智能系统可视化阶段:增强人与系统的信任
当车辆的智能化水平逐渐提升,越来越多的场景可以由智能系统来独立完成,只需要在触发某些条件时,交给人接管,也就是所谓的L3级自动驾驶阶段。尽管我们目前不能严格将领航辅助驾驶功能称作L3级自动驾驶,但它们面临着同样的问题:车子什么时候归系统管,什么时候归人管?当自动驾驶系统遇到危机时,作为驾驶员的我们怎么能及时知道系统需要接管?
这就需要人与车之间建立一个可视化的媒介来实时显示系统状态。系统是否检测到前方的红灯?是否检测到突然闯入的自行车?是否无法完成急转弯,需要人来接管?借助ARHUD的可视化模式,系统的状态一目了然。人与系统之间的信任,也在这个知己知彼的过程中建立。
03无人驾驶时代:车内外交流的「窗口」
当完全自动驾驶实现的那一天,仪表信息、辅助预警、系统状态似乎都没那么重要了,我们完全信任车辆做出的决定。在这种情况下,座舱的娱乐功能和屏幕设计也会越来越多,车子成为了一个真正的移动「第三空间」。
不过,就算座舱内屏幕再多,车窗依然是人在车内与外界交流的天然渠道。就像客厅内的液晶电视屏幕再大,也无法代替我们对窗外风景的向往。这时候,借助车窗这个天然的屏幕来投射信息,显示周边的咖啡馆、饭店、商场,也就显得顺理成章。
当车窗成为车内外交流的窗口,人与世界的交互将不再局限在平面世界,而是通过ARHUD的纵深感打造出沉浸式体验,让车内的人不被困在车和屏幕里。
最后
如果说在WHUD时代,HUD市场更多的是国外企业的天下;那在智能化加持下,属性更丰富的ARHUD则将大家拉回了同一起跑线,让我们看到国内初创公司与传统供应商齐头并进的局面。
如今那些表现差强人意的ARHUD,似乎是HUD行业演进道路上不可避免的尴尬阶段。我们不能因此否定ARHUD本身,但也更期盼真ARHUD的早日到来。就像影片《碟中谍4》中驾驶着宝马概念车VisionEfficientDynamics的阿汤哥那样,可以在挡风玻璃上随时载入导航地图,切换界面。
这样的智能汽车未来,你期待吗?