9月,理想汽车推出了“车位到车位”一键智驾内测版,让智能驾驶的场景更全面多元,实现全国都能开的无图NOA功能。记者在本次试驾过程中,对理想L9 Ultra“E2E端到端+VLM视觉语言模型内测版”进行了深度体验,在实际驾驶过程中,理想L9表现出较强的障碍物理解能力、超视距导航能力、道路结构理解能力,以及更拟人的决策能力。
在规划好导航路线后,向下连续两次拨动怀档,车辆随即激活NOA功能,车位内自动起步,自动识别闸机,驶出内部路打左转、上路一气呵成,行驶过程中理想L9可自主识别所在车道及交通信号灯,在路口前进行变道操作,路口处也可根据信号灯情况启停。
值得一提的是,遇到前方缓行车辆,理想L9会做出自主变道动作,干脆果断不拖泥带水,当然,由于每个人习惯不同,理想L9也设置了“手动确认”与“自主变道”两个选项,车辆在决定变道前会在方向盘上的小屏给出建议,按OK键确认后开始执行。
理想汽车AD MAX 3.0智驾方案是“E2E端到端+VLM视觉语言模型”结合的方式,其中“端到端”大模型一端指的是激光雷达、高清摄像头等传感器,负责采集信息输入,另一端是指方向盘、油门、刹车等执行端,负责输出各种动作。总体而言,端到端可覆盖95%的普通场景,剩余5%的特殊场景则需要“VLM视觉语言模型”介入,VLM负责处理更复杂的逻辑推理和决策任务,在遇到未知或复杂驾驶情况时做出合理判断,并可不断学习进化。
例如在环岛、非机动车及行人拥挤以及掉头等场景,均需要VLM视觉语言模型进行实时分析,此时会明显感觉理想L9在进行计算,为确保安全车速也会随之降低,记者试驾中经过的环岛路线均能正常驶出,遇到“鬼探头”的电动自行车也会及时刹车避免碰撞。不过,在高架下方多路口掉头的场景可以感受到车辆的犹豫,偶尔需要人为接管。
可以说端到端模型是条件反射式的简单场景下的执行,也是理想整个智能驾驶系统的闭环路径,而VLM视觉语言模型则是智驾系统的大脑,是端到端的一个额外环节,通过VLM视觉语言模型分析后的决策最终也是交到端到端模型来输出和执行。
值得一提的是,VLM视觉语言模型可以通过不断整合理想汽车百万车主的行驶数据,目前理想汽车的智能驾驶训练里程达到25亿公里,预计年底将达到30亿公里。可以说该模型见过绝大部分司机从未见过的场景,所有用户相当于共享了一名驾驶经验丰富的老司机,而且这个司机永不疲劳,也没有视野盲区,另外其全自动AES(自动紧急转向)以及全方位低速AEB(自动紧急制动)进一步保证了行车安全。
到达导航目的地后,理想L9会自动识别车位,踩下刹车选择车位,车辆会自动泊入,这在短窄车位或狭小空间泊车场景下作用巨大,理想L9在记者体验的几天内无一例外地安全泊入。另外,如果用户有固定车位,理想L9也可学习从停车场入口到车位的路线,并激活代客泊车功能,完成“车位到车位”最后一段智驾旅程。
经过深度试驾,记者对理想L9 Ultra版的智驾功能有了比较全面的认知,总体而言,理想汽车的智驾体验稳居全行业第一梯队,高速路与城区快速路体验更是一流,城区个别复杂场景需要人为介入,毕竟目前国内量产车搭载的均是L2或L2+级别的辅助驾驶功能,但理想L9的NOA无疑处在行业领先地位,在保证安全的前提下可有效减少用户驾驶疲劳感,值得推荐。
在汽车行业,销量是产品最好的背书,理想汽车9月交付53709辆,同比增长48.9%,刷新单月交付纪录。10月18日,理想第100万辆汽车交付完毕,成为最快达成百万辆交付的中国豪华汽车品牌,而这第100万辆交付的汽车恰好是理想L9,该车型自2022年6月首次上市以来已累计交付超21万辆。(视频/图/文 记者 陈梦宇)
版权声明
本文仅代表作者观点,不代表百度立场。
本文系作者授权百度百家发表,未经许可,不得转载。
评论