你的浏览器版本过低,可能导致网站不能正常访问!为了您能正常使用网站功能,请使用这些浏览器。
chrome
Firefox

工具栏

毫末顾维灏:大语言模型加持,智能驾驶进入普世时代

  • 作者: 电驹
  • 2023-10-19 12:26
  • 385

从率先使用超算中心,应用私有云服务,到最早提出将GPT大模型技术赋能到智能驾驶领域,毫末的每一次预判和动作,都能给智能驾驶行业带来新的启示。

在DriveGPT狂奔200天之后,毫末智行于10月11日再次举办了AI DAY,以公布大模型赋能的阶段性进展。关于本次AI DAY,主要内容涵盖:

1、毫末发布了3款千元级产品,并带领无图NOH进入“白菜价”时代。

三款产品分别是HP170、HP370、HP570,价格在3000-8000元不等。作为对比,目前市场上车企能接受的智能驾驶软硬件成本普遍在5000元至12000元。

2、毫末CEO顾维灏宣布,目前DriveGPT已筛选出了超过100亿帧互联网图片数据集,480万包含人驾行为的自动驾驶4D Clips,进一步升级引入多模态大模型,获得识别万物的能力;与NeRF技术进一步整合,渲染重建4D空间;借助LLM(大语言模型),让自动驾驶认知决策具备了世界知识。

3、产品层面,搭载毫末城市NOH功能的魏牌蓝山将在2024年第一季度正式量产上市;小魔驼即将在2023年第四季度在商超履约配送场景实现盈利。

发布三款千元级无图NOH产品

今年,“降本增效”成为整个汽车行业的主旋律,如何真正满足主机厂的迫切需求,怎么以低成本高性能实现高阶智能驾驶功能的落地成为了当务之急。

张凯判断,未来几年行泊分体将逐步退出市场,更具性价比的行泊一体的域控方案将成为主流。

什么是行泊一体?就是行车和泊车共用同一个域控制器,实现传感器深度复用、计算资源共享,在提高用户智驾体验的同时,也帮助主机厂降本增效,大大提高了后者的开发效率。

张凯分享了一组数据,乘用车市场L2及以上智能驾驶渗透率达42.4%,2025年将达70%,并普及到10-20万的主销车型上;城市NOA迎来量产上车潮,目前占L2及以上辅助驾驶份额的17%,2025年将达70%。

至此,毫末发布了3款千元级产品,HP170、HP370、HP570,价格在3000-8000元。

至于功能区分方式也很清晰,即三款产品分别满足高速/城市快速路、城市道路记忆行车,以及城市全场景驾驶辅助。

经过查阅,虽然毫末并未公布驾驶芯片,但这三套方案中的芯片有可能为地平线征程3、TI的TDA4,以及高通Ride的SA8650芯片,这种高中低采用不同芯片方案的策略,也为量产搭载更多款车型提供了条件。

1、价值3000元的NOH —— HP170

毫末HP170是3000元级别的高速无图NOH(高速自动领航辅助驾驶),可实现行泊一体智驾,场景上覆盖高速、城市快速路上的无图NOH,短距离记忆泊车。

硬件配置上,算力5TOPS,传感器方案标配1个前视相机、4个鱼眼相机、2个后角雷达、12个超声波雷达,灵活选装1个前视雷达和2个前角雷达。场景上,可实现高速、城市快速路上的无图NOH,短距离记忆泊车等功能。

因为系统算力5TOPS,所以一颗MCU就可以搞定,也不用高精度地图,成本最优。

对于一些中低端车型,主机厂十分看重供应商的成本管控,甚至可以说,行泊一体功能的出现,很大程度就是由主机厂降本增效的需求驱动的。

2、记忆行车能力大大增强的NOH —— HP370

毫末官方宣称,搭载HP370的产品仅需一次学习,就可完成用户日常路线的记忆,且不依赖于车机的导航路线。HP370可实现高速、城快,以及城市内的记忆行车,免教学记忆泊车、智能绕障等功能。

毫末HP370使用了9个摄像头,360°的感知能力更强。但也可以发现,毫末在硬件方面的思路也偏向于纯视觉路线。

从硬件水平上来看,毫末370和五菱大疆KIVI这套方案更加接近,当然价格也确实接近,据网曝的信息,大疆这套驾驶辅助系统的成本在6000元以内。

3、未来落地100城—— HP570

颇受关注的毫末HP570是8000元级“极致性价比”的城市全场景无图NOH产品,未来将在100+城市落地。

硬件配置上,算力可选72TOPS和100TOPS两款芯片,传感器方案标配2个前视相机、4个侧视相机、1个后视相机、4个鱼眼相机、1个前雷达、12个超声波雷达,还支持选配1颗激光雷达。

场景上,可实现城市无图NOH、全场景辅助泊车、全场景智能绕障、跨层免教学记忆泊车等功能。

按照功能类型,HP570场景层面PK的是小鹏XNGP。不过,看硬件层面,小鹏要更强,同样其成本也要远高于8000 。

张凯强调:“HP570平台的历史使命是打造行业内最具性价比的高阶城市智驾产品。”

从标注到识别的跨越——DriveGPT大模型迎来重大升级

毫末将自动驾驶分为三个时代,在自动驾驶2.0时代,以小数据、小模型为特征,以Case任务驱动为开发模式。而自动驾驶3.0时代,以大数据、大模型为特征,以数据驱动为开发模式。

其中,自动驾驶3.0时代需要1亿公里行驶数据。目前,毫末用户辅助驾驶行驶里程已经达到8700多万公里,预计到年底可达到这一目标。

基于8700万公里行驶数据,目前毫末团队已筛选出超过100亿帧互联网图片数据集,480万包含人驾行为的自动驾驶4D Clips。

随着数据规模的增加,自动驾驶大模型需要不断进化。

1、自动驾驶语义感知大模型

升级模型,是毫末实现认知能力增强的根本逻辑。毫末将感知模型中引入图文多模态大模型,以完成4D向量空间到语义空间的对齐,做到可以具备万物识别的能力,毫末将其称之为自动驾驶语义感知大模型。

基于自动驾驶语义感知大模型,毫末还会通过构建驾驶语言来描述驾驶环境和驾驶意图,再结合导航引导信息和自车历史动作,借助LLM大语言模型做出驾驶决策。

说的直白点,假如倒车时背后有野草,通过感知大模型,可以知道这是草,但并不知其属性;目前供应商的主流方案是直接刹停,这给用户带来很不好的体验。但在引进大语言模型后,系统可以知道草是软的,可以压过去。

多模态大模型能将图文特征对齐,实现开集语义识别能力,然后再将这些语义输入大语言模型,就可以利用大语言模型里压缩的知识了,相当于掌握了人类司机对物理世界的客观知识和生活常识。

2、切换ViT大模型预测下一秒发生的事情

需要说明的是,从模型架构上,毫末如今已将视觉感知网络(CV Backbone)架构陆续从CNN类模型,切换到ViT(Vision Transformer)为代表的大模型,并在今年全面升级到性能更强大的Swin Transformer大模型。而这种模型的转换,与国际行业智能驾驶巨头一致。

在毫末最新的模型中,已经可以采用视频生成的方式,通过预测生成视频下一帧的方式来构建4D表征空间,使CV Backbone学到三维的几何结构、图片纹理、时序信息等全面的物理世界信息。

以上这些动作,主要解决了大模型领域的数据采集和标注效率低、泛化能力差等问题。

2024落地百城

毫末的智驾方案HPilot产品已经搭载超过20款车型,用户辅助驾驶行驶里程突破8700万公里。

毫末智行董事长张凯表示,目前,毫末城市NOH软件封版已达到交付状态,并开启了多城泛化路测,搭载城市NOH的车型将在2023年上市。公司预计2024年上半年其城市NOH落地将达到100城,毫末HPilot将于2025年进入全无人驾驶时代。

面向L4的小魔驼,在城市开放道路进行无人驾驶时,也已经快于普通人骑自行车的速度。在行驶安全和通行效率上,均已达到商用状态。

写在最后,这届AI DAY是毫末秀肌肉的时刻,从三款千元级无图NOH产品,到3.0时代的数据积累,模型升级得到识别万物的能力,再到百城计划和小魔驼的盈利计划。毫末已经为明天的竞争,做好了足够的准备。


内容由作者提供,不代表易车立场

收藏

收藏成功 ! 去易车app查看收藏文章

猜你想看

+加载更多

活动推荐

广告
  • 奖 
  • 抢 
  • 奖 

CopyRight © 2000-2023 BitAuto,All Rights Reserved. 版权所有 北京易车信息科技有限公司    购车咨询:4000-168-168 (周一至周日 9:00 – 21:00) 法定假日除外