毫末数据驱动六大闭环能力持续升级,冲刺自动驾驶3.0时代

毫末数据驱动六大闭环能力持续升级,冲刺自动驾驶3.0时代,第1张

哈 “2023年智驾产品进入全线爆发期,大模型开启在车端的落地应用,车主的使用频率和满意度成为产品竞争力的重要衡量标准。毫末领先的技术布局、数据驱动闭环体系、工程效率等,都将确保毫末始终跑在行业前列。可以说,毫末是自动驾驶公司中最懂如何量产落地的,在Tier1中最懂怎么做自动驾驶的,在具有数据的公司中最懂如何真正数据闭环的。”4月11日,第八届HAOMO AI DAY再度开启,毫末智行董事长张凯以《HAOMO SPEED,AI SPEED》为题,分享了对于2023年自动驾驶发展宏观趋势的判断,并带来毫末2023四大战役进展、新主机厂合作成果和对智能驾驶产品能力迭代的新思考。

(毫末智行董事长张凯以《HAOMO SPEED,AI SPEED》为主题发表演讲)

2023智能驾驶冲刺、大考之年,智驾产品进入全线爆发期

张凯对2023年自动驾驶发展最新趋势进行了分析。对于2023年的智能驾驶市场,毫末的判断是,今年是冲刺之年、大考之年。2022年度中国市场,乘用车L2及以上辅助驾驶前装搭载率升至2940%,前装标配交付58599万辆。而毫末在去年预估,到2025年高级别辅助驾驶搭载率超过70%。张凯认为,这意味着智驾产品正在进入快速增长的全线爆发期,2023年是非常关键的一年。

首先,城市导航辅助驾驶产品在2023年将围绕量产上车发力,主要玩家的城市辅助驾驶产品进入到真实用户覆盖和多城市落地的比拼。其次,行泊一体和末端物流自动配送产业商业化将成为自动驾驶公司深耕的重点。在乘用车领域,搭载行泊一体功能的智驾产品将迎来前装量产潮;在末端物流自动配送领域,商超、快递等场景迎来爆发,2023年将在这些场景实现可持续商业化闭环。

张凯表示,“趋势变化背后是AI大模型推动下的产业生态的进化升级”。在数据生态上,随着用户更高频地开启辅助驾驶功能,智驾行驶里程渗透率呈现指数级提升,可以更好驱动自动驾驶技术的快速迭代升级;在AI技术生态上,生成式大模型成为自动驾驶系统进化的关键;在算力生态上,基于自动驾驶数据的大规模增长,以及大模型的深入应用,智算中心已经成为自动驾驶行业的“新基建”。“这些趋势背后的推动力,毫末也正全力准备,深度投入。”

(张凯判断2023年是智能驾驶冲刺之年、大考之年)

在演讲中,张凯再次强调了毫末对于技术研发投入的坚定决心。他表示,技术领先是生存根本,毫末鼓励所有技术研发同学投入到技术创新当中。截至目前,毫末已获得专利证书164件,国际顶级学术会议论文收录6篇,最新2篇更是分别入选计算机视觉识别领域三大顶会之一的CVPR和全球首个智能车专业期刊IEEE TIV。毫末已将所有论文在GitHub开源,与行业共享。

打响2023年第一q,毫末四大战役全面突围

当前,行业全面发力、更多的自动驾驶产品已在加速落地,而毫末在今年初公布的2023年四大战役也已经取得了阶段性成果。张凯在会上介绍了毫末四大战役的最新成果。

首先是“智能驾驶装机量王者之战”,首款搭载HPilot30的新摩卡DHT-PHEV即将重磅上市,第二款搭载毫末HPilot30的车型魏牌蓝山也将在今年发布。毫末HPilot整体已搭载近20款车型。用户辅助驾驶行驶里程突破4000万公里,HPilot20辅助驾驶日均里程使用率126%。海外布局方面,搭载毫末HPilot的车辆已运往欧盟、以色列等地区和国家,陆续交付到用户手中,同时即将量产墨西哥版本及俄罗斯版本,接下来也将在中东、南非、澳大利亚市场陆续投放。

3月,高工智能汽车研究院在每个年度基于前装量产数据库及定点车型库数据进行了综合评估,通过毫末前装近20款车辆等数据研究,为毫末颁发年度高阶智能驾驶系统量产份额领军奖。第三方数据佐证毫末是中国量产自动驾驶绝对领军者。毫末持续引领中国自动驾驶第一名。

(毫末持续引领中国量产自动驾驶第一名)

其次是“MANA大模型巅峰之战”,中国首个自动驾驶数据智能体系MANA架构已迎来全线升级。截止2023年4月,MANA学习时长超过56万小时,相当于人类司机68万年。毫末打造的自动驾驶生成式大模型DriveGPT雪湖·海若,已经完成基于4000万公里量产车驾驶数据训练,预训练模型参数规模达1200亿。“我们相信,DriveGPT雪湖·海若将重塑汽车智能化技术路线。”

(毫末行业首发自动驾驶生成式大模型DriveGPT雪湖·海若)

第三是“城市NOH百城大战”,中国首款可大规模量产落地、重感知城市NOH,已在北京、保定、上海等城市开启泛化测试。搭载毫末HPilot30并开通城市NOH功能的新摩卡即将重磅上市。到2024年有序落地100城。毫末会以“安全为先、用户为先、规模为先”的原则,加速赢得城市NOH百城大战。

最后是“末端物流自动配送商业之战”,毫末末端物流自动配送车小魔驼已在商超履约、快递接驳、校园配送、机场巡逻、餐饮零售、智慧社区、智慧园区、高校教育以及大气环评九大场景开启运营,加速商业化闭环。2023年3月,小魔驼20获北京亦庄无人配送车车辆编码,开启亦庄运营。毫末也成为《无人配送测试规范》升级后,首家准许在北京市高级别自动驾驶示范区公开道路,进行无人配送车测试的公司。

(小魔驼已覆盖九大场景,开启多元化运营)

拿下三大主机厂定点合同,实现商业化重要一跃

“毫末始终认为,自动驾驶是一个共同进退、共享成果的前沿产业。只有健康的生态伙伴才能支持毫末高速发展。”现场,张凯首次向外界公布了毫末6P开放合作的重要进展:目前毫末已与3家主机厂签署定点合同,相关项目正在交付中。

(毫末已获得3家主机厂定点合同)

毫末智行在6P合作生态上的重大突破,来源于客户对毫末HPilot产品快速迭代能力的认可。毫末一直坚持场景化用户体验设计、人工智能技术、技术工程化能力均衡发展,不断以数据驱动闭环的方式完善用户体验。张凯介绍,三个月时间,毫末在数据驱动六大闭环体系上实现多重进展:

一、在用户需求闭环方面,毫末对驾驶相关场景数据持续分析,进一步完善产品策略,在道路曲率限速、换道时机、换道平顺性、跟车控制平顺性等产品性能上持续优化,并进行新功能的体验反馈。

二、在研发效能闭环方面,毫末将数据驱动理念深入到包括产品需求定义、感知与认知算法开发、系统验证环节等产品开发流程的各个环节,使得整体开发效率较去年提升30%。

三、在数据积累闭环方面,毫末在车端部署诊断服务的相关数据场景标签覆盖92%的驾驶场景,在离线评测升级上,实现场景数据库到仿真测试用例的自动化转化,覆盖97%的用户高频使用场景,同时在大规模纯视觉3D标注和场景编辑的能力和效率上均达到行业顶尖水平。

四、在数据价值闭环方面,毫末大模型,正在持续挖掘自动驾驶数据价值并解决自动驾驶的关键问题。

五、产品自完善闭环,毫末实现售后问题处理速度较传统方式的十倍效率提升,实现最快10分钟定位售后问题。两年时间有效提升产品提升点,问题闭环率达76%,并且实现8轮HWA性能提升和5轮NOH软件迭代,帮助客户成功实现8次OTA产品在线升级。

六、在业务工程化闭环方面,毫末进一步完善了从采集回流环节、标注训练环节、系统标定环节、仿真验证环节到最终OTA释放环节的产品研发全流程工程化闭环。毫末不断进步的数据驱动六大闭环能力,进一步加速毫末冲刺进入自动驾驶30时代的步伐,并形成相应的护城河。

(毫末数据驱动六大闭环体系实现多重进展)

在演讲最后,张凯表示,“上一届AIDAY时,我们判断自动驾驶正在穿越寒冬,伴随AI技术在自动驾驶深入应用迈入新阶段。如今来看,AI不负众望,毫末也更加笃定前行。我们始终相信,春暖花开,AI照亮未来。”

本文来自易车号作者凌乱了美悦儿,版权归作者所有,任何形式转载请联系作者。内容仅代表作者观点,与易车无关

飞行管理计算机系统里装有导航数据库和性能数据库,包括所有航线的计划航路,只要飞行员在起飞前输入所飞航线的相关参数,那么,从他按下自动驾驶仪按钮的那一刻起,飞机就会完全按照计划航线自动飞行,直到着陆。

一般情况下,机场都装有引导飞机着陆的仪表着陆系统,该系统利用无线电波在空中形成一条看不见得飞机下滑道。当飞行管理计算机将飞机引导到下滑道时,自动驾驶仪通过接受无线电信号来控制飞机,使飞机沿下滑道自动着陆到跑道头,再由飞行员 *** 纵飞机沿跑道滑跑。

环境感知是自动驾驶的第一环,是车辆和环境交互的纽带。一个自动驾驶系统整体表现的好坏,很大程度上都取决于感知系统的好坏。目前,环境感知技术有两大主流技术路线:

①以视觉为主导的多传感器融合方案,典型代表是特斯拉;

②以激光雷达为主导,其他传感器为辅助的技术方案,典型代表如谷歌、百度等。

我们将围绕着环境感知中关键的视觉感知算法进行介绍,其任务涵盖范围及其所属技术领域如下图所示。我们在下文分别梳理了2D和3D视觉感知算法的脉络和方向。

2D视觉感知

本节我们先从广泛应用于自动驾驶的几个任务出发介绍2D视觉感知算法,包括基于图像或视频的2D目标检测和跟踪,以及2D场景的语义分割。近些年,深度学习渗透到视觉感知的各个领域,取得不错的成绩,因此,我们梳理了一些经典的深度学习算法。

1目标检测

11 两阶段检测

两阶段指的是实现检测的方式有先后两个过程,一是提取物体区域;二是对区域进行CNN分类识别;因此,“两阶段”又称基于候选区域(Region proposal)的目标检测。代表性算法有R-CNN系列(R-CNN、Fast R-CNN、Faster R-CNN)等。

Faster R-CNN是第一个端到端的检测网络。第一阶段利用一个区域候选网络(RPN)在特征图的基础上生成候选框,使用ROIPooling对齐候选特征的大小;第二阶段用全连接层做细化分类和回归。这里提出了Anchor的思想,减少运算难度,提高速度。特征图的每个位置会生成不同大小、长宽比的Anchor,用来作为物体框回归的参考。Anchor的引入使得回归任务只用处理相对较小的变化,因此网络的学习会更加容易。下图是Faster R-CNN的网络结构图。

CascadeRCNN第一阶段和Faster R-CNN完全一样,第二阶段使用多个RoiHead层进行级联。后续的一些工作多是围绕着上述网络的一些改进或者前人工作的杂烩,罕有突破性提升。

12 单阶段检测

相较于两阶段算法,单阶段算法只需一次提取特征即可实现目标检测,其速度算法更快,一般精度稍微低一些。这类算法的开山之作是YOLO,随后SSD、Retinanet依次对其进行了改进,提出YOLO的团队将这些有助于提升性能的trick融入到YOLO算法中,后续又提出了4个改进版本YOLOv2~YOLOv5。尽管预测准确率不如双阶段目标检测算法,由于较快的运行速度,YOLO成为了工业界的主流。下图是YOLO v3的网络结构图。

13 Anchor-free检测(无Anchor检测)

这类方法一般是将物体表示为一些关键点,CNN被用来回归这些关键点的位置。关键点可以是物体框的中心点(CenterNet)、角点(CornerNet)或者代表点(RepPoints)。CenterNet将目标检测问题转换成中心点预测问题,即用目标的中心点来表示该目标,并通过预测目标中心点的偏移量与宽高来获取目标的矩形框。Heatmap表示分类信息,每一个类别将会产生一个单独的Heatmap图。对于每张Heatmap图而言,当某个坐标处包含目标的中心点时,则会在该目标处产生一个关键点,我们利用高斯圆来表示整个关键点,下图展示了具体的细节。

RepPoints提出将物体表示为一个代表性点集,并且通过可变形卷积来适应物体的形状变化。点集最后被转换为物体框,用于计算与手工标注的差异。

14 Transformer检测

无论是单阶段还是两阶段目标检测,无论采用Anchor与否,都没有很好地利用到注意力机制。针对这种情况,Relation Net和DETR利用Transformer将注意力机制引入到目标检测领域。Relation Net利用Transformer对不同目标之间的关系建模,在特征之中融入了关系信息,实现了特征增强。DETR则是基于Transformer提出了全新的目标检测架构,开启了目标检测的新时代,下图是DETR的算法流程,先采用CNN提取图像特征,然后用Transformer对全局的空间关系进行建模,最后得到的输出通过二分图匹配算法与手工标注进行匹配。

下表中的准确度采用MS COCO数据库上的mAP作为指标,而速度则采用FPS来衡量,对比了上述部分算法,由于网络的结构设计中存在很多不同的选择(比如不同的输入大小,不同的Backbone网络等),各个算法的实现硬件平台也不同,因此准确率和速度并不完全可比,这里只列出来一个粗略的结果供大家参考。

2目标跟踪

在自动驾驶应用中,输入的是视频数据,需要关注的目标有很多,比如车辆,行人,自行车等等。因此,这是一个典型的多物体跟踪任务(MOT)。对于MOT任务来说,目前最流行的框架是Tracking-by-Detection,其流程如下:

①由目标检测器在单帧图像上得到目标框输出;

②提取每个检测目标的特征,通常包括视觉特征和运动特征;

③根据特征计算来自相邻帧的目标检测之间的相似度,以判断其来自同一个目标的概率;

④将相邻帧的目标检测进行匹配,给来自同一个目标的物体分配相同的ID。

深度学习在以上这四个步骤中都有应用,但是以前两个步骤为主。在步骤1中,深度学习的应用主要在于提供高质量的目标检测器,因此一般都选择准确率较高的方法。SORT是基于Faster R-CNN的目标检测方法,并利用卡尔曼滤波算法+匈牙利算法,极大提高了多目标跟踪的速度,同时达到了SOTA的准确率,也是在实际应用中使用较为广泛的一个算法。在步骤2中,深度学习的应用主要在于利用CNN提取物体的视觉特征。DeepSORT最大的特点是加入外观信息,借用了ReID模块来提取深度学习特征,减少了ID switch的次数。整体流程图如下:

此外,还有一种框架Simultaneous Detection and Tracking。如代表性的CenterTrack,它起源于之前介绍过的单阶段无Anchor的检测算法CenterNet。与CenterNet相比,CenterTrack增加了前一帧的RGB图像和物体中心Heatmap作为额外输入,增加了一个Offset分支用来进行前后帧的Association。与多个阶段的Tracking-by-Detection相比,CenterTrack将检测和匹配阶段用一个网络来实现,提高了MOT的速度。

3语义分割

在自动驾驶的车道线检测和可行驶区域检测任务中均用到了语义分割。代表性的算法有FCN、U-Net、DeepLab系列等。DeepLab使用扩张卷积和ASPP(Atrous Spatial Pyramid Pooling )结构,对输入图像进行多尺度处理。最后采用传统语义分割方法中常用的条件随机场(CRF)来优化分割结果。下图是DeepLab v3+的网络结构。

近些年的STDC算法采用了类似FCN算法的结构,去掉了U-Net算法复杂的decoder结构。但同时在网络下采样的过程中,利用ARM模块不断地去融合来自不同层特征图的信息,因此也避免了FCN算法只考虑单个像素关系的缺点。可以说,STDC算法很好的做到了速度与精度的平衡,其可以满足自动驾驶系统实时性的要求。算法流程如下图所示。

3D视觉感知

本节我们将介绍自动驾驶中必不可少的3D场景感知。因为深度信息、目标三维尺寸等在2D感知中是无法获得的,而这些信息才是自动驾驶系统对周围环境作出正确判断的关键。想得到3D信息,最直接的方法就是采用激光雷达(LiDAR)。但是,LiDAR也有其缺点,比如成本较高,车规级产品量产困难,受天气影响较大等等。因此,单纯基于摄像头的3D感知仍然是一个非常有意义和价值的研究方向,接下来我们梳理了一些基于单目和双目的3D感知算法。

1单目3D感知

基于单摄像头图像来感知3D环境是一个不适定问题,但是可以通过几何假设(比如像素位于地面)、先验知识或者一些额外信息(比如深度估计)来辅助解决。本次将从实现自动驾驶的两个基本任务(3D目标检测和深度估计)出发进行相关算法介绍。

11 3D目标检测

表示转换(伪激光雷达):视觉传感器对周围其他车辆等的检测通常会遇到遮挡、无法度量距离等问题,可以将透视图转换成鸟瞰图表示。这里介绍两种变换方法。一是逆透视图映射(IPM),它假定所有像素都在地面上,并且相机外参准确,此时可以采用Homography变换将图像转换到BEV,后续再采用基于YOLO网络的方法检测目标的接地框。二是正交特征变换(OFT),利用ResNet-18提取透视图图像特征。然后,通过在投影的体素区域上累积基于图像的特征来生成基于体素的特征。然后将体素特征沿垂直方向折叠以产生正交的地平面特征。最后,用另一个类似于ResNet的自上而下的网络进行3D目标检测。这些方法只适应于车辆、行人这类贴地的目标。对于交通标志牌、红绿灯这类非贴地目标来说,可以通过深度估计来生成伪点云,进而进行3D检测。Pseudo-LiDAR先利用深度估计的结果生成点云,再直接应用基于激光雷达的3D目标检测器生成3D目标框,其算法流程如下图所示,

关键点和3D模型:待检测目标如车辆、行人等其大小和形状相对固定且已知,这些可以被用作估计目标3D信息的先验知识。DeepMANTA是这个方向的开创性工作之一。首先,采用一些目标检测算法比如Faster RNN来得到2D目标框,同时也检测目标的关键点。然后,将这些2D目标框和关键点与数据库中的多种3D车辆CAD模型分别进行匹配,选择相似度最高的模型作为3D目标检测的输出。MonoGRNet则提出将单目3D目标检测分成四个步骤:2D目标检测、实例级深度估计、投影3D中心估计和局部角点回归,算法流程如下图所示。这类方法都假设目标有相对固定的形状模型,对于车辆来说一般是满足的,对于行人来说就相对困难一些。

2D/3D几何约束:对3D中心和粗略实例深度的投影进行回归,并使用这二者估算粗略的3D位置。开创性的工作是Deep3DBox,首先用2D目标框内的图像特征来估计目标大小和朝向。然后,通过一个2D/3D的几何约束来求解中心点3D位置。这个约束就是3D目标框在图像上的投影是被2D目标框紧密包围的,即2D目标框的每条边上都至少能找到一个3D目标框的角点。通过之前已经预测的大小和朝向,再配合上相机的标定参数,可以求解出中心点的3D位置。2D和3D目标框之间的几何约束如下图所示。Shift R-CNN在Deep3DBox的基础上将之前得到的2D目标框、3D目标框以及相机参数合并起来作为输入,采用全连接网络预测更为精确的3D位置。

直接生成3DBox:这类方法从稠密的3D目标候选框出发,通过2D图像上的特征对所有的候选框进行评分,评分高的候选框即是最终的输出。有些类似目标检测中传统的滑动窗口方法。代表性的Mono3D算法首先基于目标先验位置(z坐标位于地面)和大小来生成稠密的3D候选框。这些3D候选框投影到图像坐标后,通过综合2D图像上的特征对其进行评分,再通过CNN再进行二轮评分得到最终的3D目标框。M3D-RPN是一种基于Anchor的方法,定义了2D和3D的Anchor。2D Anchor通过图像上稠密采样得到,3D Anchor是通过训练集数据的先验知识(如目标实际大小的均值)确定的。M3D-RPN还同时采用了标准卷积和Depth-Aware卷积。前者具有空间不变性,后者将图像的行(Y坐标)分成多个组,每个组对应不同的场景深度,采用不同的卷积核来处理。上述这些稠密采样方法计算量非常大。SS3D则采用更为高效的单阶段检测,包括用于输出图像中每个相关目标的冗余表示以及相应的不确定性估计的CNN,以及3D边框优化器。FCOS3D也是一个单阶段的检测方法,回归目标额外增加了一个由3D目标框中心投影到2D图像得到的25D中心(X,Y,Depth)。

12 深度估计

不管是上述的3D目标检测还是自动驾驶感知的另一项重要任务——语义分割,从2D扩展到3D,都或多或少得应用到了稀疏或稠密的深度信息。单目深度估计的重要性不言而喻,其输入是一张图像,输出是相同大小的一张由每个像素对应的场景深度值组成的图像。输入也可以是视频序列,利用相机或者物体运动带来的额外信息来提高深度估计的准确度。

相比于监督学习,单目深度估计的无监督方法无需构建极具挑战性的真值数据集,实现难度更小。单目深度估计的无监督方法可分为基于单目视频序列和基于同步立体图像对两种。前者是建立在运动相机和静止场景的假设之上的。在后者的方法中,Garg等人首次尝试使用同一时刻立体校正后的双目图像对进行图像重建,左右视图的位姿关系通过双目标定得到,获得了较为理想的效果。在此基础上,Godard等人用左右一致性约束进一步地提升了精度,但是,在逐层下采样提取高级特征来增大感受野的同时,特征分辨率也在不断下降,粒度不断丢失,影响了深度的细节处理效果和边界清晰度。为缓解这一问题,Godard等人引入了全分辨率多尺度的损失,有效减少了低纹理区域的黑洞和纹理复制带来的伪影。但是,这对精度的提升效果仍是有限的。

最近,一些基于Transformer的模型层出不穷,旨于获得全阶段的全局感受野,这也非常适用于密集的深度估计任务。有监督的DPT中就提出采用Transformer和多尺度结构来同时保证预测的局部精确性和全局一致性,下图是网络结构图。

2双目3D感知

双目视觉可以解决透视变换带来的歧义性,因此从理论上来说可以提高3D感知的准确度。但是双目系统在硬件和软件上要求都比较高。硬件上来说需要两个精确配准的摄像头,而且需要保证在车辆运行过程中始终保持配准的正确性。软件上来说算法需要同时处理来自两个摄像头的数据,计算复杂度较高,算法的实时性难以保证。与单目相比,双目的工作相对较少。接下来也同样从3D目标检测和深度估计两方面进行简单介绍。

21 3D目标检测

3DOP是一个两阶段的检测方法,是Fast R-CNN方法在3D领域的拓展。首先利用双目图像生成深度图,将深度图转化为点云后再将其量化为网格数据结构,再以此为输入来生成3D目标的候选框。与之前介绍的Pseudo-LiDAR类似,都是将稠密的深度图(来自单目、双目甚至低线数LiDAR)转换为点云,然后再应用点云目标检测领域的算法。DSGN利用立体匹配构建平面扫描体,并将其转换成3D几何体,以便编码3D几何形状和语义信息,是一个端到端的框架,可提取用于立体匹配的像素级特征和用于目标识别的高级特征,并且能同时估计场景深度和检测3D目标。Stereo R-CNN扩展了 Faster R-CNN 用于立体输入,以同时检测和关联左右视图中的目标。在RPN之后增加额外的分支来预测稀疏的关键点、视点和目标尺寸,并结合左右视图中的2D边界框来计算粗略的3D目标边界框。然后,通过使用左右感兴趣区域的基于区域的光度对齐来恢复准确的3D边界框,下图是它的网络结构。

22 深度估计

双目深度估计的原理很简单,就是根据左右视图上同一个3D点之间的像素距离d(假设两个相机保持同一高度,因此只考虑水平方向的距离)即视差,相机的焦距f,以及两个相机之间的距离B(基线长度),来估计3D点的深度,公式如下,估计出视差就可以计算出深度。那么,需要做的就是为每个像素点在另一张图像上找出与之匹配的点。

对于每一个可能的d,都可以计算每个像素点处的匹配误差,因此就得到了一个三维的误差数据Cost Volume。通过Cost Volume,我们可以很容易得到每个像素处的视差(对应最小匹配误差的d),从而得到深度值。MC-CNN用一个卷积神经网络来预测两个图像块的匹配程度,并用它来计算立体匹配成本。通过基于交叉的成本汇总和半全局匹配来细化成本,然后进行左右一致性检查以消除被遮挡区域中的错误。PSMNet提出了一个不需要任何后处理的立体匹配的端到端学习框架,引入金字塔池模块,将全局上下文信息纳入图像特征,并提供了一个堆叠沙漏3D CNN进一步强化全局信息。下图是其网络结构。

转载自智车科技,文中观点仅供分享交流,不代表本公众号立场,如涉及版权等问题,请您告知,我们将及时处理。

-- END --

2021年的自动驾驶体验如何呢,有什么新的进步?

1智能汽车、智能道路、高效监管决策是提高交通运行效率和社会交通服务智能化水平不可或缺的。致力于为用户提供安全、舒适、智能、高效的驾驶体验,自动驾驶离不开相应技术的支持。智能汽车、智能道路、高效监管决策是提高交通运行效率和社会交通服务智能化水平不可或缺的。致力于为用户提供安全、舒适、智能、高效的驾驶体验,自动驾驶离不开相应技术的支持。

2自动驾驶汽车需要非常精确的定位。除了基于雷达、激光雷达、全球导航卫星系统和摄像机的普通传感器之外,轨迹估计对于城市环境中自动导航的车道级定位也至关重要。目前自主驾驶的高精度定位技术有三种。一、基于参考系统信号的绝对定位技术:其中具有代表性的是全球导航卫星系统,以及UWB、WiF、蓝牙等。其次是环境特征匹配,即基于激光雷达和视觉传感器的相对位置,将传感器观测到的特征与数据库中存储的特征进行匹配,对车辆进行定位;第三,惯性导航系统提供航迹估计,这是一种基于惯性导航系统的组合导航技术。

3要知道目前很多新车都配备了自动泊车功能,但大部分车型实现这一功能都有很多限制,比如驾驶员必须坐在驾驶座上,随时做好刹车准备,车辆必须靠近停车位等。威马W6搭载了SLAM技术,这个AVP无人驾驶功能包括HAVP(自主学习泊车)和PAVP(高精度地图泊车)两个无人泊车场景。其中,HAVP主要用于固定车位的场景。车辆只需要完成一次路线学习,车主就可以提前下车,独立完成停车,比其他车型的远程停车更加智能。

以上就是回答的所有内容,希望对你有帮助。

可以驾驶,现在的新型飞机都有自动驾驶系统\x0d\如 波音737系列飞机装有先进的数字飞行控制系统,从起飞后达到400英尺高度到着陆,整个飞行过程都可以自动驾驶,而且飞机会自动优选最佳的飞行航路。这期间,自动驾驶仪有飞行管理计算机系统来控制。\x0d\\x0d\飞行管理计算机系统里装有导航数据库和性能数据库,包括所有航线的计划航路,只要飞行员在起飞前输入所飞航线的相关参数,那么,从他按下自动驾驶仪按钮的那一刻起,飞机就会完全按照计划航线自动飞行,直到着陆。\x0d\\x0d\一般情况下,机场都装有引导飞机着陆的仪表着陆系统,该系统利用无线电波在空中形成一条看不见得飞机下滑道。当飞行管理计算机将飞机引导到下滑道时,自动驾驶仪通过接受无线电信号来控制飞机,使飞机沿下滑道自动着陆到跑道头,再由飞行员 *** 纵飞机沿跑道滑跑。在\x0d\\x0d\波音767、747-400和777飞机上,滑跑这一段也可以由飞机自动完成。

易车讯 日前,我们从官方渠道获悉,在第八届HAOMO AI DAY上,毫末智行发布自动驾驶生成式大模型DriveGPT,中文名"雪湖·海若"。生态方面,毫末官宣取得3个主机厂定点合同,商业化迎来跃升一步;同时毫末推出的中国首个重感知、不依赖高精地图的城市NOH即将量产上车,最先落地北京、上海、保定等城市。

毫末打造的自动驾驶生成式大模型DriveGPT雪湖·海若通过引入驾驶数据建立RLHF(人类反馈强化学习)技术,对自动驾驶认知决策模型进行持续优化,现阶段主要用于解决自动驾驶的认知决策问题,终极目标是实现端到端自动驾驶。

毫末DriveGPT雪湖·海若已开启对限量首批生态伙伴的开放合作,北京交通大学计算机与信息技术学院、高通、火山引擎、华为云、京东科技、四维图新、魏牌新能源、英特尔等高校与企业加入。

产品方面,毫末中国首款可大规模量产落地、重感知城市NOH,将首批落地北京、保定、上海等城市,并开启泛化测试,到2024年有序落地100城。首款搭载HPilot30的新摩卡DHT-PHEV即将重磅上市,这也是毫末DriveGPT雪湖·海若的首发落地车型,全面确保毫末城市NOH的行业领先性。

生态层面,毫末乘用车6P开放合作取得重大突破,已与3家主机厂签署定点合同,相关项目正在交付中。这是毫末商业化的重要一跃,全面保障了毫末高速发展态势。

毫末智行董事长张凯判断:“2023年智驾产品进入全线爆发期,大模型开启在车端的落地应用,车主的使用频率和满意度成为产品竞争力的重要衡量标准。毫末不断进步的数据驱动的六大闭环能力将进一步加速毫末进入自动驾驶30时代的步伐并形成相应的护城河。”

张凯认为,智驾产品正在进入快速增长的全线爆发期,2023年是非常关键的一年。首先,城市导航辅助驾驶产品在2023年将围绕量产上车发力,主要玩家的城市导航辅助驾驶产品进入到真实用户覆盖和多城市落地的比拼。其次,行泊一体和末端物流自动配送产业商业化将成为自动驾驶公司深耕的重点。在乘用车领域,搭载行泊一体功能的智驾产品将迎来前装量产潮;在末端物流自动配送领域,末端物流自动配送车在商超、快递等场景迎来爆发,2023年将在这些场景实现可持续商业化闭环。

首款搭载HPilot30的新摩卡DHT-PHEV即将重磅上市,第二款搭载毫末HPilot30的车型魏牌蓝山也将在今年发布。毫末HPilot整体已搭载近20款车型。用户辅助驾驶行驶里程突破4000万公里,HPilot20辅助驾驶日均行驶里程使用率达到了126%。海外布局方面,搭载毫末HPilot的车辆已运往欧盟、以色列等地区和国家,陆续交付到用户手中,接下来将在中东、南非、澳大利亚等市场陆续投放;同时,毫末HPilot即将量产墨西哥版本及俄罗斯版本。

3月,高工智能汽车研究院在每个年度基于前装量产数据库及定点车型库数据进行综合评估,通过对毫末前装近20款车辆等数据研究,为毫末颁发年度高阶智能驾驶系统量产份额领军奖。第三方数据佐证毫末是中国量产自动驾驶绝对领军者。

其次是“MANA大模型巅峰之战”,中国首个自动驾驶数据智能体系MANA架构已迎来全线升级。到2023年4月,MANA学习时长超56万小时,相当于人类司机68万年。毫末DriveGPT雪湖·海若,已经完成基于4000万公里驾驶数据的训练,参数规模达1200亿。

第三是“城市NOH百城大战”,中国首款可大规模量产落地、重感知城市NOH,已在北京、保定、上海等城市开启泛化测试,即将量产上车,到2024年有序落地100城。毫末会以“安全为先、用户为先、规模为先”的原则,加速赢得城市NOH百城大战。

最后是“末端物流自动配送商业之战”,毫末末端物流自动配送车小魔驼已在商超履约、智慧社区、校园配送、餐饮零售、机场巡逻、高校教育、快递接驳、智慧园区、大气环评等九大场景开启运营,加速商业化闭环能力。2023年3月,小魔驼20获北京亦庄无人配送车车辆编码,开启亦庄运营。毫末也成为《北京智能网联汽车政策先行区无人配送测试规范》升级后,准许在北京市高级别自动驾驶示范区公开道路进行无人配送车测试的首个公司。

“技术领先是生存根本,毫末鼓励所有技术研发同学投入到技术创新当中。”张凯在演讲中再次强调了毫末对于技术研发投入的坚定决心。截至目前,毫末已获得专利证书164件,国际顶级学术会议论文收录6篇,最新2篇更是分别入选计算机视觉识别领域三大顶会之一的CVPR和全球首个智能车专业期刊IEEE TIV。毫末已将所有论文在GitHub开源,与业内共享。

现场,张凯还向外界公布了毫末6P开放合作的重要进展,目前已与3家主机厂签署定点合同,相关项目正在交付中。“毫末始终认为,自动驾驶是一个共同进退、共享成果的前沿产业。只有健康的生态伙伴才能支持毫末高速发展。”张凯表示。

此外,毫末一直坚持场景化用户体验设计、人工智能技术、技术工程化能力均衡发展,不断以数据驱动闭环的方式完善用户体验。张凯介绍,三个月时间,毫末在数据驱动六大闭环体系上实现多重进展。

用户需求闭环方面,毫末对驾驶场景数据持续分析完善策略,并进行新功能体验反馈;研发效能闭环方面,毫末将数据驱动理念深入到产品需求定义、感知与认知算法开发等产品开发流程,整体开发效率提升30%;数据积累闭环方面,毫末在车端部署诊断服务数据场景标签覆盖92%的驾驶场景。

数据价值闭环方面,毫末大模型正在持续挖掘数据价值解决关键问题;产品自完善闭环方面,毫末实现售后问题处理速度较传统方式的十倍效率提升,实现最快10分钟定位售后问题。两年时间有效挖掘产品提升点,问题闭环率达76%;业务工程化闭环方面,毫末进一步完善了从采集回流、标注训练、系统标定、仿真验证等环节到最终OTA释放环节的产品研发全流程工程化闭环。

毫末DriveGPT雪湖·海若通过引入驾驶数据建立RLHF(人类反馈强化学习)技术,对自动驾驶认知决策模型进行持续优化。它的最终目标是实现端到端自动驾驶,现阶段主要用于解决自动驾驶的认知决策问题,后续持续会将毫末多个大模型的能力整合到DriveGPT。目前,毫末DriveGPT雪湖·海若实现了模型架构与参数规模的升级,参数规模达到1200亿,预训练阶段引入4000万公里量产车驾驶数据,RLHF阶段引入 5万段人工精选的困难场景接管Clips。

DriveGPT雪湖·海若的底层模型采用GPT(Generative Pre-trained Transformer)生成式预训练大模型,与ChatGPT使用自然语言进行输入与输出不同,DriveGPT输入是感知融合后的文本序列,输出是自动驾驶场景文本序列,即将自动驾驶场景Token化,形成“Drive Language”,最终完成自车的决策规控、障碍物预测以及决策逻辑链的输出等任务。

DriveGPT雪湖·海若的实现过程是,首先在预训练阶段通过引入量产驾驶数据,训练初始模型,再通过引入驾驶接管Clips数据完成反馈模型(Reward Model)的训练,然后再通过强化学习的方式,使用反馈模型去不断优化迭代初始模型,形成对自动驾驶认知决策模型的持续优化。同时,DriveGPT雪湖·海若还会根据输入端的提示语以及毫末CSS自动驾驶场景库的决策样本去训练模型,让模型学习推理关系,从而将完整驾驶策略拆分为自动驾驶场景的动态识别过程,完成可理解、可解释的推理逻辑链生成。

现场,毫末宣布DriveGPT雪湖·海若首发车型是新摩卡DHT-PHEV,即将量产上市。顾维灏提到,DriveGPT雪湖·海若可以逐步应用到城市NOH、捷径推荐、智能陪练以及脱困场景中。有了DriveGPT雪湖·海若的加持,车辆行驶会更安全;动作更人性、更丝滑,并有合理的逻辑告诉驾驶者,车辆为何选择这样的决策动作。对于普通用户来说,车辆越来越像老司机,用户对智能产品的信任感会更强,理解到车辆的行为都是可预期、可理解的。

毫末DriveGPT雪湖·海若将携手生态伙伴率先探索四大应用能力,包括智能驾驶、驾驶场景识别、驾驶行为验证、困难场景脱困。当前,毫末在使用数据过程中,逐步建立起一套基于4D Clips驾驶场景识别方案,具备极高性价比。在行业上,给出正确的标注结果,一张需要约5元;如果使用DriveGPT雪湖·海若的场景识别服务,一张的价格将下降到05元。单帧整体标注成本仅相当于行业的1/10。接下来,毫末会将图像帧及4D Clips场景识别服务逐步向行业开放使用,这将大幅降低行业使用数据的成本,提高数据质量,从而加速自动驾驶技术的快速发展。

顾维灏介绍,毫末在2023年1月发布的中国自动驾驶行业最大的智算中心MANA OASIS(雪湖· 绿洲)此次从算力优化等层面升级了三大能力,进一步支持DriveGPT雪湖·海若的算力。首先,毫末与火山引擎全新搭建了“全套大模型训练保障框架”,实现了异常任务分钟级捕获和恢复能力,可以保证千卡任务连续训练数个月没有任何非正常中断,有效保证了大模型训练稳定性;其次,毫末研发出以真实数据回传为核心的增量学习技术,并将其推广到了大模型训练,构建了一个大模型持续学习系统,自主研发任务级d性伸缩调度器,分钟级调度资源,集群计算资源利用率达到95%;最后,MANA OASIS通过提升数据吞吐量来降本增效,满足Transformer大模型训练效率,通过引入火山引擎提供的Lego算子库实现算子融合,端到端吞吐提升84%。

毫末打造的中国首个自动驾驶数据智能体系MANA,在经过一年多的应用迭代后,本次AI DAY也迎来了全面的升级,正式开放赋能。顾维灏介绍,MANA计算基础服务针对大模型训练在参数规模、稳定性和效率方面做了专项优化,并集成到OASIS中;其次,MANA感知和认知相关大模型能力统一整合到DriveGPT雪湖·海若中;第三,增加了使用NeRF技术的数据合成服务,降低Corner Case数据的获取成本;同时针对多种芯片和多种车型的快速交付难题优化了异构部署工具和车型适配工具。

此外,MANA的视觉感知能力持续提升,一方面可同时学习三维空间结构和纹理,并将纯视觉测距精度超过了超声波雷达,BEV方案也拥有了更强的通用性和适配性;另一方面可实现单趟和多趟纯视觉NeRF三维重建,道路场景更逼真,肉眼几乎看不出差异。通过NeRF进行场景重建后,可以编辑合成真实环境难以收集到的Corner Case。在原有的全局视角修改、添加光照/天气效果的基础上,新增合成虚拟动态物体的能力,可以在原有设定的运动轨迹上,合成各种Hard Case,模拟城市复杂交通环境,用更低成本测试提升城市NOH能力边界,更好提升应对城市复杂交通环境。

值得一提的是,面对目前行业里最难的视觉任务之一——单目视觉测量,继特斯拉后,毫末也在中国率先开始验证能否使用鱼眼相机代替超声波雷达进行测距,以满足泊车要求。毫末把视觉BEV感知框架引入到了车端鱼眼相机,做到了在15米范围内达到30cm的测量精度,2米内精度高于10cm的视觉精度效果。泊车场景使用纯视觉测距来取代超声波雷达,将进一步降低整体智驾成本。

易车超级评测体系重磅上线!专业、硬核、全面的汽车评测内容云集,易车年度车型榜单新鲜出炉!上易车App搜索“超级评测”,等你来看!

以上就是关于毫末数据驱动六大闭环能力持续升级,冲刺自动驾驶3.0时代全部的内容,包括:毫末数据驱动六大闭环能力持续升级,冲刺自动驾驶3.0时代、飞机是怎么自动驾驶、现在的自动驾驶处理的是2d还是3d等相关内容解答,如果想了解更多相关内容,可以关注我们,你们的支持是我们更新的动力!

欢迎分享,转载请注明来源:内存溢出

原文地址:https://54852.com/sjk/9507612.html

(0)
打赏 微信扫一扫微信扫一扫 支付宝扫一扫支付宝扫一扫
上一篇 2023-04-29
下一篇2023-04-29

发表评论

登录后才能评论

评论列表(0条)

    保存