关于自动驾驶系统的三大环节的信息

自动驾驶 79
今天给各位分享自动驾驶系统的三大环节的知识,其中也会对进行解释,如果能碰巧解决你现在面临的问题,别忘了关注本站,现在开始吧!本文目录一览: 1、自动驾驶涉及哪些技术 2、

今天给各位分享自动驾驶系统的三大环节的知识,其中也会对进行解释,如果能碰巧解决你现在面临的问题,别忘了关注本站,现在开始吧!

本文目录一览:

自动驾驶涉及哪些技术

【太平洋汽车网】自动驾驶技术的本质是用机器视角去模拟人类驾驶员的行为,其技术框架可以分为三个环节:感知层、决策层和执行层,具体涉及传感器、计算平台、算法、高精度地图、OS、HMI等多个技术模块。

目前自动驾驶L3商业化技术已经成熟,L4级/L5级加速发展进入验证试点阶段。本文科普下目前自动驾驶汽车所要涉及哪些核心技术,到底离真正商用落地,技术上还需要哪些升级。

1、识别技术和人类的眼睛一样,这个轮式机器人也有它眼睛,用来识别周边的车辆、障碍物、行人等路上的情况。

眼睛的主要构成部分是眼球,通过调节晶状体的弯曲程度来改变晶状体焦距来获得实像。那自动驾驶的眼睛是由什么构成的?答案是传感器。包括摄像头、激光雷达、毫米波雷达,还有红外线、超声波雷达等。

可能会惊讶,需要这么多眼睛?没错,它是长满了眼睛的小怪兽,通常拥有10+只眼睛。

其中,最常用的是摄像头,几乎是毫无争议地被所有开发者采用。它和人类的眼睛最接近,可以看清有颜色的标识、物体,看得懂字体,分得清红绿灯。但是缺点也不少,比如在夜晚或恶劣的天气下视力就严重下降,也不擅长远距离观察。

其次是颇富争议的LiDAR,即激光雷达。比较常见的是在车顶,像是顶不停旋转的帽子。原理很简单,就是通过计算激光束的反射时间和波长,可以完成绘制周边障碍物的3D图。而短板则是无法识别图像和颜色。

毫米波雷达也不得不提一提,因为它的全能--可以全天候工作,这使得它不可或缺,即便它无法识别高度,分辨率不高,也难以成像。但它凭借其穿透尘雾、雨雪的硬本领,站稳一席之地。

(图/文/摄:太平洋汽车网问答叫兽)

汽车是如何实现自动驾驶的?

自动驾驶需要依靠很多传感器和电脑来实现,自动驾驶技术是很复杂的技术。大部分带有自动驾驶的汽车都是l2级别的自动驾驶,l2自动驾驶是指部分自动驾驶。拓展资料:1、自动驾驶系统系统采用先进的通信、计算机、网络和控制技术,对列车实现实时、连续控制。采用现代通信手段,直接面对列车,可实现车地间的双向数据通信,传输速率快,信息量大,后续追踪列车和控制中心可以及时获知前行列车的确切位置,使得运行管理更加灵活,控制更为有效,更加适应列车自动驾驶的需求。2、自动驾驶系统的主要功能是地车的双向信息传输和运营组织的综合与应急处理。车地信息传输通道是列车运行自动控制系统的重要组成部分,自动控制系统的车载设备完全靠从地面控制中心接受的行车控制命令进行行车,实时监督列车的实际速度和地面允许的速度指令,当列车速度超过地面行车限速,车载设备将实施制动,保证列车的运行安全。望采纳,谢谢!

全自动驾驶系统具备什么三级控制模式

全自动驾驶系统具备自动驾驶辅助系统三级控制模式。驾驶自动化(部分辅助驾驶):在其设计操作条件下,驾驶自动化系统在其设计操作条件下,继续进行车辆的横向或纵向运动控制,并具有能力检测和响应所执行的车辆的横向或纵向运动控制。

驾驶自动化(合格自动驾驶):驾驶自动化系统在它的设计操作环境下,可以连续完成所有的动态驾驶任务。

全自动驾驶系统简介

自动驾驶系统是指列车驾驶员执行的工作完全自动化的、高度集中控制的列车运行系统。自动驾驶系统具备列车自动唤醒启动和休眠、自动出入停车场、自动清洗、自动行驶、自动停车、自动开关车门、故障自动恢复等功能。

并具有常规运行、降级运行、运行中断等多种运行模式。实现全自动运营可以节省能源,优化系统能耗和速度的合理匹配。

自动驾驶系统要求建设的城市轨道交通在互联互通、安全、快捷、舒适性方面具有很高的水平.20世纪90年代以来,随着通信、控制和网络技术的发展,可以在地车之间实现大容量、双向的信息传输,为高密度、大运量的地铁系统成为真正意义上的自动驾驶系统提供了可能。

生活中的人工智能之无人驾驶

姓名:陈心语  学号:21009102266 书院:海棠1号书院

转自: 人工智能在自动驾驶技术中的应用 - 云+社区 - 腾讯云 (tencent.com)

【嵌牛导读】本文介绍了人工智能在无人驾驶方面的应用。

【嵌牛鼻子】人工智能运用于无人驾驶。

【嵌牛提问】人工智能在无人驾驶方面中有什么运用呢?

【嵌牛正文】

随着技术的快速发展云计算、大数据、人工智能一些新名词进入大众的视野,人工智能是人类进入信息时代后的又一技术革命正受到越来越广泛的重视。作为人工智能技术在汽车行业、交通领域的延伸与应用,无人驾驶近几年在世界范围内受到了产学界甚至国家层面的密切关注。

自动驾驶汽车依靠人工智能、视觉计算、雷达、监控装置和全球定位系统协同合作,让电脑可以在没有任何人类主动的操作下,自动安全地操作机动车辆。自动驾驶技术将成为未来汽车一个全新的发展方向。

本文将主要介绍人工智能技术在自动驾驶中的应用领域,并对自动技术的发展前景进行一个简单的分析。

人工智能是一门起步晚却发展快速的科学。20 世纪以来科学工作者们不断寻求着赋予机器人类智慧的方法。现代人工智能这一概念是从英国科学家图灵的寻求智能机发展而来,直到1937年图灵发表的论文《理想自动机》给人工智能下了严格的数学定义,现实世界中实际要处理的很多问题不能单纯地是数值计算,如言语理解与表达、图形图像及声音理解、医疗诊断等等。

1955 年Newell 和Simon 的Logic Theorist证明了《数学原理》中前52 个定理中的38 个。Simon 断言他们已经解决了物质构成的系统如何获得心灵性质的问题( 这种论断在后来的哲学领域被称为“强人工智能”) ,认为机器具有像人一样逻辑思维的能力。1956 年,“人工智能”( AI) 由美国的JohnMcCarthy 提出,经过早期的探索阶段,人工智能向着更加体系化的方向发展,至此成为一门独立的学科。

五十年代,以游戏博弈为对象开始了人工智能的研究;六十年代,以搜索法求解一般问题的研究为主;七十年代,人工智能学者进行了有成效的人工智能研究;八十年代,开始了不确定推理、非单调推理、定理推理方法的研究;九十年代,知识表示、机器学习、分布式人工智能等基础性研究方面都取得了突破性的进展。

人工智能在自动驾驶技术中的应用概述

人工智能发展六十年,几起几落,如今迎来又一次热潮,深度学习、计算机视觉和自然语言理解等各方面的突破,使得许多曾是天方夜谭的应用成为可能,无人驾驶汽车就是其中之一。作为人工智能等技术在汽车行业、交通领域的延伸与应用,无人驾驶近几年在世界范围内受到了产学界甚至国家层面的密切关注。目前,人工智能在汽车自动驾驶技术中也有了广泛应用。

自动驾驶汽车依靠人工智能、视觉计算、雷达、监控装置和全球定位系统协同合作,它是一个集环境感知、规划决策、多等级辅助驾驶等功能于一体的综合系统, 它集中运用了计算机、现代传感、信息融合、通讯、人工智能及自动控制等技术, 是典型的高新技术综合体。

这种汽车能和人一样会“思考” 、“判断”、“行走” ,让电脑可以在没有任何人类主动的操作下,自动安全地操作机动车辆 。 按照 SAE (美国汽车工程师协会)的分级,共分为:驾驶员辅助、部分自动驾驶、有条件自动驾驶、高度自动驾驶、完全自动驾驶五个层级。

第一阶段:驾驶员辅助 目的是为驾驶者提供协助,包括提供重要或有益的驾驶相关信息,以及在形势开始变得危急的时候发出明确而简洁的警告。现阶段大部分ADAS主动安全辅助系统,让车辆能够实现感知和干预操作。例如防抱死制动系统(ABS)、电子稳定性控制(ESC)、车道偏离警告系统、正面碰撞警告系统、盲点信息系统等等,此时车辆是能够通过摄像头、雷达传感器获知周围交通状况,进而做出警示和干预。

第二阶段:部分自动驾驶 车辆通过摄像头、雷达传感器、激光传感器等等设备获取道路以及周边交通信息,车辆会自行对方向盘和加减速中的多项操作提供驾驶支援,在驾驶者收到警告却未能及时采取相应行动时能够自动进行干预,其他操作交由驾驶员,实现人机共驾,但车辆不允许驾驶员的双手脱离方向盘。例如自适应巡航控制(ACC)、车道保持辅助系统(LKA)、自动紧急制动(AEB)系统、车道偏离预警(LDW)等。

第三阶段:有条件自动驾驶 由自动驾驶系统完成驾驶操作,根据路况条件所限,必要时发出系统请求,必须交由驾驶员驾驶。

第四阶段:高度自动驾驶 由自动驾驶系统完成所有驾驶操作,根据系统请求,驾驶员可以不接管车辆。车辆已经可以完成自动驾驶,一旦出现自动驾驶系统无法招架的情形,车辆也可以自行调整完成自动驾驶,驾驶员不需要干涉。

第五阶段:完全自动驾驶 自动驾驶的理想形态,乘客只需提供目的地,无论任何路况,任何天气,车辆均能够实现自动驾驶。这种自动化水平允许乘客从事计算机工作、休息和睡眠以及其他***等活动,在任何时候都不需要对车辆进行监控。

自动驾驶的实现

车辆实现自动驾驶,必须经由三大环节:

第一,感知。 也就是让车辆获取,不同的系统需要由不同类型的车用感测器,包含毫米波雷达、超声波雷达、红外雷达、雷射雷达、CCD \CMOS影像感测器及轮速感测器等来收集整车的工作状态及其参数变化情形。

第二,处理。 也就是大脑将感测器所收集到的资讯进行分析处理,然后再向控制的装置输出控制讯号。

第三,执行。 依据ECU输出的讯号,让汽车完成动作执行。其中每一个环节都离不开人工智能技术的基础。

人工智能在自动驾驶定位技术中的应用

定位技术是自动驾驶车辆行驶的基础。目前常用的技术包括 线导航、磁导航、无线导航、视觉导航、导航、激光导航等。

其中磁导航是目前最成熟可靠的方案,现有大多数应用均采用这种导航技术。磁导航技术通过在车道上埋设磁性标志来给车辆提供车道的边界信息,磁性材料具有好的环境适应性,它对雨天,冰雪覆盖,光照不足甚至无光照的情况都可适应,不足之处是需要对现行的道路设施作出较大的改动,成本较高。同时磁性导航技术无法预知车道前方的障碍,因而不可能单独使用。

视觉导航对基础设施的要求较低,被认为是最有前景的导航方法。在高速路和城市环境中视觉方法受到了较大的关注。

人工智能在自动驾驶图像识别与感知中的应用

无人驾驶汽车感知依靠传感器。目前传感器性能越来越高、体积越来越小、功耗越来越低,其飞速发展是无人驾驶热潮的重要推手。反过来,无人驾驶又对车载传感器提出了更高的要求,又促进了其发展。

用于无人驾驶的传感器可以分为四类:

雷达传感器

主要用来探测一定范围内障碍物(比如车辆、行人、路肩等)的方位、距离及移动速度,常用车载雷达种类有激光雷达、毫米波雷达和超声波雷达。激光雷达精度高、探测范围广,但成本高,比如Google无人车顶上的64线激光雷达成本高达70多万元人民币;毫米波雷达成本相对较低,探测距离较远,被车企广泛使用,但与激光雷达比精度稍低、可视角度偏小;超声波雷达成本最低,但探测距离近、精度低,可用于低速下碰撞预警。

视觉传感器

主要用来识别车道线、停止线、交通信号灯、交通标志牌、行人、车辆等。常用的有单目摄像头、双目摄像头、红外摄像头。视觉传感器成本低,相关研究与产品非常多,但视觉算法易受光照、阴影、污损、遮挡影响,准确性、鲁棒性有待提高。所以,作为人工智能技术广泛应用的领域之一的图像识别,也是无人驾驶汽车领域的一个研究热点。

定位及位姿传感器

主要用来实时高精度定位以及位姿感知,比如获取经纬度坐标、速度、加速度、航向角等,一般包括全球卫星定位系统(GNSS)、惯性设备、轮速计、里程计等。现在国内常用的高精度定位方法是使用差分定位设备,如RTK-GPS,但需要额外架设固定差分基站,应用距离受限,而且易受建筑物、树木遮挡影响。近年来很多省市的测绘部门都架设了相当于固定差分基站的连续运行参考站系统(CORS),比如辽宁、湖北、上海等,实现了定位信号的大范围覆盖,这种基础设施建设为智能驾驶提供了有力的技术支撑。定位技术是无人驾驶的核心技术,因为有了位置信息就可以利用丰富的地理、地图等先验知识,可以使用基于位置的服务。

车身传感器

来自车辆本身,通过整车网络接口获取诸如车速、轮速、档位等车辆本身的信息。

人工智能在自动驾驶深度学习中的应用

驾驶员认知靠大脑,无人驾驶汽车的“大脑”则是计算机。无人车里的计算机与我们常用的台式机、笔记本略有不同,因为车辆在行驶的时候会遇到颠簸、震动、粉尘甚至高温的情况,一般计算机无法长时间运行在这些环境中。所以无人车一般选用工业环境下的计算机——工控机。

工控机上运行着操作系统,操作系统中运行着无人驾驶软件。如图1所示为某无人驾驶车软件系统架构。操作系统之上是支撑模块(这里模块指的是计算机程序),对上层软件模块提供基础服务。

支撑模块包括:虚拟交换模块,用于模块间通信;日志管理模块,用于日志记录、检索以及回放;进程监控模块,负责监视整个系统的运行状态,如果某个模块运行不正常则提示操作人员并自动采取相应措施;交互调试模块,负责开发人员与无人驾驶系统交互。

图:某无人驾驶车软件系统架构

除了对外界进行认知之外,机器还必须要能够进行学习。深度学习是无人驾驶技术成功地基础,深度学习是源于人工神经网络的一种高效的机器学习方法。深度学习可以提高汽车识别道路、行人、障碍物等的时间效率,并保障了识别的正确率。通过大量数据的训练之后,汽车可以将收集到的图形,电磁波等信息转换为可用的数据,利用深度学习算法实现无人驾驶。

在无人驾驶汽车通过雷达等收集到数据时,对于原始的训练数据要首先进行数据的预处理化。计算均值并对数据的均值做均值标准化、对原始数据做主成分分析、使用PCA白化或ZCA白化。例如:将激光传感器收集到的时间数据转换为车与物体之间的距离;将车载摄像头拍摄到的照片信息转换为对路障的判断,对红绿灯的判断,对行人的判断等;雷达探测到的数据转换为各个物体之间的距离。

将深度学习应用于无人驾驶汽车中, 主要包含以下步骤:

1. 准备数据,对数据进行预处理再选用合适的数据结构存储训练数据和测试元组;

2. 输入大量数据对第一层进行无监督学习;

3. 通过第一层对数据进行聚类,将相近的数据划分为同一类,随机进行判断;

4. 运用监督学习调整第二层中各个节点的阀值,提高第二层数据输入的正确性;

5. 用大量的数据对每一层网络进行无监督学习,并且每次用无监督学习只训练一层,将其训练结果作为其更高一层的输入。

6. 输入之后用监督学习去调整所有层。

人工智能在自动驾驶信息共享中的应用

首先, 利用无线网络进行车与车之间的信息共享。通过专用通道,一辆汽车可以把自己的位置、路况实时分享给队里的其它汽车,以便其它车辆的自动驾驶系统,在收到信息后做出相应调整。

其次, 是3D路况感应,车辆将结合超声波传感器、摄像机、雷达和激光测距等技术,检测出汽车前方约5米内地形地貌,判断前方是柏油路还是碎石、草地、沙滩等路面,根据地形自动改变汽车设置。

另外, 汽车还将能进行自动变速,一旦探测到地形发生改变,可以自动减速,路面恢复正常后,再回到原先状态。

汽车信息共享所收集到的交通信息量将非常巨大,如果不对这些数据进行有效处理和利用,就会迅速被信息所湮没。因此需要采用数据挖掘、人工智能等方式提取有效信息,同时过滤掉无用信息。考虑到车辆行驶过程中需要依赖的信息具有很大的时间和空间关联性,因此有些信息的处理需要非常及时。

人工智能应用于自动驾驶技术中的优势

人工智能算法更侧重于学习功能,其他算法更侧重于计算功能。 学习是智能的重要体现,学习功能是人工智能的重要特征,现阶段大多人工智能技术还处在学的阶段。如前文所说,无人驾驶实际上是类人驾驶,是智能车向人类驾驶员学习如何感知交通环境,如何利用已有的知识和驾驶经验进行决策和规划,如何熟练地控制方向盘、油门和刹车。

从感知、认知、行为三个方面看, 感知部分难度最大, 人工智能技术应用最多。感知技术依赖于传感器,比如摄像头,由于其成本低,在产业界倍受青睐。以色列一家名叫Mobileye的公司在交通图像识别领域做得非常好,它通过一个摄像头可以完成交通标线识别、交通信号灯识别、行人检测,甚至可以区别前方是自行车、汽车还是卡车。

人工智能技术在图像识别领域的成功应用莫过于深度学习,近几年研究人员通过卷积神经网络和其它深度学习模型对图像样本进行训练,大大提高了识别准确率。Mobileye目前取得的成果,正是得益于该公司很早就将深度学习当作一项核心技术进行研究。 认知与控制方面,主要使用人工智能领域中的传统机器学习技术,通过学习人类驾驶员的驾驶行为建立驾驶员模型,学习人的方式驾驶汽车。

无人驾驶技术所面临的挑战和展望

在目前交通出行状况越来越恶劣的背景下,“无人驾驶”汽车的商业化前景,还受很多因素制约。

主要有:

1. 法规障碍

2. 不同品牌车型间建立共同协议,行业缺少规范和标准

3. 基础道路状况,标识和信息准确性,信息网络的安全性

4. 难以承受的高昂成本

此外,“无人驾驶”汽车的一个最大特点,就是 车辆网络化、信息化程度极高 ,而这也对电脑系统的安全问题形成极大挑战。一旦遇到电脑程序错乱或者信息网络被入侵的情况,如何继续保证自身车辆以及周围其他车辆的行驶安全,这同样是未来急需解决的问题。 虽然无人驾驶技术还存在着很多挑战,但是无人驾驶难在感知,重在“学习”,无人驾驶的技术水平迟早会超过人类,因为稳、准、快是机器的先天优势,人类无法与之比拟。

自动驾驶汽车涉及哪些技术?

最近,有一位对技术一窍不通的朋友对我说想买特斯拉,因为它配备了“你站着不动,让车来找你”的自动驾驶功能。这使我很意外,自动驾驶虽然暂时还只是从业者关注的话题,但也许用不了几年,就很有可能成为影响普通群众购车决策的关键因素。甚至可以说,自动驾驶已经成为汽车发展的热点和今后必然的趋势。那么,自动驾驶汽车涉及哪些技术呢?

简单概括基于自动驾驶系统的组成便是这三点:环境感知、行为决策与车辆控制系统的执行技术。

首先,什么是自动驾驶?就是全部或部分替代这些本来由人来执行的功能。那么,所谓的感知是指车的传感器“看”到了什么、决策是指车的大脑思考怎么去处理、执行是指车的控制系统去执行相应的操作。

但是要实现自动驾驶,仅仅依靠这三大系统是远远不够的,自动驾驶和未来的智慧交通系统还需要一些基础的共性技术进行支撑,也可以概括为三点。

其中最主要的两点便是“自动驾驶的大脑”——高性能运算处理器平台以及“能让汽车心灵感应”——车与外部设施通信的C-V2X技术。前者能为传感器的识别算法和系统的决策算法提供巨量的运算能力支持,是与传统汽车最为基本的区别;后者让汽车与交通标志。行人、其他车辆、云端等参与交通的所有对象通信,让汽车不再是一个单一的个体,而成为智慧交通中一个有机的组成部分。比如,与红绿灯进行通信,便能让汽车提前知道红绿灯的状态,提前进行减速慢行操作;与其他车辆通信,便能将车辆紧急刹车、变道、转弯状态及时告知其他车辆,让其他车辆有足够的时间进行预判和处理。最后,“自动驾驶开天眼”——VEPP高精度定位技术在实现自动驾驶中也不可或缺。

除了环境感知和C-V2X技术准确探知车辆周围的环境,为了更可靠精确的提高感知结果的精确性和可靠性,还需要能准确知道汽车的实时位置,才能更安全实现自动驾驶。

比如,只有在亚米级(0.1m级)的精度下,才能准确判断车辆所处的车道,并与本条车道内的车辆建立联系;或者只有准确知道车辆与交通信号灯与路口的距离,才能进行更为精确的预判和准备,就好像给汽车开了天眼。

---本文图片来源自网络

实现完全的自动驾驶和智慧交通是一个注定艰难的过程,无论是人工智能、环境感知、智能决策这类新技术,还是运动控制、远程通信这些基础技术,甚至基础设施建设、法律法规等,自动驾驶领域有太多技术等待我们去突破,太多山峰等待我们去翻越。这一未来必将造福全人类的技术正在各行各业的努力下快速发展着,我们一起期待吧。

本文来源于汽车之家车家号作者,不代表汽车之家的观点立场。

自动驾驶技术基本知识介绍

自动驾驶车,是一种无须人工干预而能够感知其周边环境和导航的车辆。它利用了包括雷达、激光、超声波、GPS、里程计、计算机视觉等多种技术来感知其周边环境,通过先进的计算和控制系统,来识别障碍物和各种标识牌,规划合适的路径来控制车辆行驶。

美国汽车工程师协会(SAE,Society of Automotive Engineers),则将自动驾驶划分为 0~5 共六级。

Level 0:无自动化(No Automation)

没有任何自动驾驶功能或技术,人类驾驶员对汽车所有功能拥有绝对控制权。驾驶员需要负责转向、加速、制动和观察道路状况。任何驾驶辅助技术,例如现有的前向碰撞预警、车道偏离预警,以及自动雨刷和自动前灯控制等,虽然有一定的智能化,但是仍需要人来控制车辆,所以都仍属于 Level 0。

Level 1:驾驶辅助(Driver Assistance)

驾驶员仍然对行车安全负责,不过可以授权部分控制权给系统管理,某些功能可以自动进行,比如常见的自适应巡航(Adaptive Cruise Control,ACC)、应急刹车辅助(Emergency Brake Assist,EBA)和车道保持(Lane-Keep Support,LKS)。Level 1 的特点是只有单一功能,驾驶员无法做到手和脚同时不操控。

Level 2:部分自动化(Partial Automation)

人类驾驶员和汽车来分享控制权,驾驶员在某些预设环境下可以不操作汽车,即手脚同时离开控制,但驾驶员仍需要随时待命,对驾驶安全负责,并随时准备在短时间内接管汽车驾驶权。比如结合了 ACC 和 LKS 形成的跟车功能。Level 2 的核心不在于要有两个以上的功能,而在于驾驶员可以不再作为主要操作者。

Level 3:有条件自动化(Conditional Automation)

在有限情况下实现自动控制,比如在预设的路段(如高速和人流较少的城市路段),汽车自动驾驶可以完全负责整个车辆的操控,但是当遇到紧急情况,驾驶员仍需要在某些时候接管汽车,但有足够的预警时间,如即将进入修路的路段(Road work ahead)。Level 3 将解放驾驶员,即对行车安全不再负责,不必监视道路状况。

Level 4:高度自动化(High Automation)

自动驾驶在特定的道路条件下可以高度自动化,比如封闭的园区、高速公路、城市道路或固定的行车线路等,这这些受限的条件下,人类驾驶员可以全程不用干预。

Level 5:完全自动化(Full Automation)

对行车环境不加限制,可以自动地应对各种复杂的交通状况和道路环境等,在无须人协助的情况下由出发地驶向目的地,仅需起点和终点信息,汽车将全程负责行车安全,并完全不依赖驾驶员干涉,且不受特定道路的限制。

注释:DDT(Dynamic driving task):动态驾驶任务,指汽车在道路上行驶所需的所有实时操作和策略上的功能,不包括行程安排、目的地和途径地的选择等战略上的功能。

无人驾驶系统的核心可以概述为三个部分:感知(Perception),规划(Planning)和控制(Control),这些部分的交互以及其与车辆硬件、其他车辆的交互可以用下图表示:

感知是指无人驾驶系统从环境中收集信息并从中提取相关知识的能力。其中,环境感知(Environmental Perception)特指对于环境的场景理解能力,例如障碍物的位置,道路标志/标记的检测,行人车辆的检测等数据的语义分类。 一般来说,定位(Localization)也是感知的一部分,定位是无人车确定其相对于环境的位置的能力。

为了确保无人车对环境的理解和把握,无人驾驶系统的环境感知部分通常需要获取周围环境的大量信息,具体来说包括:障碍物的位置,速度以及可能的行为,可行驶的区域,交通规则等等。无人车通常是通过融合激光雷达(Lidar),相机(Camera),毫米波雷达(Millimeter Wave Radar)等多种传感器的数据来获取这些信息。

车载雷达传感器功能及优缺点各有不同,相关比较如下表所示:

激光雷达 是一类使用激光进行探测和测距的设备,它能够每秒钟向环境发送数百万光脉冲,它的内部是一种旋转的结构,这使得激光雷达能够实时的建立起周围环境的3维地图。

通常来说,激光雷达以10Hz左右的速度对周围环境进行旋转扫描,其扫描一次的结果为密集的点构成的3维图,每个点具备(x,y,z)信息,这个图被称为点云图(Point Cloud Graph),如下图所示,是使用Velodyne VLP-32c激光雷达建立的一个点云地图:

激光雷达因其可靠性目前仍是无人驾驶系统中最重要的传感器,然而,在现实使用中,激光雷达并不是完美的,往往存在点云过于稀疏,甚至丢失部分点的问题,对于不规则的物体表面,使用激光雷达很难辨别其模式,另一个比较大的挑战是一个比较大的挑战是激光雷达感知范围比较近,感知范围平均在 150m 左右,这取决于环境和障碍物的不同。激光雷达在角分辨度上也远远不及照相机。激光雷达对环境的敏感度也是比较大的,例如雨天中,车辆行驶中溅起来的水花,在激光雷达上都是有噪点的。

毫米波雷达 通过发射电磁波并通过检测回波来探测目标的有无、距离、速度和方位。由于毫米波雷达技术相对成熟,成本较低,并且在不良天气下表现良好,因此成为感知设备中重要的一环。但由于其分辨率较低,因此不能作为激光雷达的替代品,而是激光雷达的重要补充设备。

摄像机 根据镜头和布置方式的不同主要有以下四种:单目摄像机、双目摄像机、三目摄像机和环视摄像机。

单目摄像机 模组只包含一个摄像机和一个镜头。由于很多图像算法的研究都是基于单目摄像机开发的,因此相对于其他类别的摄像机,单目摄像机的算法成熟度更高。但是单目有着两个先天的缺陷。一是它的视野完全取决于镜头。焦距短的镜头,视野广,但缺失远处的信息。反之亦然。因此单目摄像机一般选用适中焦距的镜头。二是单目测距的精度较低。摄像机的成像图是透视图,即越远的物体成像越小。近处的物体,需要用几百甚至上千个像素点描述;而处于远处的同一物体,可能只需要几个像素点即可描述出来。这种特性会导致,越远的地方,一个像素点代表的距离越大,因此对单目来说物体越远,测距的精度越低。

双目摄像机 由于单目测距存在缺陷,双目摄像机应运而生。相近的两个摄像机拍摄物体时,会得到同一物体在摄像机的成像平面的像素偏移量。有了像素偏移量、相机焦距和两个摄像机的实际距离这些信息,根据数学换算即可得到物体的距离。虽然双目能得到较高精度的测距结果和提供图像分割的能力,但是它与单目一样,镜头的视野完全依赖于镜头。而且双目测距原理对两个镜头的安装位置和距离要求较多,这就会给相机的标定带来麻烦。

三目摄像机 由于单目和双目都存在某些缺陷,因此广泛应用于无人驾驶的摄像机方案为三目摄像机。三目摄像机其实就是三个不同焦距单目摄像机的组合。根据焦距不同,每个摄像机所感知的范围也不尽相同。对摄像机来说,感知的范围要么损失视野,要么损失距离。三目摄像机能较好地弥补感知范围的问题。因此在业界被广泛应用。正是由于三目摄像机每个相机的视野不同,因此近处的测距交给宽视野摄像头,中距离的测距交给主视野摄像头,更远的测距交给窄视野摄像头。这样一来每个摄像机都能发挥其最大优势。三目的缺点是需要同时标定三个摄像机,因而工作量更大。其次软件部分需要关联三个摄像机的数据,对算法要求也很高。

环视摄像机, 之前提到的三款摄像机它们所用的镜头都是非鱼眼的,环视摄像机的镜头是鱼眼镜头,而且安装位置是朝向地面的。某些高配车型上会有“360°全景显示”功能,所用到的就是环视摄像机。安装于车辆前方、车辆左右后视镜下和车辆后方的四个鱼眼镜头采集图像,鱼眼摄像机为了获取足够大的视野,代价是图像的畸变严重。环视摄像机的感知范围并不大,主要用于车身5~10米内的障碍物检测、自主泊车时的库位线识别等。

为了理解点云信息,通常来说,我们对点云数据进行两步操作:分割(Segmentation)和分类(Classification)。其中,分割是为了将点云图中离散的点聚类成若干个整体,而分类则是区分出这些整体属于哪一个类别(比如说行人,车辆以及障碍物)。分割算法可以被分类如下几类:

在完成了点云的目标分割以后,分割出来的目标需要被正确的分类,在这个环节,一般使用机器学习中的分类算法,如支持向量机(Support Vector Machine,SVM)对聚类的特征进行分类,最近几年由于深度学习的发展,业界开始使用特别设计的卷积神经网络(Convolutional Neural Network,CNN)对三维的点云聚类进行分类。

实践中不论是提取特征-SVM的方法还是原始点云-CNN的方法,由于激光雷达点云本身解析度低的原因,对于反射点稀疏的目标(比如说行人),基于点云的分类并不可靠,所以在实践中,我们往往融合雷达和相机传感器,利用相机的高分辨率来对目标进行分类,利用Lidar的可靠性对障碍物检测和测距,融合两者的优点完成环境感知。

无人驾驶系统中,我们通常使用图像视觉来完成道路的检测和道路上目标的检测。道路的检测包含对道路线的检测(Lane Detection),可行驶区域的检测(Drivable Area Detection);道路上路标的检测包含对其他车辆的检测(Vehicle Detection),行人检测(Pedestrian Detection),交通标志和信号的检测(Traffic Sign Detection)等所有交通参与者的检测和分类。

车道线的检测涉及两个方面: 第一是识别出车道线,对于弯曲的车道线,能够计算出其曲率,第二是确定车辆自身相对于车道线的偏移(即无人车自身在车道线的哪个位置) 。一种方法是抽取一些车道的特征,包括边缘特征(通常是求梯度,如索贝尔算子),车道线的颜色特征等,使用多项式拟合我们认为可能是车道线的像素,然后基于多项式以及当前相机在车上挂载的位置确定前方车道线的曲率和车辆相对于车道的偏离。

可行驶区域的检测目前的一种做法是采用深度神经网络直接对场景进行分割,即通过训练一个逐像素分类的深度神经网络,完成对图像中可行驶区域的切割。

交通参与者的检测和分类目前主要依赖于深度学习模型,常用的模型包括两类:

传感器层将数据以一帧帧、固定频率发送给下游,但下游是无法拿每帧的数据去进行决策或者融合的。因为传感器的状态不是100%有效的,如果仅根据某一帧的信号去判定前方是否有障碍物(有可能是传感器误检了),对下游决策来说是极不负责任的。因此上游需要对信息做预处理,以保证车辆前方的障得物在时间维度上是一直存在的, 而不是一闪而过。

这里就会使用到智能驾驶领域经常使用到的一个算法 卡尔曼滤波。

卡尔曼滤波(Kalman filter) 是一种高效率的递归滤波器(自回归滤波器),它能够从一系列的不完全及包含噪声的测量中,估计动态系统的状态。卡尔曼滤波会根据各测量量在不同时间下的值,考虑各时间下的联合分布,再产生对未知变数的估计,因此会比只以单一测量量为基础的估计方式要准。

卡尔曼滤波在技术领域有许多的应用。常见的有飞机及太空船的导引、导航及控制。卡尔曼滤波也广为使用在时间序列的分析中,例如信号处理及计量经济学中。卡尔曼滤波也是机器人运动规划及控制的重要主题之一,有时也包括在轨迹最佳化。卡尔曼滤波也用在中轴神经系统运动控制的建模中。因为从给与运动命令到收到感觉神经的回授之间有时间差,使用卡尔曼滤波有助于建立符合实际的系统,估计运动系统的目前状态,并且更新命令。

信息融合是指把相同属性的信息进行多合一操作。

比如摄像机检测到了车辆正前方有一个障碍物,毫米波也检测到车辆前方有一个障碍物,激光雷达也检测到前方有一个障碍物,而实际上前方只有一个障碍物,所以我们要做的是把多传感器下这辆车的信息进行一次融合,以此告诉下游,前面有辆车,而不是三辆车。

坐标转换在自动驾驶领域十分重要。

传感器是安装在不同地方的比如超声波雷达(假如当车辆右方有一个障碍物,距离这个超声波雷达有3米,那么我们就认为这个障碍物距离车有3米吗?并不一定,因为决策控制层做车辆运动规划时,是在车体坐标系下做的(车体坐标系-般以后轴中心为O点)所以最终所有传感器的信息,都是需要转移到自车坐标系下的。因此感知层拿到3m的障碍物位置信息后,必须将该章碍物的位置信息转移到自车坐标系下,才能供规划决策使用。 同理,摄像机一般安装在挡风玻璃下面,拿到的数据也是基于摄像机坐标系的,给下游的数据,同样需要转换到自车坐标系下。

在无人车感知层面,定位的重要性不言而喻,无人车需要知道自己相对于环境的一个确切位置,这里的定位不能存在超过10cm的误差,试想一下,如果我们的无人车定位误差在30厘米,那么这将是一辆非常危险的无人车(无论是对行人还是乘客而言),因为无人驾驶的规划和执行层并不知道它存在30厘米的误差,它们仍然按照定位精准的前提来做出决策和控制,那么对某些情况作出的决策就是错的,从而造成事故。由此可见,无人车需要高精度的定位。

目前使用最广泛的无人车定位方法当属融合 全球定位系统(Global Positioning System,GPS)和惯性导航系统(Inertial Navigation System)定位方法 ,其中,GPS的定位精度在数十米到厘米级别之间,高精度的GPS传感器价格也就相对昂贵。融合GPS/IMU的定位方法在GPS信号缺失,微弱的情况下无法做到高精度定位,如地下停车场,周围均为高楼的市区等,因此只能适用于部分场景的无人驾驶任务。

地图辅助类定位算法是另一类广泛使用的无人车定位算法, 同步定位与地图构建(Simultaneous Localization And Mapping,SLAM) 是这类算法的代表,SLAM的目标即构建地图的同时使用该地图进行定位,SLAM通过利用已经观测到的环境特征确定当前车辆的位置以及当前观测特征的位置。这是一个利用以往的先验和当前的观测来估计当前位置的过程,实践上我们通常使用贝叶斯滤波器(Bayesian filter)来完成,具体来说包括卡尔曼滤波(Kalman Filter),扩展卡尔曼滤波(Extended Kalman Filter)以及粒子滤波(Particle Filter)。SLAM虽然是机器人定位领域的研究热点,但是在实际无人车开发过程中使用SLAM定位却存在问题,不同于机器人,无人车的运动是长距离的,大开放环境的。在长距离的运动中,随着距离的增大,SLAM定位的偏差也会逐渐增大,从而造成定位失败。

在实践中,一种有效的无人车定位方法是改变原来SLAM中的扫描匹配类算法,具体来说,我们不再在定位的同时制图,而是事先使用传感器如激光雷达对区域构建点云地图,通过程序和人工的处理将一部分“语义”添加到地图中(例如车道线的具体标注,路网,红绿灯的位置,当前路段的交通规则等等),这个包含了语义的地图就是我们无人驾驶车的 高精度地图(HD Map) 。实际定位的时候,使用当前激光雷达的扫描和事先构建的高精度地图进行点云匹配,确定我们的无人车在地图中的具体位置,这类方法被统称为扫描匹配方法(Scan Matching),扫描匹配方法最常见的是迭代最近点法(Iterative Closest Point ,ICP),该方法基于当前扫描和目标扫描的距离度量来完成点云配准。

除此以外, 正态分布变换(Normal Distributions Transform,NDT) 也是进行点云配准的常用方法,它基于点云特征直方图来实现配准。基于点云配准的定位方法也能实现10厘米以内的定位精度。虽然点云配准能够给出无人车相对于地图的全局定位,但是这类方法过于依赖事先构建的高精度地图,并且在开放的路段下仍然需要配合GPS定位使用,在场景相对单一的路段(如高速公路),使用GPS加点云匹配的方法相对来说成本过高。

拓展阅读: L4 自动驾驶中感知系统遇到的挑战及解决方案

浅析自动驾驶的重要一环:感知系统发展现状与方向

无人车的规划模块分为三层设计:任务规划,行为规划和动作规划,其中,任务规划通常也被称为路径规划或者路由规划(Route Planning),其负责相对顶层的路径规划,例如起点到终点的路径选择。 我们可以把我们当前的道路系统处理成有向网络图(Directed Graph Network),这个有向网络图能够表示道路和道路之间的连接情况,通行规则,道路的路宽等各种信息,其本质上就是我们前面的定位小节中提到的高精度地图的“语义”部分,这个有向网络图被称为路网图(Route Network Graph),如下图所示:

这样的路网图中的每一个有向边都是带权重的,那么,无人车的路径规划问题,就变成了在路网图中,为了让车辆达到某个目标(通常来说是从A地到B地),基于某种方法选取最优(即损失最小)的路径的过程,那么问题就变成了一个有向图搜索问题,传统的算法如迪科斯彻算法(Dijkstra’s Algorithm)和A 算法(A Algorithm)主要用于计算离散图的最优路径搜索,被用于搜索路网图中损失最小的路径。

行为规划有时也被称为决策制定(Decision Maker),主要的任务是按照任务规划的目标和当前的局部情况(其他的车辆和行人的位置和行为,当前的交通规则等),作出下一步无人车应该执行的决策,可以把这一层理解为车辆的副驾驶,他依据目标和当前的交通情况指挥驾驶员是跟车还是超车,是停车等行人通过还是绕过行人等等。

行为规划的一种方法是使用包含大量动作短语的复杂有限状态机(Finite State Machine,FSM)来实现,有限状态机从一个基础状态出发,将根据不同的驾驶场景跳转到不同的动作状态,将动作短语传递给下层的动作规划层,下图是一个简单的有限状态机:

如上图所示,每个状态都是对车辆动作的决策,状态和状态之间存在一定的跳转条件,某些状态可以自循环(比如上图中的循迹状态和等待状态)。虽然是目前无人车上采用的主流行为决策方法,有限状态机仍然存在着很大的局限性:首先,要实现复杂的行为决策,需要人工设计大量的状态;车辆有可能陷入有限状态机没有考虑过的状态;如果有限状态机没有设计死锁保护,车辆甚至可能陷入某种死锁。

通过规划一系列的动作以达到某种目的(比如说规避障碍物)的处理过程被称为动作规划。通常来说,考量动作规划算法的性能通常使用两个指标:计算效率(Computational Efficiency)和完整性(Completeness),所谓计算效率,即完成一次动作规划的处理效率,动作规划算法的计算效率在很大程度上取决于配置空间(Configuration Space),如果一个动作规划算法能够在问题有解的情况下在有限时间内返回一个解,并且能够在无解的情况下返回无解,那么我们称该动作规划算法是完整的。

配置空间:一个定义了机器人所有可能配置的集合,它定义了机器人所能够运动的维度,最简单的二维离散问题,那么配置空间就是[x, y],无人车的配置空间可以非常复杂,这取决于所使用的运动规划算法。

在引入了配置空间的概念以后,那么无人车的动作规划就变成了:在给定一个初始配置(Start Configuration),一个目标配置(Goal Configuration)以及若干的约束条件(Constraint)的情况下,在配置空间中找出一系列的动作到达目标配置,这些动作的执行结果就是将无人车从初始配置转移至目标配置,同时满足约束条件。在无人车这个应用场景中,初始配置通常是无人车的当前状态(当前的位置,速度和角速度等),目标配置则来源于动作规划的上一层——行为规划层,而约束条件则是车辆的运动限制(最大转角幅度,最大加速度等)。显然,在高维度的配置空间来动作规划的计算量是非常巨大的,为了确保规划算法的完整性,我们不得不搜索几乎所有的可能路径,这就形成了连续动作规划中的“维度灾难”问题。目前动作规划中解决该问题的核心理念是将连续空间模型转换成离散模型,具体的方法可以归纳为两类:组合规划方法(Combinatorial Planning)和基于采样的规划方法(Sampling-Based Planning)。

运动规划的组合方法通过连续的配置空间找到路径,而无需借助近似值。由于这个属性,它们可以被称为精确算法。组合方法通过对规划问题建立离散表示来找到完整的解,如在Darpa城市挑战赛(Darpa Urban Challenge)中,CMU的无人车BOSS所使用的动作规划算法,他们首先使用路径规划器生成备选的路径和目标点(这些路径和目标点事融合动力学可达的),然后通过优化算法选择最优的路径。另一种离散化的方法是网格分解方法(Grid Decomposition Approaches),在将配置空间网格化以后我们通常能够使用离散图搜索算法(如A*)找到一条优化路径。

基于采样的方法由于其概率完整性而被广泛使用,最常见的算法如PRM(Probabilistic Roadmaps),RRT(Rapidly-Exploring Random Tree),FMT(Fast-Marching Trees),在无人车的应用中,状态采样方法需要考虑两个状态的控制约束,同时还需要一个能够有效地查询采样状态和父状态是否可达的方法。

自动驾驶汽车的车辆控制技术旨在环境感知技术的基础之上,根据决策规划出目标轨迹,通过纵向和横向控制系统的配合使汽车能够按照跟踪目标轨迹准确稳定行驶,同时使汽车在行驶过程中能够实现车速调节、车距保持、换道、超车等基本操作。

互联网科技公司主要做软件,以工程机上层为主;而车厂其实以下层的组装为主,也就是OEM,也不是那么懂车。像制动、油门和转向等这些领域,话语权依然集中在博世、大陆这样的Tier 1身上。

自动驾驶控制的核心技术是车辆的纵向控制和横向控制技术。纵向控制,即车辆的驱动与制动控制;横向控制,即方向盘角度的调整以及轮胎力的控制。实现了纵向和横向自动控制,就可以按给定目标和约束自动控制车运行。所以,从车本身来说,自动驾驶就是综合纵向和横向控制。

车辆纵向控制是在行车速度方向上的控制,即车速以及本车与前后车或障碍物距离的自动控制。巡航控制和紧急制动控制都是典型的自动驾驶纵向控制案例。这类控制问题可归结为对电机驱动、发动机、传动和制动系统的控制。各种电机-发动机-传动模型、汽车运行模型和刹车过程模型与不同的控制器算法结合,构成了各种各样的纵向控制模式,典型结构如图所示。

此外,针对轮胎作用力的 滑移率控制 是纵向稳定控制中的关键部分。滑移率控制系统通过控制车轮滑移率调节车辆的纵向动力学特性来防止车辆发生过度驱动滑移或者制动抱死,从而提高车辆的稳定性和操纵性能。制动防抱死系统(antilock brake system)简称 ABS,在汽车制动时,自动控制制动器制动力的大小,使车轮不被抱死,处于边滚边滑(滑移率在 20%左右)的状态,以保证地面能够给车轮提供最大的制动作用力值。一些智能滑移率控制策略利用充足的环境感知信息设计了随道路环境变化的车轮最有滑移率调节器,从而提升轮胎力作用效果。

智能控制策略,如模糊控制、神经网络控制、滚动时域优化控制等,在纵向控制中也得到广泛研究和应用,并取得了较好的效果,被认为是最有效的方法。

而传统控制的方法, 如PID控制和前馈开环控制 ,一般是建立发动机和汽车运动过程的近似线形模型,在此基础上设计控制器,这种方法实现的控制,由于对模型依赖性大及模型误差较大,所以精度差、适应性差。从目前的论文和研究的项目看,寻求简单而准确的电机-发动机-传动、刹车过程和汽车运动模型,以及对随机扰动有鲁棒性和对汽车本身性能变化有适应性的控制器仍是研究的主要内容。

车辆横向控制指垂直于运动方向上的控制,对于汽车也就是转向控制。目标是控制汽车自动保持期望的行车路线,并在不同的车速、载荷、风阻、路况下有很好的乘坐舒适性和稳定性。

车辆横向控制主要有两种基本设计方法,一种是基于驾驶员模拟的方法;另一种是给予汽车横向运动力学模型的控制方法。基于驾驶员模拟的方法,一种策略是使用较简单的运动力学模型和驾驶员操纵规则设计控制器;另一策略是用驾驶员操纵过程的数据训练控制器获取控制算法。基于运动力学模型的方法要建立较精确的汽车横向运动模型。典型模型是所谓单轨模型,或称为自行车模型,也就是认为汽车左右两侧特性相同。横向控制系统基本结构如下图。控制目标一般是车中心与路中心线间的偏移量,同时受舒适性等指标约束。

自动驾驶系统的三大环节的介绍就聊到这里吧,感谢你花时间阅读本站内容,更多关于、自动驾驶系统的三大环节的信息别忘了在本站进行查找喔。

扫码二维码