自动驾驶汽车涉及哪些技术?(自动驾驶产业链涉及哪些)


近日,有位对技术一窍不通的朋友说想买特斯拉,因为它配备了“你站着不动,让车来找你”的自动驾驶功能。

我大吃一惊,这让人感觉到:自动驾驶虽然暂时还只是从业者关注的话题,但也许用不了几年,就会成为影响普通群众购车决策的关键因素

既然如此,作为普通人也有必要提前了解一下自动驾驶的关键技术,但没必要像从业者那样了解得那么细致。本回答就面向普通群众作一个通俗易懂的介绍

自动驾驶需要什么技术?

自动驾驶需要什么技术?要回答这一问题,其实没必要翻开书本,只需要回想一下平时咱们是怎么开车的:

  • 眼睛的环境感知:车道在哪?红灯还是绿灯?唉哟,怎么突然窜出个电瓶车?哎呀,离大货车有点太近了!这些工作,都是由超广角、快速对焦、无级调光圈、双目即时测距、损伤自修复[1]的超高性能仿生摄像头——眼睛来完成的。
更为重要的是,此仿生摄像头自带极强的(人工)智能处理器,自动完成图像处理(剔除毛细血管的遮挡、插帧补全盲点像素等)、对象识别(红绿灯、车道)、轨迹预测(电瓶车将要冲出来)等功能之后,再将这些信息上报给“上层意识”。
  • 大脑的行为决策:通过环境感知的信息,来判断车辆需要执行的控制策略:前面没车,赶紧加油跑;电瓶车冲出来了,赶紧踩刹车。还要提到的是,像“今天走不走高速”的路径规划也属于广义的决策功能。
  • 手脚的车辆控制:收到大脑的决策指令后,驾驶员的神经、四肢,以油门刹车方向盘作为人车交互的两大媒介,与整个汽车系统一起承担着车辆控制的功能。

什么是自动驾驶?

——就是全部或部分替代这些本来由人来执行的功能。

自动驾驶需要哪些技术?

——自然而然地,需要环境感知行为决策(广义)车辆控制技术。

那么,哪项技术在当下的技术门槛最高、最关键呢?

首先,我们可以将车辆控制技术排除在外。这并不是说车辆控制技术简单,L1 级自动驾驶只能帮驾驶员自动加减速或自动转向,进步到 L2 级的“同时实现加减速和转向”,也是花了汽车行业好长时间。

但是,它总体上是一个机电控制的工程问题,相关技术与供应链基本成熟;虽然高阶自动驾驶出于安全性考虑,未来还会有制动和转向的冗余备份要求,总归是逃不出工程领域,而工程问题终究是能解决的。

其次,至于行为决策(广义),像路径规则这种功能,导航软件已经做得比人还好了;在环境感知做到绝对正确的情况下,什么时候加速、什么时候刹车、什么时候转向的决策,也并不难(可能还涉及到一些法律与伦理问题,不属于技术领域)。

如此一来,剩下的就是环境感知了。环境感知对于汽车行业是一个新的挑战,也是实现自动驾驶最关键的一步,是最重要的环节

环境感知的两种技术路线

正是因为环境感知太难实现,才引发了技术路线上的差异。最有意思的标志性事件,是特斯拉的创始人马斯克在发布自家 Autopilot 3.0 的时候,扔出一句颇具争议的话,炮轰了大半个自动驾驶行业:

激光雷达太蠢了,谁依靠激光雷达谁就会完蛋。
(Lidar is a fool. Anyone relying on lidar is doomed)”。
马斯克再次语出惊人

激光雷达(Lidar)是什么?马斯克为什么这么说?

要回答这一问题,就要提到自动驾驶环境感知的两大技术路线:弱感知 + 超强智能 vs 强感知 + 强智能

一、弱感知 + 超强智能

马斯克在发言中坚持的弱感知 + 超强智能技术路线,是指主要依赖摄像头与深度学习技术实现环境感知,而不依赖于激光雷达

这种技术路线有点仿生学的味道:既然人可以靠一双眼睛就可以开车,那么车也可以靠摄像头来看清周围环境。对于把第一性原理当成颠覆式创新秘诀的马斯克来说,坚信这种技术路线可以说是意料之中。

我也很喜欢这种具备自然美感的技术路线,但问题在于:超强智能何时才能实现?

要知道,技术路线之争要讲究商业化的节奏与速度。一百年前,内燃机没有电机的电磁学简洁美感,但内燃机汽车还是打败了电动汽车;十几年前,等离子电视并非一无是处,但还是败给了液晶电视。

现实问题是,深度学习现在还停留在尴尬的“识别”阶段。就比如,发表在 Nature 上的「Why deep-learning AIs are so easy to fool」一文[2]举了一个例子:特征非常明显的一个“STOP“标志,变换角度之后就被 AI 识别成了哑铃(Dumb-bell)与球拍(Racket)。

注:上述识别结果,仅是引用论文[2]中的举例,并不代表当前最强的识别能力

这就很僵硬了。这样的识别结果,怕是还不如隔壁村的二傻子吧?

所谓的“弱“感知与“超强“智能都是相对的。我们觉得人类眼睛的视觉很强了,是因为就连再愚钝的人类也配备了超强智能的识别能力,只是大家习以为常、没有留意而已。

上述情况还是在光线良好的情况下,如果是夜晚、大雾、雨雪的条件下,识别效果还会再打折扣。发生在美国的特斯拉撞大货车的那次“事故”,就是因为摄像头在强反光的情况下把白色的大货车识别成了天空。

识别能力尚且如此,那后续的行为预测与逻辑推理就更是无源之水了。因此,当前水平的深度学习,离人类的“超强智能“还是有差距的;至于什么时候能达到甚至超过人类的水平,不知道。

在深度学习技术的进步速度存在诸多未知的情况下,自动驾驶行业总不能停下来等待吧?于是,另外一个思路出现了: 如果超强智能暂时难以达到,那我们给车赋予超过人类眼睛的感知能力啊,是不是也行呢?这就是强感知 + 强智能的技术路线。

二、强感知 + 强智能

与弱感知 + 超强智能的技术路线相比,强感知 + 强智能技术路线的最大特征,就是增加了激光雷达这个传感器,从而大幅提高感知能力。

在介绍激光雷达的原理之前,我们先通俗地打个比方:这可以说是一种暴力解决方案,用千里眼把所有角落都扫一遍,理论上周围有啥都能知道;再加上稍微一点学习算法,就可以勾勒出障碍物的范围,知道车往哪里开了。

就像葫芦娃中的二娃,他不像铁娃、火娃一样拥有暴力技能,作为心地单纯、缺乏计谋(非超强智能)的毛孩子,通常来说碰到妖怪只能束手就擒。但事实上,凭借着千里眼的特异功能(强感知),他也打了不少胜仗。

这种方法听起来有点太耿直,但在目前深度学习遇到瓶颈的情况下,这种技术路线通往高阶自动驾驶可行性更高一些。

事实上,这个技术路线上的玩家并不少,像谷歌 Waymo、百度 Apollo、Uber、福特汽车、通用汽车等人工智能企业、出行企业、传统车企都处在强感知 + 强智能的技术阵营中

此外,暴力的方案往往也有一种美,比如老毛子的喀秋莎火箭炮,虽然没啥精妙的制导方法,也不需要知道敌人的精确位置,一打起来就把足量的火力送过去,保证覆盖度就行。

下图来源[3]
前苏联喀秋莎火箭炮

对于习惯追求暴力美学的老毛子来说,这种方法最保险。对于人命关天的自动驾驶来说,多一些追求保险的观念,也不是什么坏事。

环境感知的关键传感器

无论何种技术路线,环境感知的核心都在于“传感器”(Sensor)这一古老的名词。咱们前面提到的摄像头激光雷达,都是传感器。

除了这俩之外,与自动驾驶关系密切的传感器还包括另外两种雷达:超声波雷达(Ultrasound Radar)与毫米波雷达(Radar)。

突然多了好几个专业名词,是不是头都要大了? 一开始我也有这种感觉,后来自己总结出一个简便的记忆方式,给大家分享一下:

  • 摄像头:依靠别人、通过第三方发射波(光也是一种波)感知信息的,叫摄像头
  • 雷达:自给自足、通过自己发射波来感知信息的,叫雷达
  • 不同雷达:根据探测距离、分辨率等因素不同,三种雷达被区分为超声波雷达、毫米波雷达(1-10mm)、激光雷达。大体上来说,激光雷达探测距离最长、分辨率最高。
下图来源[4]
不同传感器的探测距离、范围示意图

关于激光雷达的原理,可以理解为数字量:一条激光过去是直的,相当于数字扫点,理论上把所有周围的点扫一遍,就能清楚知道周围环境是什么样

其实,对车辆造型扫描(逆向)也就是这个原理。

当然,实际的工程应用中,还是有不少细节问题。前文提到激光雷达的分辨率很高,那就意味着每次只能扫了很小一块区域,这就意味着要解决两个问题:

  • 空间覆盖率:只看一小块区域不行啊,咱们要看全部!那怎么拼呢?一般来说,纵向靠多线,也就是多发射几根波;横向靠旋转,旋转有机械式的,叫机械激光雷达;也有利用光学相控阵技术来实现的,那就叫固态激光雷达。二者的详细对比参见文章[5]
  • 时间一致性:横向扫描是依次进行的,也就有时间差。这短暂的时间差里,车辆自身在运动、周围的环境也在变化,这就需要借助人工智能技术进行“画面重现”。当然,激光雷达扫回来的点是精确的、确定的,并带有深度信息,所以这里只需要依赖“强智能“,而不必是”超强智能“。
激光雷达的扫描,纵向靠多线、横向靠旋转

与激光雷达不同,摄像头的采集的是像素信息,就和人眼看到的差不多。与人不同的是,人眼配备了超强的(人工)智能处理器,在毫不费力的情况下识别出环境中的车道、车辆、行人等等,而对车辆来说,像素信息只是无意义的海量数字,必须经过如下的抽象、重构等复杂过程,必须依赖超强智能才能达到人类的识别效果。

下图来源于一本非常基础的深度学习教材,我们可以看到:即便是一个简单的字符,想准确识别都需要复杂的处理过程。

最后才提到毫米波雷达,似乎暗示着毫米波雷达不重要? 恰恰相反,毫米波雷达非常重要

  • 无论是弱感知 + 超强智能,还是强感知 + 强智能,所有技术路线必备毫米波雷达
  • 无论是当前已成熟的 L2 级自动驾驶, 还是未来 L3、L4、L5 级自动驾驶,在可预见的自动驾驶不同阶段都必备毫米波雷达

正因为大家都需要毫米波雷达,争议比较少,才不经常拿出来被比较与提及,但这并不意味着它不重要。

本题的提问者 @亚德诺半导体 将上述环境感知传感器放在一起,从各个维度进行了一个全面的比较,比较专业、信息量很大,有兴趣的同学可以仔细看一下。

摄像头与雷达解决了“我周围都有啥“的问题,车辆还需要解决另外一个问题:我在哪,我有多快

博尔特正在探测:我在哪,我有多快?

对于日常定位与测速需求来说,单独使用 GPS 足矣;但对于自动驾驶来说,仅使用 GPS 在精度、响应速度与场景覆盖率(隧道、车库)都不够,还需要一种加速度传感器,也就是IMU 惯性测量单元,并通过卡尔曼滤波等方法将二者信息融合,形成最优估计。

吃瓜群众可能有个疑问,明明是测加速度的,为啥叫惯性单元呢?我们回想一下牛顿第二定律,就不言自明了: 加速度 = 作用力 / 惯性(质量)

好了,做一个小结,自动驾驶的环境感知需要完成以下工作:

  • 我周围都有啥? 涉及到摄像头、激光雷达、毫米波雷达、超声波雷达等传感器技术。
  • 我在哪,我有多快? 涉及到 GPS 与 IMU 惯性测量单元技术。
  • 这么多信息,我听谁的? 涉及到信息融合技术,如下图来源于 @亚德诺半导体 的文章[6]
基于传感器融合的自动驾驶系统

大家都知道,自动驾驶是汽车行业的一项革命性技术,蕴含着巨大的商业价值。如果要投身到这个市场,那么问题来了:应该投入到哪项传感器技术呢?

自动驾驶传感器系统组成

半导体行业领导者 ADI @亚德诺半导体 的回答是:小公司才做选择,大公司我全都做!

九品芝麻官才做选择,豹子头我全都要
  • ADI 毫米波雷达:覆盖 24GHz 和 76-81GHz 完整频段,在现今开发的所有雷达模块中占到 50%.
  • ADI 激光雷达:收购 Vescent,志在提供质高价低的纯固态激光雷达。
  • ADI 惯性单元:高稳定性和超低噪声,高达十个运动自由度,从战术级降维至车规级开发的 IMU,堪称业界超优方案。作为百度 Apollo 的重要合作伙伴,为全球首款 L4 级量产自动驾驶巴士阿波龙提供 IMU 用于惯性导航。

更详细的介绍,请移步官方机构号的这篇文章:

自动驾驶攻破的难点在哪,何时能到 Level 5?

世界上最大的蛇有多大?(世界上最大的蛇有多大图片视频)
上一篇
没有了
下一篇
本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

相关推荐

  • 苹果手机各个功能介绍,iphone必须关闭的十个功能

    1、关闭蓝牙。现在已经很少有人用蓝牙传输文件了,而且iPhone与安卓的蓝牙并不兼容,所以,可以在设置中,关闭蓝牙功能。2、关闭通知功能。关于APP推送,无非也就是一些更新提醒,关了也不会有什么影响,还能多省点电。3、关闭自动调节亮度功能。一般来说,可以将屏幕亮度在15%-30%之间,在强光环境中,在进行手动调整就可以了。4、禁止后台刷新。在设置—通用中,关闭后台自动刷新功能,也可以对省电起到一点...

  • 高德打车怎么设置途经地,高德如何添加途经路线

    1、点击高德地图APP界面底部的“导航”按钮,进入导航模式。2、点击右下角的“路线”,进入路线设定页面,根据要求输入起点、终点进行路线规划。3、点击“添加途经点”,弹出添加途经点页面,点击右上角,可以添加或者删除途经点,乘客可以手动输入要添加的途经点。4、当添加完途经点时,点击“确定”按钮,即可添加途经路线。此时地图会显示出这条路线上所有的途经点,以及当前途经点的地点信息。怎么设计高德地图设置要经...

  • 高中必修二物理知识点总结,高一物理必修2重点知识点归纳

    您好,1.运动学-位移、速度、加速度的概念及计算方法-相关运动的分析方法,如相对运动和抛体运动-牛顿运动定律及其应用2.力学-力的概念及种类,如重力、弹力、摩擦力等-牛顿第一、二、三定律及其应用-力的合成与分解-能量、功、动能定理、功率的概念及计算方法-动量、冲量定理及其应用3.热学-温度、热量、热能的概念及计量单位-热传递的方式及其特点,如传导、对流、辐射-热力学第一、二定律及其应用,如热机效率...

  • 自动驾驶汽车涉及哪些技术?(自动驾驶产业链涉及哪些)

    近日,有位对技术一窍不通的朋友说想买特斯拉,因为它配备了“你站着不动,让车来找你”的自动驾驶功能。我大吃一惊,这让人感觉到:自动驾驶虽然暂时还只是从业者关注的话题,但也许用不了几年,就会成为影响普通群...

  • 世界上最大的蛇有多大?(世界上最大的蛇有多大图片视频)

    已经灭绝的和现存的当另当别论哟。泰坦巨蟒属下的唯一种塞雷洪泰坦巨蟒T. cerrejonensis是已知史前最大的蛇哦,虽然被称为“蟒”,但更准确的说是“蚺”,属于蟒蛇科的蚺亚科。这家伙生存在大约 6...