手机 App 已上线
点我下载

特斯拉自动驾驶命案解析:技术漏洞在哪里

Sat Jul 02 2016 09:58:24 GMT-0700 (Pacific Daylight Time)

cover
“让无人驾驶的子弹飞一会儿”,这是科技界对于自动驾驶这一新兴事物的普遍看法。然而惨痛的事故发生之后,人们又开始怀疑是否对新技术过于宽容。

当地时间6月30日,全球第一例自动驾驶事故致死案被曝出。5月7日,一辆特斯拉Model S车辆在自动驾驶模式下行驶在美国佛罗里达州的一个高速路口时,与前方左拐的大货车发生碰撞,导致特斯拉车主身亡。

Model S上加载了特斯拉自动驾驶Autopilot 7.1系统,该软件使得司机在高速公路上行驶时能够将驾驶系统交给汽车。不过一旦驾驶者的手移开方向盘之后,系统会发出警报,提醒他将手放回方向盘“随时准备接管驾驶”。

特斯拉在事后的事故分析中表示,是由于阳光照射挂车白色面板造成强烈的反光,使得自动驾驶系统和人都未能识别到前方的车辆。再加之挂车底盘较高,Model S直接从挂车下部穿过,挡风玻璃撞上挂车底部,导致特斯拉的撞车安全系统也未能启动。据幸存的挂车司机表示,在事故发生之时,Model S的车主正在车内观看哈利波特影片。

特斯拉Model S错在哪儿?

图片

5月7日,一辆特斯拉Model S车辆在自动驾驶模式下行驶在美国佛罗里达州的一个高速路口时,与前方左拐的大货车发生碰撞。

虽然目前特斯拉已经承认了事故发生的原因是因为自身的系统出现失灵,但具体的技术细节并未披露。对此,业界有各种猜测。

车联网平台Automan CEO石庆年向澎湃新闻表示,特斯拉的车辆在1.5米以上的高度是靠moblieye的视觉系统来识别路况信息的,太强的反光照射混淆了视觉系统的判断。

并且据石庆年分析猜测,Model S的前置雷达算法可能在那个高度的区域上设置为视觉优先,导致视觉权重优先于雷达的判断,因而误判了路况。

“我相信这起人命事故会倒逼特斯拉的进步,把一些极端的情况也纳入考虑的范围。从算法上要考虑到多个闭环的弥补,视觉、雷达、激光雷达,多重传感器能够来进行一个验证。”石庆年说。

另一位从事ADAS(高级驾驶辅助系统)主动安全研究的专业人士则告诉澎湃新闻记者,依据摄像头的工作原理,车轮下的阴影是用以识别路面车辆重要标识,专业上叫做“边缘检测”,通过提取阴影灰度差别计算障碍物大小和距离。但在特殊的光线情况下,比如逆光,或者像特斯拉事故中的阳光反射过于强烈,就会影响摄像头的判断。

他还表示,对自动驾驶技术来说,大车识别一直都是技术难点。货车这样的大型车辆一般只有安装了多个摄像头的车辆才能准确识别;单个摄像头的车辆就取决于安装位置,安装过低也不行。

“这就是一起普通的交通事故”

值得注意的是,特斯拉Model S是一款L3级别的自动驾驶车辆,这意味着它不能实现完全意义上的无人驾驶,只称得上是智能辅助驾驶,并且限于特定道路状况——比如在道路情况单一的高速公路上,打开自动驾驶功能,可以减轻驾驶员的驾驶负担。

“在特斯拉的规范里,它的自动驾驶功能要求在封闭路段才能开启。但这起事故发生在一个路口,是不符合封闭路段这个规定的。”石庆年说。

从某种意义上说,这起事故中的驾驶员也有使用不当的责任;在不该开启自动驾驶的路段错误使用了自动驾驶。在一个汽车自动驾驶技术的分享群里,一位智能汽车的从业人员为特斯拉抱不平,“就算是吹风机,使用不当也会出事。”

罗兰贝格全球合伙人、大中华区副总裁张君毅向记者表示:“在这起事故中,我认为特斯拉是没有责任的。因为特斯拉从来没有说过它的Autopilot系统支持驾驶员完全脱离驾驶状态,反而是一再强调驾驶员应随时做好准备接管车辆。并且在特斯拉的声明中,也强调了当时的天气状况不仅是自动驾驶系统未能检测到、驾驶员也没能发现货车的出现,因此这就是一起普通的交通事故,不要全部归咎于自动驾驶技术。”

“特斯拉系统的自学能力无人能及”

“相信这起事故会让特斯拉未来设计一些手段来限制自动驾驶功能的打开。我猜想会和GPS的数据相结合,当发现车辆行驶在非封闭路段时,就暂时关闭功能。因为作为商业企业你不能去责怪消费者误用,你只能通过自己的管理和技术来提升产品的性能,减少可能的事故。”石庆年说。

此前,特斯拉的创始人埃隆·马斯克就已经意识到了消费者过度信赖技术而带来的潜在风险。去年他在看到一些驾驶者“解放双手”的视频之后,表示这些行为是疯狂的,公司会在今后车辆启动自动驾驶功能时增加额外限制。

事实上,在今年1月特斯拉Autopilot系统的更新中,已经部分缩小了自动驾驶功能的适用范围。

石庆年指出,作为目前唯一实现大规模商用的自动驾驶车辆,特斯拉系统的自主学习能力目前无人能及。谷歌最早开始无人车测试,依靠几辆小车在硅谷开来开去,开了这么多年才收集了几百万公里的数据。但特斯拉不一样,它实现了商业化,世界上有几十万台车加载了它的自动驾驶系统,意味着每天会上传几十万台车的数据,大量数据能帮助它非常快地学习,并且学习能力会越来越强。

“比方说,Autopilot 7.0版本刚出来的时候,是没法识别摩托车的,到7.1的时候就能认出摩托车了;一开始它对箱式小货车认得不大好,慢慢地不但能准确识别箱式小货车,甚至可以认出一辆平板拖车后面拖着一棵树……这就是逐步学习的一个结果。”石庆年说。

图片

还应该信任无人驾驶吗?

目前,美国国家高速公路交通安全管理局(NHTSA)正在调查该起事故以及特斯拉公司。事故曝光后,资本市场反应剧烈,特斯拉股价应声下跌。

英国《金融时报》援引美国自动驾驶研究公司Kelley Blue Book高级分析师Karl Brauer的观点称:“该事故将对特斯拉的声誉造成重大冲击,因为特斯拉一直被视为行驶安全和尖端技术的领导者。”

近两年,随着汽车厂商和科技企业加大对无人驾驶技术的投入,对于这一新兴事物一直有两种声音在不断交锋。

来自行业内的一部分观点认为,技术的安全性将远远高于人类驾驶的能力。数据显示,从反应时间上看,无人驾驶在对紧急状况的处理方面远超人类。在突发情况下,驾驶员从看到异常状况到做出行动需要0.6秒,而无人驾驶系统只需要0.1秒;驾驶员的视距一般在50米左右,而无人驾驶汽车的探测距离能达到200米。

此次事故发生后,特斯拉表示,这是Model S自动驾驶功能激活使用行驶1.3亿多英里过程中遇到的第一起致命事故,而全世界平均每6000万英里行程就会发生一起致命车祸。

“随着传感器精度越来越高、计算机算法提升,无人驾驶一定会大大提高机动车的行车安全。根据现有的情况分析,无人驾驶能够把车祸的事故率降低90%。”一位自动驾驶安全功能的研发人员这样告诉记者。

而另一方的观点则认为,技术比人类更脆弱,只要是电脑系统都会有漏洞。想象一种极端的情况:有黑客侵入了一辆正在高速行驶的车辆的驾驶系统,并且关闭了它的人工接管功能,那么后果就难以预计。

美国智库兰德公司今年4月在一份研究报告中指出,自动驾驶汽车测试的总里程还很少,缺乏足够数据来对比这类汽车与传统汽车的安全性和可靠性。迄今为止,测试时间最长的是谷歌自动驾驶汽车,从2009年至2015年,55辆谷歌自动驾驶汽车的道路测试总里程仅约130万英里(约合209万公里),其间共发生了11起小事故。

石庆年指出:“人们对自动驾驶安全性的顾虑就是行业普遍面临的问题。人们对自动驾驶的质疑就像对飞机安全性的担忧。实际上,飞机出大事的概率比车祸要低很多,但还是很多人认为飞机不安全。”

他强调不能因噎废食,所有人都知道在未来的某个节点的某一天,无人驾驶是必然的趋势。但从0到100不可能一蹴而就,一定要有公司来做中间的事情。

“现在一些燃油车的车企就等在高科技公司的后面,等前面的人把路蹚平,因为冒险才是最难的。从这个意义上讲,社会也应该理解特斯拉、谷歌这样的公司,并且鼓励它们更大胆更努力地往前尝试。如果这时候,一个车祸,让所有人都去骂它们,股票市场也抛弃它们,公司因此倒了,那才是最可惜的事情。”

监管挑战

《金融时报》在报道中称,作为首例无人驾驶导致命案的车祸,该事故可能对未来监管部门批准无人驾驶汽车上路造成新的挑战。

根据此前披露的消息,就在本月美国国家高速公路交通安全管理局(NHTSA)就将公布对于自动驾驶车辆的指南。当时这一决定引得一些无人驾驶研发厂商颇为不满,认为监管部门对于无人驾驶车辆监管过于激进。

“从某种意义上,事故反而是好事,让现在的市场冷一冷,投资者也可以更理性地观察行业的发展。”张君毅说,“行业里存在盲目炒作无人驾驶概念的现象,似乎明天就能实现无人车的普及似的。但实际上,现在还仅在辅助驾驶技术的应用阶段,距离社会道路的全路段无人驾驶,还有很长的路要走。”

全国汽车标准化技术委员会的一位工作人员向澎湃新闻记者透露,目前国家对于自动驾驶的相关规范已经做了规划,但还没有真正的自动驾驶标准,涉及到部分ADAS功能。“现在国际上也是这样一个状态,标准应当在技术成熟稳定之后制定,否则会限制技术的发展。”

“这一天迟早是会来的,自动驾驶的一只靴子落了地。”石庆年在一个汽车自动化的讨论群中写道。在他看来,特斯拉从发展自动驾驶开始就在等待这一天,因为事故的发生才能给未来各种配套制度和设施的完善提供量化标准。


分享到微信: 分享
【郑重声明】温哥华天空刊载此文不代表同意其说法或描述,仅为提供更多信息,也不构成任何投资或其他建议。 本网站有部分文章是由网友自由上传,对于此类文章本站仅提供交流平台,不为其版权负责; 部分内容经社区和论坛转载,原作者未知,如果您发现本网站上有侵犯您的知识产权的文章,请及时与我们联络,我们会及时删除或更新作者。谢谢!

我要评论: