IT之家 7 月 25 日消息 特斯拉本周四在北京南四环中路特斯拉体验中心举办了最新一届“T-talk”线下分享讨论会,主要讲解了特斯拉 FSD 在自动驾驶领域所做的努力。
调查显示,全球每天有 3 万余人死于交通事故。官方讲解了特斯拉在安全方面的举措:
被动安全方面,特斯拉由于没有发动机,车型前方自带吸能溃缩区,能在意外中有效保护乘员;采用钢铝混合轻量车身、坚固的底盘防护、大量高强度钢和超高强度钢的应用,加强防护。
在事故的预防方面,则有全系标配的主动安全配置守护。每辆特斯拉车型,均有侧撞预警、盲点碰撞警报、前撞预警、速度限制警报、障碍物感应限速、自动紧急制动、车道偏离防避等功能。
官方介绍称,在最新的美国国家公路交通安全管理局(NHTSA)碰撞测试中,特斯拉全系车型均获得五星碰撞安全评级。其中,Model 3 不仅获得 NHTSA 全五星安全评级、ENCAP 全五星评级,还摘得了 IIHS SAFETY PICK + 顶级安全大奖。在美国政府的“新车评价项目”中,Model 3 比其测试的任何车辆受伤概率都低。
在此基础上,特斯拉还提供了主动巡航控制、辅助转向、自动变道、辅助驾驶导航等功能,车辆预知风险、预判后,系统能够自主实施转向、制动等决策,尽量避免事故的发生。
以 Model 3 为例,当在并入的临近车道中探测到车辆时,Autopilot 便会触发侧撞预防功能(转向干预),并保障车辆自动转向行驶到一个更安全的位置。
据称,主动安全系统 + Autopilot,带来的安全性提升是立竿见影的。
NHTSA 公布的最新数据显示,在美国每行车 674 万公里,平均会发生 8.66 次事故。而这个数据,在使用了 Autopilot 的特斯拉车主中仅为 1 次;没有使用 Autopilot 但有主动安全功能参与的驾驶中,事故约为 2 次。也就是说,特斯拉的 Autopilot 让行车安全水平达到平均水平的 8.66 倍。
此外,特斯拉还想解决“浪费”问,减少堵车时间和不需要的停车占用面积。
据悉,特斯拉的芯片已经经过 3 次迭代,目前最新的 Full Self-Driving Computer 上搭载了特斯拉自主研发的两枚芯片,也就是 Autopilot3.0 硬件,性能比 2.5 版本芯片强大 21 倍。
据介绍,AI 芯片在图像识别等领域有着独特优势,其计算方式为矩阵或 vector 的乘法、加法,配合一些除法、指数等算法;而 CPU 则适合于不同领域的复杂算法,比如计算机服务器领域;GPU 虽然也是针对图像渲染的算法,但其特性不符合神经网络。
特斯拉研制的 FSD 芯片中,其中 NNA(NPU)处理器即是为 AI 算法而存在的。相较于 HW2.5,FSD 电脑将算力提升至了 144TOPS,每秒处理的图片速度提升至 2300 帧。
算力的大幅提升,目的在于处理海量的图像信息。通过深度学习,特斯拉不断输入大量数据,人工或自动标注出正确“答案”,令其不断自我“进化”,从而快速提供识别率,进而覆盖更多驾驶场景。
每当车辆在遇到各类“边角案例”时,也就是遇到一些比较“棘手”的驾驶场景时,或驾驶员的操作与系统设定不一致时,车辆都会脱敏匿名将实际情况上传给特斯拉云端服务器,通过庞大的集中算力进行深度学习以优化系统。
当然,特斯拉也为用户提供了不上传数据的选项,官方还强调其所有上传至云端的数据均为脱敏、匿名处理后的数据。
据悉,特斯拉 FSD 学习过程的优势在于绝大部分数据是从日常生活中看到的那些真正行驶在路上的车辆收集的,只有小部分来自测试车队,因此更加贴近车主日常驾驶场景。
IT之家了解到,为了处理巨量驾驶数据,特斯拉还在努力研发更强的机器学习和 AI 模型。
例如特斯拉此前启动了一个代号为 Dojo 的重大项目,它是一台超强的训练计算机,处理的数据不再停留在图片层面,而是针对视频类的数据,能够以较低的成本实现算法性能的指数级提升。
自动驾驶系统,传感器得到的数据是一切的基础,不过不同的传感器各有不同优劣势。特斯拉表示,毫米波雷达(Radar)的优势在于对距离、速度等信息的判断,不过通过算法的优化,他们已经能够通过摄像头实现该目的。
但特斯拉并没有急于取消雷达,毕竟在那之前还需要将通过雷达来判断其视觉方案是否能够准确得知距离、速度等信息。
能够替代 Radar 给出距离、速度等信息还只是其中一个理由,另一个更关键的理由在于,虽然越多的传感器经过融合算法后,能够提供相对越全面的环境信息,但当不同传感器给出的信息也会出现互相矛盾的问题。
特斯拉经过实际测试和对比,通过纯视觉方案不仅能够提供与雷达方案一样的信息,并且还将体验优化提升了很多。
官方举例表示,在你前方的车紧急制动的场景下,纯视觉方案没有出现 Radar 那种信息中断和误判的情况,非常线性,从而能够提供线性的制动决策。
注:黄色线条代表毫米波雷达感知的距离、速度、加速度图像;蓝色线条代表纯视觉传感器的数据结果。
而在通过立交桥下的场景中,由于 Radar 的垂直分辨率很低,所以容易导致系统误判空中的物体为障碍物;而纯视觉方案则完全不会出现该问题。
还有一种因素是雷达对静止物体的判断不比视觉方案。对于毫米波雷达来说,前方车辆停靠在路边,导致识别较晚,在距离车辆 110 米时才感知到前方停有卡车。而纯视觉方案在距离车辆 180 米的时候就可识别到该车辆。
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。