自动驾驶行业专题报告:领航辅助,自动驾驶“奇点”时刻到来?(13)

2023-05-01 来源:飞速影视
芯片:大模型驱动下走向大算力&新架构
在“BEV Transformer”趋势下,算法复杂度、数据规模以及模型参数均呈指数级 提升,推动自动驾驶芯片向着大算力、新架构以及存算一体等方向演进。
1) 大算力:向数百 TOPS 算力演进。传统 L1/L2 辅助驾驶所需处理的数据量小且算 法模型相对简单,因此以 Mobileye 为代表的单目视觉 芯片算法强耦合的一体机 方案即可满足需求。但领航功能作为高阶辅助驾驶的代表,需要“更强算力 软硬 件解耦的芯片 域控制器”来满足海量数据处理与后续持续 OTA 迭代的需求。高 速领航开始向 20 万以下车型渗透,15-30TOPS 可满足基本需求,但若想要“好 用”或需要 30-80TOPS。城区领航的场景复杂程度和技术实现难度更高,目前普 遍需要搭载激光雷达,芯片以英伟达 Orin、华为 MDC 和地平线 J5 为主,算力配 置普遍超 200TOPS。而在应用“BEV Transformer”技术后,多传感器前融合 以及 2D 至 3D 空间的转化需要 AI 芯片具备更强的推理能力,因此也需要比以往 更大的算力支撑,包括更高的 AI 算力、CPU 算力和 GPU 算力。
2) 新架构:加强并行计算能力和浮点运算能力。相较于 CNN/RNN,Transformer 具有更强的并行计算能力,可加入时间序列矢量,其数据流特征有显著差别,浮 点矢量矩阵乘法累加运算更适合采用 BF16 精度。Transformer 允许数据以并行的 形式进行计算,且保留了数据的全局视角,而 CNN/RNN 的数据流只能以串行方 式计算,不具备数据的全局记忆能力。传统 AI 推理专用芯片大多针对 CNN/RNN, 并行计算表现不佳,且普遍针对 INT8 精度,几乎不考虑浮点运算。因此想要更 好适配 Transformer 算法,就需要将 AI 推理芯片从硬件层面进行完整的架构革新, 加入专门针对 Transformer 的加速器,或使用更强的 CPU 算力来对数据整形,这 对芯片架构、ASIC 研发能力,以及成本控制都提出了更高的要求。
以特斯拉、地平线为代表的厂商均“重 ASIC(即 AI 推理专用芯片),轻 GPU”。 特斯拉引领 BEV Transformer 路线,以专用 NPU(神经网络处理器)承担 AI 运 算,在 NPU 设计之初便进行了针对性优化。而地平线等后来者或需要在下一代芯 片中对 AI 推理芯片架构进行针对性优化。
相关影视
合作伙伴
本站仅为学习交流之用,所有视频和图片均来自互联网收集而来,版权归原创者所有,本网站只提供web页面服务,并不提供资源存储,也不参与录制、上传
若本站收录的节目无意侵犯了贵司版权,请发邮件(我们会在3个工作日内删除侵权内容,谢谢。)

www.fs94.org-飞速影视 粤ICP备74369512号