1、 2024 年深度行业分析研究报告目录 1 引言.3 2 概览:软硬件全链路闭环 全栈自研构筑强大技术基石.5 2.1 发展历程:软硬件持续迭代 由外部合作到全栈自研.5 2.2 系统架构:软硬件全链路闭环 实现高度集成.6 3 算法端:创新算法优化 实现高效神经网络推理.8 3.1 感知:先进感知技术,确保精准环境理解和物体识别.8 3.2 规划:采用交互搜索框架 快速选择最优方案.18 4 算力端:Dojo 超级算力支撑 保持能效比优势.21 4.1 Dojo 系统:特斯拉自研超算平台 研发进展迅猛.21 4.2 D1 芯片:基于存算一体架构 实现高效数据传输.24 4.3 瓦片集群:由基
2、本单元出发 构成大规模算力集群.26 4.4 软件系统:采用高效同步机制 性能较 GPU 大幅提升.27 5 芯片端:自研 FSD 芯片 集成高效计算能力.30 5.1 硬件架构:由合作迈向自研 运算性能强大.30 5.2 编译推理:高效优化 最大化计算资源利用.34 6 数据端:自动化数据闭环 优化数据驱动训练.36 6.1 自动标注:自动化 4D 标签生成 提升标注效率.36 6.2 仿真模拟:构建虚拟场景 优化算法表现.39 6.3 数据引擎:集成多源数据 加速模型训练.42 7 端到端架构:FSD V12 引领 实现感知决策一体化.46 7.1 特斯拉的 AI 关键时刻:FSD V12
3、 首次实现端到端 V13 即将推出.46 7.2 大模型成就端到端自动驾驶 推动感知决策一体化.48 7.3 端到端架构演进:感知端到端到 One Model 端到端.49 插图目录.3 表格目录.4 插图目录 图 1:2013 年 9 月,马斯克在 Twitter 中首次提到 AP.5 图 2:特斯拉自动驾驶系统发展历程.6 图 3:FSD 累计行驶里程.6 图 4:FSD 订阅价格降至 99 美元/月.6 图 5:特斯拉 FSD 系统架构.7 图 6:特斯拉视觉感知系统算法采用 HydraNets 架构.9 图 7:图像空间预测投射到向量空间后出现较大偏差.9 图 8:单相机检测无法解决物
4、体横跨多相机的问题.9 图 9:BEV 视角融合了多个摄像头的视频数据.10 图 10:Transformer 是实现二维到三维变换的核心.10 图 11:通过图像校准解决摄像头采集数据偏差问题.11 图 12:加入虚拟标准摄像头以校准图像数据偏差.11 图 13:感知网络仍是对瞬时图像片段进行感知.11 图 14:特斯拉引入时空序列特征层.11 图 15:特征序列模块可以缓存时序与空间特征.12 图 16:隐状态可组织成二维网格.13 图 17:空间 RNN 的隐状态可包含多个通道.13 图 18:Occupancy Network 对正在启动的两节公交车运动状态进行精准捕捉.14 图 19
5、:Occupancy Network 能够生成可行使表面.14 图 20:基于 Attention 机制的 Occupancy Network 占用网络.15 图 21:Lanes Network 旨在生成车道与连接信息.16 图 22:特斯拉采用低精度地图对视觉表示进行增强.16 图 23:Lanes Network 工作原理.17 图 24:稀疏化处理可使神经网络专注于计算最重要的区域.17 图 25:效率、安全和舒适是自动驾驶规划的三大目标.18 图 26:非凸性和高维性是自动驾驶规划的两大难点.18 图 27:特斯拉将规划问题进行分层分解.19 图 28:自动驾驶系统需要实现多代理联合
6、轨迹规划.19 图 29:自动驾驶行驶方案评估至少需要 10 毫秒.19 图 30:特斯拉采用交互搜索框架,实现实时方案评估.20 图 31:特斯拉 Dojo 发展历程.21 图 32:特斯拉 Dojo 算力规划.22 图 33:Dojo 超级计算机三大目标.23 图 34:Dojo 系统二维网格结构.23 图 35:Dojo 训练节点架构.24 图 36:D1 芯片结构.24 图 37:D1 芯片计算阵列.25 图 38:D1 芯片串行器/解串器分布.25 图 39:特斯拉 Dojo 指令集.25 图 40:计算平面两端各放置了一个接口处理器.26 图 41:Dojo 接口处理器连接在系统托