扫码关注公众号
网站公告:为了给家人们提供更好的用户体验和服务,股票复盘网V3.0正式上线,新版侧重股市情报和股票资讯,而旧版的复盘工具(连板梯队、热点解读、市场情绪、主线题材、复盘啦、龙虎榜、人气榜等功能)将全部移至VIP复盘网,VIP复盘网是目前市面上最专业的每日涨停复盘工具龙头复盘神器股票复盘工具复盘啦官网复盘盒子股票复盘软件复盘宝,持续上新功能,目前已经上新至V6.2.7版本,请家人们移步至VIP复盘网 / vip.fupanwang.com,另外,每周一、周三晚上20:00~21:00举办VIP复盘网线上实战课,由具有15年私募基金实战经验,精通龙头、短线、中长线等各种模式,熟悉游资操作的竹炜老师给家人们实战复盘,并讲解操盘技巧,每期只开放100个名额,请家人们快速联系客服报名!!!

扫码VIP小程序
返回 当前位置: 首页 热点财经 汽车存储芯片研究:大模型推动下,主机厂车用存储芯片的选择路径分析

股市情报:上述文章报告出品方/作者:佐思汽车研究;仅供参考,投资者应独立决策并承担投资风险。

汽车存储芯片研究:大模型推动下,主机厂车用存储芯片的选择路径分析

时间:2025-04-18 10:56
上述文章报告出品方/作者:佐思汽车研究;仅供参考,投资者应独立决策并承担投资风险。



佐思汽研发布了《2025年汽车存储芯片产业及对大模型影响研究报告》。


从2D CNN小模型到BEV Transformer大模型,模型参数量暴增,存储成为性能瓶颈



全球汽车存储芯片市场规模将从2023年的43亿美元左右,到2030年增长至170亿美元以上,复合增长率高达22%,汽车存储芯片在汽车半导体中的价值占比,2023年在8.2%,预计到2030年将上升至17.4%,存储芯片成本将大幅上升。


2023-2030年全球汽车芯片市场规模预测

来源:佐思汽研《2025年汽车存储芯片产业及对大模型影响研究报告》


汽车存储芯片行业发展的主要驱动力在于车载LLM大模型快速兴起,从过去的2D CNN小模型到BEV Transformer大模型,模型参数量大幅提升,算力需求骤增。CNN模型参数通常不到1000万,大模型即LLM的参数一般在70亿至2000亿之间,经过蒸馏后的车端模型参数也已高达几十亿级别。


从计算角度看,BEV Transformer大模型以LLaMA为代表的解码器架构中,Softmax算子成为核心,其并行化能力低于传统卷积(Convolution)算子,导致存储成为瓶颈,特别是存储密集型模型如GPT,对存储带宽要求高,市面上常见的自动驾驶 SoC 芯片常面临“存储墙”问题。


端到端实际上是内嵌了一个小型LLM,随着喂养数据的增加,这个大模型的参数会越来越大,最初阶段的模型大小大概是100亿参数,经过不断迭代最终会达到1000亿以上。


2025年4月15日,小鹏汽车在AI分享会上首次对外披露正在研发720亿参数的超大规模自动驾驶大模型,即“小鹏世界基座模型”。小鹏的实验结果表明,在10亿、30亿、70亿、720亿参数的模型上都看到了明显的规模法则(Scaling Law)效应:参数规模越大,模型的能力越强。同样的模型大小,训练数据量越大,模型的能力也会越强。


多模态模型训练的主要瓶颈不仅是 GPU,也需要解决数据访问的效率问题。小鹏汽车自主开发了底层的数据基础设施(Data Infra),使数据上传规模提升22倍、训练中的数据带宽提升15倍;通过联合优化 GPU / CPU 以及网络 I/O,最终使模型训练速度提升了 5 倍。目前,小鹏汽车用于训练基座模型的视频数据量高达2000万clips,这一数字今年将增加到2亿clips。


来源:小鹏汽车


未来,小鹏将 “小鹏世界基座模型” 通过云端蒸馏小模型的方式将基模部署到车端,车端大模型参数规模只能越来越大,对计算芯片和存储都带来巨大挑战。基于此,小鹏汽车自研了图灵AI芯片,芯片比通用车规高算力芯片利用率提升20%,最高能处理30B(300亿)参数的大模型,相较之下,当前理想汽车的VLM(视觉-语言模型)参数量约为22亿。


模型参数量越大,也往往伴随着模型推理的较高延迟问题,如何解决时延问题至关重要,预计图灵AI芯片可能通过多通道设计或先进封装技术实现存储带宽的显著提升,以支持30B参数大模型的本地运行。


来源:小鹏汽车


存储带宽决定了推理计算速度的上限,LPDDR5X将被普遍采用,但仍显不足,GDDR7、HBM或将提上规划日程



存储带宽决定了推理计算速度的上限。假设一个大模型参数为70亿,按照车载的INT8精度,它所占的存储是7GB,特斯拉第一代FSD芯片的存储带宽是63.5GB/s,即每110毫秒生成一个token,帧率不到10Hz,自动驾驶领域一般图像帧率是30Hz。英伟达的Orin存储带宽是204.5GB/s,即每34毫秒生成一个token(7GB除以204.5GB/s=0.0343s,约34ms),勉强可以达到30Hz(帧率=1除以0.0343s=29Hz),注意这只是计算的数据搬运所需的时间,数据计算的时间都完全忽略了,实际速度要远低于这个数据。



  • DRAM存储芯片选择路径(1):LPDDR5X将被普遍采用,LPDDR6标准仍在制定中


除了特斯拉,目前所有的车载芯片最高只对应LPDDR5,下一步业界将主推LPDDR5X,譬如美光已推出车规级 LPDDR5X DLEP DRAM方案,已通过 ISO26262 ASIL-D 认证,可以满足关键的汽车FuSa要求。


英伟达Thor-X已支持车规级 LPDDR5X,内存带宽增至273GB/s,支持LPDDR5X标准,支持PCIe 5.0接口。Thor-X-Super内存带宽则达到了惊人的546GB/s,采用了512位宽的LPDDR5X内存,确保了极高的数据吞吐量,实际Super和苹果系列芯片一样,就是将两片X放进一个封装里,但短期内预计不会量产投放。


Thor也有多个版本,目前已知的有5个:①Thor-Super,2000T算力;②Thor-X,1000T 算力;③Thor-S,700T 算力;④Thor-U,500T 算力;⑤Thor-Z,300T 算力。联想全球第一个Thor中央计算单元计划采用双Thor-X。


来源:佐思汽研《2025年汽车存储芯片产业及对大模型影响研究报告》


美光9600MTPS 的LPDDR5X已经有样片,主要面向移动端,但还没车规级产品。三星的 LPDDR5X 新品K3KL9L90DM-MHCU,可用于PC、服务器、汽车以及新兴的端侧AI应用,比前代快1.25倍、功耗效率提升25%,最高工作温度105℃,2025年初量产,单片8GB,x32总线,使用8片,共64GB。


随着 LPDDR5X 逐步迈入 9600Mbps 甚至 10Gbps 时代,JEDEC 已启动下一代 LPDDR6 的标准制定。面向 6G 通信、L4 自动驾驶、沉浸式 AR/VR 场景。LPDDR6作为下一代内存技术,预计速率将突破10.7Gbps,甚至最高可能达到14.4Gbps,带宽和能效均有提升,比现在使用的LPDDR5X提升了50%。然而,大规模量产LPDDR6内存可能还需要等到2026年,高通的下一代旗舰芯片骁龙8 Elite Gen 2(代号SM8850)将支持LPDDR6。车规级LPDDR6则可能更为久远。


域控计算平台LPDDR演进(标准传输速率)

来源:佐思汽研《2025年汽车存储芯片产业及对大模型影响研究报告》


  • DRAM存储芯片选择路径(2):GDDR6虽已上车,但面临成本与能耗的问题,下一代GDDR7 LPDDR5X的混合存储架构或有可为


除了LPDDR5X,另一条路径则是选择GDDR6或GDDR7,特斯拉第二代FSD芯片就支持第一代GDDR6,HW4.0上的GDDR6容量为32GB,型号为MT61M512M32KPA-14,频率1750MHz(LPDDR5最低也是3200MHz之上),由于是第一代GDDR6,速度较低。即使用了GDDR6,要流畅运行百亿级别的大模型,还是无法实现,不过已经是目前最好的了。


特斯拉的第三代FSD芯片应该正在开发中,可能2025年底可以完成开发,至少支持GDDR6X。


而再下一代的GDDR7正式标准在2024年3月公布,三星在2023年7月就发布了全球首款GDDR7,目前SK 海力士和美光也都有GDRR7产品推出。GDDR需要特殊的物理层和控制器,芯片必须内置GDDR的物理层和控制器才能用上GDDR,Rambus和新思科技都有相关IP出售。


来源:SK海力士


未来自动驾驶芯片可能采用混合存储架构,例如用GDDR7处理高负载AI任务,而LPDDR5X负责低功耗常规运算,以平衡性能与成本。


  • DRAM存储芯片选择路径(3):HBM2E已部署到L4 级Robotaxi,但距离量产乘用车仍有较远距离,存储芯片厂商正推动HBM从数据中心向端侧技术迁移


HBM主要用于服务器领域,将SDRAM用TSV工艺堆叠起来,增加的成本不仅仅是内存本身,还有台积电CoWoS工艺的成本,CoWoS目前产能紧张,价格高昂。HBM存储价格远远高于量产乘用车常用的 LPDDR5X、LPDDR5、LPDDR4X等,不具备经济性。


SK 海力士的HBM2E正用于Waymo 的L4 级Robotaxi,且是独家供应商,容量高达8GB,传输速度达到3.2Gbps,实现了惊人的410GB/s带宽,为行业树立了新标杆。


SK 海力士是目前市场上唯一一家能提供符合严苛AEC-Q车规标准的HBM芯片制造商。SK 海力士正积极与NVIDIA、Tesla等自动驾驶领域解决方案巨头的合作,将HBM的应用从AI数据中心拓展到智能汽车市场。


来源:佐思汽研《2025年汽车存储芯片产业及对大模型影响研究报告》


SK 海力士和三星都正在将HBM从数据中心向手机、汽车等端侧应用迁移,HBM在移动设备领域的渗透将围绕端侧AI性能提升和低功耗设计展开,技术创新与产业链协同是关键驱动力,成本与良率仍是短期主要挑战,主要涉及到HBM生产工艺改良。


  • 核心差异:传统数据中心HBM是为高性能计算设计的“大带宽、高功耗”方案;而端侧HBM是为移动端定制的“中带宽、低功耗”解决方案。

  • 技术路径:传统数据中心HBM依赖TSV和中介层;而端侧HBM则通过封装创新(如垂直引线键合)和低功耗DRAM技术实现性能突破。


以三星为例,采用类似技术的产品LPW DRAM(LP Wide I/O DRAM),其具备低延迟和高达128GB/s的带宽性能,同时能耗仅为1.2pJ/b,计划于2025-2026年实现商业化量产。


LPW DRAM通过堆叠LPDDR DRAM,大幅提升了I/O接口的数量,以达到提高性能和减少能耗的双重目标。其带宽可达200GB/s以上,较现有的LPDDR5X提升了166%;同时其功耗降至1.9pJ/bit,比LPDDR5X低54%。


来源:三星


UFS3.1已大规模上车,将逐渐迭代至UFS4.0、UFS5.0,同时PCIe SSD将成为L3/L4高级别自动驾驶汽车的首选



目前,高阶自动驾驶汽车已将UFS 3.1存储作为主流选择,随着车载传感器、算力的不断提升,更高规格的数据传输方案势在必行,UFS 4.0产品将成为未来主流的选择之一。UFS 3.1版本最高2.9GB/s,与SSD有几十倍的差距,下一代4.0版本4.2GB/s,UFS 4.0相较于UFS 3.1,在速度上有所提升,功耗降低30%;预计到2027年会有5.0版本,估计达到10GB/s,跟SSD还是差距明显,但好在成本可控,供应链稳定。


考虑到大模型无论在座舱还是智能驾驶都有强烈需求,且为了留出足够的性能余量,更应该采用SSD,目前主流的UFS不够快,eMMC就更慢了。车规级SSD采用的是PCIe标准,PCIe的弹性空间极大,潜力巨大。JESD312确定的是PCIe 4.0标准,实际其包含多个速率,4通道是最低的PCIe 4.0标准,16通道双工可以到64GB/s,而PCIe 5.0标准已于2019年发布了,PCIe5.0将信号速率翻倍到了32GT/s,x16双工带宽更是接近128GB/s。


目前,美光和三星都有车规级SSD,三星是AM9C1系列,128GB到1TB都有。美光则推出了4150AT系列,4150AT系列有220GB、440GB、900GB和1800GB四种,其中220GB级别用于单独的座舱或智能驾驶,舱驾一体至少要用440GB。


多端口BGA SSD可以作为汽车中央存储计算单元,通过各端口与座舱、ADAS、网关等SoC连接,高效处理并存储不同数据到所需区域。其独立性优势确保非核心SoC无法未授权访问核心数据,避免影响、识别、销毁核心SoC的数据,这将最大的保证对数据传输的阻并发性和数据独立性,并降低各个SoC对于车用存储的硬件成本。


来源:得一微


对于再往后的L3/L4级高级别自动驾驶汽车,PCIe 5.0 x4   NVMe 2.0 将是高性能存储的首选:


  • 超高速传输:读取速度高达 145GB/s,写入速度达 13.6GB/s,是 UFS 4.0 的 3 倍

  • 低延迟 & 高并发:支持更高队列深度(QD32 ),并行处理多个数据流

  • AI 计算优化:与车载 SoC 结合,可加速 AI 推理计算,满足全自动驾驶需求


在自动驾驶应用中,PCIe NVMe SSD 可用于缓存 AI 计算数据,减少内存访问压力,提高实时处理能力。例如,Tesla FSD 系统就采用高速 NVMe 方案存储自动驾驶训练数据,以提高感知和决策效率。


目前,新思科技(Synopsys)已推出了全球首款汽车级PCIe 5.0 IP解决方案,囊括了PCIe控制器、安全模块、物理层设备(PHY)以及验证IP,并遵循ISO 26262和ISO/SAE 21434标准。这意味着PCIe 5.0将很快进入车规应用。



股票复盘网
当前版本:V3.0