分类: 行业动态

  • 2026年具身智能产业元年:万亿市场蓄势待发

    2026年具身智能产业元年:万亿市场蓄势待发

    引言

    2026年4月,一则重磅消息在科技圈引发震动:工信部批准发布了具身智能领域的首份国家级测试标准——《YD/T 6770—2026 人工智能 关键基础技术 具身智能基准测试方法》

    这份将于6月1日正式实施的标准,从环境、任务、能力、考核、安全伦理五大核心维度,构建了覆盖全链路的产业级验证体系。这意味着什么?

    意味着具身智能从一个”前沿概念”,正式成为一个”有标准可依”的产业。

    与此同时,智元机器人宣布第10000台通用具身机器人下线,从千台到万台的突破仅用时3个多月,量产速度创全球纪录。深圳接连诞生四家百亿估值”独角兽”……

    种种迹象表明:2026年,具身智能正在从实验室走向工厂,从概念走向现实。

    具身智能产业链全景配图 - 展示三层结构:顶层为人形机器人多场景应用(工厂、家庭、特种作业),中层为核心零部件(减速器、传感器、执行器),底层为市场数据可视化及"1万亿元"市场规模预测

    一、什么是具身智能

    1.1 具身智能的定义

    具身智能(Embodied AI),简单来说,就是有物理载体的智能系统。与纯软件AI不同,具身智能的”大脑”需要与”身体”结合,通过与物理世界的交互来积累知识和技能。

    具身智能的核心要素包括:

    • 本体:实际的执行者,在物理或虚拟世界负责感知和执行任务
    • 智能体:具身于本体之上的智能核心,负责感知、理解、决策、控制

    打个比方:如果把AI比作大脑,具身智能就是”大脑+身体”。它不仅能思考,还能行动。

    1.2 为什么具身智能是AI的”终极形态”

    业界普遍认为,具身智能是人工智能发展的最高层次。

    原因在于:真实世界的复杂性,远超虚拟环境。只有在物理世界中摸爬滚打,AI才能真正理解和适应人类社会的运行规则。

    正如特斯拉CEO马斯克所说:”如果汽车是’长了腿的机器人’,那机器人就是’长了腿的汽车’。它们的底层技术是相通的。”

    二、政策红利:国家层面的战略布局

    2.1 首份国家级标准的意义

    2026年4月,工信部发布的这份具身智能测试标准,具有里程碑意义。

    这份标准解决了三个核心问题:

    第一,评估有依据。 此前,具身智能产品的性能评估缺乏统一标准,各家自说自话。标准的出台,让评估有据可循。

    第二,准入有门槛。 标准设定了基本的技术指标要求,有助于筛选出真正具备实力的企业,淘汰投机者。

    第三,发展有方向。 标准从五大维度构建体系,引导企业聚焦关键能力,避免盲目发展。

    2.2 政策支持持续加码

    具身智能的政策支持,呈现加速和深化态势:

    • 2025年:具身智能首次写入政府工作报告
    • 2026年:列入”十五五”规划及政府工作报告的未来产业核心赛道
    • 配套政策:首个国家级标准体系与创新的风险分担机制

    整体来看,政策旨在通过标准规范、场景开放与金融支持”三管齐下”,推动行业从技术验证迈入规模化应用。

    三、市场数据:资本蜂拥而至

    3.1 融资规模爆发

    根据中国信通院联合清华大学电子工程系发布的《具身智能发展报告(2025年)》:

    • 截至2025年底,我国在具身智能和机器人领域的投资事件共计744起
    • 融资总额达735.43亿元
    • 2026年开年以来,仅深圳就接连诞生自变量机器人、智平方、帕西尼感知、众擎机器人四家百亿估值”独角兽”

    一级市场投融资的井喷,通常领先二级市场6至18个月。当前一级市场的高热度,正在向二级市场传导。

    3.2 产业规模预测

    年份具身智能市场规模人形机器人市场规模自动驾驶市场规模
    20248700亿元4800亿元3900亿元
    20259731亿元5229亿元4502亿元
    2026(预测)超1万亿元

    预计到2030年,投资规模有望跃升至4000亿元量级

    3.3 区域分布格局

    从区域分布来看,融资高度集中:

    • 长三角:43%
    • 珠三角:29%
    • 京津冀:14%

    三地合计占据全国86%的具身智能融资。核心逻辑是产业、技术、资本、场景的高度协同。

    四、产业链图谱:从”大脑”到”小脑”

    4.1 上游:核心零部件

    具身智能产业链的最上游,是核心零部件环节。这也是目前投资最火热的领域。

    减速器:人形机器人关节的核心部件,影响运动精度和负载能力。绿的谐波、国茂股份等企业已实现技术突破。

    传感器:包括视觉传感器、力传感器、触觉传感器等。速腾聚创2026年第一季度机器人业务销量达18.55万台,同比大增1458.8%,首次超过车载激光雷达业务。

    丝杠:线性执行器的核心部件。震裕科技的反向式行星滚柱丝杠已实现对国内主流机器人本体的批量供货。

    这些环节有一个共同特点:价值量大、技术壁垒高、国产替代空间大。

    4.2 中游:整机制造

    中游是整机厂商,负责将零部件组装成完整的人形机器人。

    代表企业

    • 特斯拉Optimus:全球最受关注的人形机器人项目
    • 小米CyberOne:已在汽车工厂进行量产线测试
    • 智元机器人:2026年3月宣布万台量产下线
    • 宇树科技:四足机器人起家,产品已多次迭代
    • 傅利叶智能:康复机器人出身,技术积累扎实

    4.3 下游:应用场景

    具身智能的应用场景主要包括三大类:

    工业场景:汽车制造、电子组装、物流搬运。工业场景的特点是环境固定、任务可拆解,是人形机器人落地的”第一站”。

    服务场景:酒店、餐饮、医疗护理。服务场景的复杂度更高,但对人形机器人的需求也更迫切(人口老龄化带来的劳动力缺口)。

    特种场景:危险环境作业、灾难救援、深海探测。特种场景是人类难以直接工作的领域,机器人可以发挥独特优势。

    五、商业化进展:从0到1的突破

    5.1 量产速度纪录

    2026年3月28日,智元机器人宣布第10000台通用具身机器人”远征A3″正式下线。

    从千台到万台,智元仅用了3个多月,量产速度创全球纪录。

    智元的快速量产,得益于几个因素:

    • 模块化设计:核心零部件标准化,降低组装难度
    • 供应链整合:与上游零部件厂商深度合作
    • 场景聚焦:优先攻克工业场景,需求明确

    5.2 工厂落地案例

    小米CyberOne:2026年3月进入北京亦庄小米汽车工厂量产线实习,连续3小时自主运行,双侧安装成功率90.2%,匹配76秒生产节拍。

    Figure 01:在宝马工厂进行试点,成功率约85%,正在进行第二批部署。

    特斯拉Optimus:在得州工厂进行小规模试点,主要承担电池包搬运任务。

    5.3 业绩兑现

    产业链上市公司的业绩开始兑现:

    • 震裕科技:2026年一季度归母净利润预计2.75亿-3.05亿元,同比增长277%-319%。增长得益于人形机器人零部件布局进入收获期。
    • 速腾聚创:2026年第一季度机器人业务销量达18.55万台,同比大增1458.8%,销量占比56.2%,首次超过车载业务。
    • 优必选:2025年年度财报显示,具身智能人形机器人营业收入8.2亿元,同比增长超22倍,销量1079台,已成为公司第一大收入来源。

    六、投资逻辑:如何布局具身智能

    6.1 券商怎么看

    中信证券制造产业首席分析师刘海博认为:

    随着具身智能产业国产新势力资本化加速,板块规模有望持续扩张。建议重点关注精密减速器、传感器、丝杠等价值量大、技术壁垒高的环节,这些环节将受益于国内需求爆发和国产化率提升。

    万联证券高端装备行业首席分析师蔡梓林表示:

    当前人形机器人产业正处于从技术突破迈向规模化商业化的”破晓时刻”。2026年是量产验证与场景落地的关键窗口期,成本控制是规模商业化的重要前提。

    国金证券机械行业首席分析师陈传红指出:

    2026年人形机器人是0-1兑现的重要节点。从供应链角度看,龙头公司的供应链和技术路线都将趋于收敛,建议关注具备大规模量产与质控能力的产业链龙头企业,以及电驱动技术、灵巧手、新材料等结构性增量方向。

    6.2 投资机会梳理

    环节投资逻辑代表企业
    减速器价值量高,国产替代空间大绿的谐波、国茂股份
    传感器感知层核心,受益于机器人放量速腾聚创、坤维科技
    丝杠线性执行器关键零部件震裕科技、贝斯特
    整机技术整合能力强,具备品牌优势小米、智元机器人
    电机运动控制核心步科股份、鸣志电器

    6.3 风险提示

    投资具身智能赛道,需要注意以下风险:

    • 技术路线不确定性:目前行业技术路线尚未收敛,存在方向性风险
    • 量产成本下降不及预期:成本过高会限制规模化应用
    • 商业化场景拓展慢于预期:下游需求释放需要时间
    • 国际竞争加剧:特斯拉等国际巨头发力,竞争格局存在变数

    七、未来展望:从工厂到家庭

    7.1 工业先行

    业界普遍认为,人形机器人的落地路径将是”工业先行、家庭在后“。

    原因在于:

    • 工业场景相对简单,环境可控
    • 工业场景的ROI更容易计算
    • 工业场景对成本敏感度相对较低

    小米创始人雷军预计,未来五年内人形机器人将大面积在小米工厂上岗。而家庭场景则是更长期、更大的市场

    7.2 家庭场景的想象空间

    如果说工业场景是”千亿级”市场,家庭场景就是”万亿级”市场。

    想象一下未来的家庭:

    • 早晨,人形机器人帮你做早餐
    • 白天,帮你收拾房间、洗碗、倒垃圾
    • 晚上,帮你照顾老人、看护孩子
    • 周末,陪你去超市购物、帮你搬东西

    这些场景听起来像科幻,但正在一步步成为现实。

    7.3 2026年展望

    对于2026年的具身智能产业,可以期待几个重要节点:

    • 标准落地:6月1日,首份国家级测试标准正式实施
    • 更多量产:智元、小米、特斯拉的量产计划持续推进
    • 技术迭代:VLA大模型、触觉传感器、灵巧手等技术持续突破
    • 政策加码:预计更多地方政府出台支持政策

    结语

    从744起融资事件、735亿元融资总额,到首份国家级行业标准发布,再到万台量产下线……

    2026年,具身智能正在从”技术比拚”转向”规模量产与商用部署”的竞争新阶段。

    这个万亿级市场的大门,已经缓缓打开。

    对于从业者来说,这是历史性的机遇。具备核心技术壁垒和规模化交付能力的头部企业,将率先享受产业红利。

    对于投资者来说,这是需要耐心和时间的新赛道。但一旦跑通,回报也将是惊人的。

    对于普通人来说,人形机器人正在从科幻走进现实。也许用不了多久,你的工厂同事、你的家庭助手,就会是一个机器人。

    具身智能的元年,来了。

    附录:具身智能大事记

    • 2020年:OpenAI发布ChatGPT-3,具身智能开启智能化发展周期
    • 2021年:特斯拉宣布进军人形机器人
    • 2022年:特斯拉发布Optimus原型机;小米推出CyberOne
    • 2023-2025年:傅利叶智能、智元机器人、宇树科技等国产企业快速崛起
    • 2025年:具身智能首次写入政府工作报告
    • 2026年4月:工信部发布首份国家级测试标准
    • 2026年3月:智元机器人万台量产下线
    • 2026年6月(预计):首份国家级测试标准正式实施

    本文数据来源:中国信通院、清华大学电子工程系《具身智能发展报告(2025年)》、各公司官方公告及财报、Wind数据

  • 百度石清华:汽车进入全量推理时代,2028推理算力占73%

    百度石清华:汽车进入全量推理时代,2028推理算力占73%

    SEO关键字:百度,石清华,全量推理时代,智能座舱,AI推理,算力需求,自动驾驶,智能汽车,百度昆仑芯,汽车AI

    一、百度石清华核心判断:汽车进入「全量推理时代」

    1.1 什么是「全量推理时代」?

    在4月11日的智能电动汽车发展高层论坛上,百度副总裁石清华提出重要判断:AI算力的重心正在完成从训练侧到推理侧的历史性迁移,汽车行业正加速冲进“全量推理时代”,这一变革将重塑汽车行业的算力格局。

    要理解百度石清华的这一判断,首先需要区分AI“训练”与“推理”两个核心环节:

    • 训练(Training):让AI模型学习数据、优化参数的过程,属于研发阶段的一次性算力投入,是全量推理时代的基础。
    • 推理(Inference):将训练好的模型部署到实际场景中,根据新数据进行实时计算的过程,是全量推理时代的核心,算力需求持续不断。

    百度石清华指出,过去AI算力的主角是训练侧,全球科技公司争相建设超算中心、囤积GPU,都是为了训练出更强大的AI模型。但从2026年开始,推理侧的算力需求正在爆发式增长,未来将占据总算力需求的80%以上,正式迈入全量推理时代。

    1.2 全量推理时代的三重驱动力

    百度石清华强调,汽车行业进入全量推理时代,核心推力来自三个维度,共同推动推理算力需求爆发:

    • 第一,企业内部智能化。车企的研发、制造、营销全链条正在被AI重构,从设计仿真到质量检测,从供应链管理到客户服务,每个环节都在产生海量的推理算力需求,成为全量推理时代的重要支撑。
    • 第二,软件开发范式变革。2026年,“氛围编程”(Vibe Coding)成为主流——只需用自然语言描述需求,AI就能自动生成代码。AI正在重新定义软件开发本身,门槛降低的同时,软件开发的算力消耗大幅增加,进一步拉动推理算力需求。
    • 第三,智能座舱的爆发。智能座舱成为全量推理时代,推理需求触达用户的前沿阵地。AI实时生成的个性化交互界面、多模态感知与推理、语音助手和数字管家——这些功能每时每刻都在消耗推理算力,且随用户使用时长增加而持续增长。

    二、数据验证:全量推理时代,推理算力爆发式增长

    2.1 推理算力占比的跃升

    百度石清华在论坛上分享了一组核心数据,直观印证了全量推理时代下,推理算力的爆发式增长:

    • 2026年:推理带来的算力增量占比已达三分之二,全量推理时代的特征初步显现
    • 未来趋势:推理算力占比将突破80%,成为全量推理时代的核心标志
    • 2028年预测:汽车领域推理算力占总算力需求的比例将升至73%,全量推理时代全面深化
    • 对比基准:2023年,这一数字仅为约三分之一,短短五年实现翻倍增长

    从三分之一到73%,推理算力占比的跃升幅度惊人。这意味着,未来五年内,汽车行业对推理算力的需求将增长超过两倍,全量推理时代的算力革命已全面开启。

    2.2 AI大模型调用的全球数据

    从更宏观的视角看,全球AI大模型的调用量快速增长,进一步印证了全量推理时代的到来,这也是百度石清华判断的重要依据:

    • 2026年4月初,全球AI大模型总调用量达27万亿Token
    • 环比增长18.9%,保持高速增长态势
    • 其中,中国AI大模型周调用量达12.96万亿Token
    • 环比增幅超过30%,增速远超全球平均水平

    中国AI大模型周调用量占全球的近一半,且增速更快。这反映出中国在AI应用落地方面的活跃度,也意味着中国汽车市场对推理算力的需求更加迫切,全量推理时代的落地节奏将领先全球。

    2.3 全量推理时代的核心特征

    百度石清华指出,相比训练时代,全量推理时代有三个显著特征,决定了行业的发展方向:

    • 持续性:训练是一次性工作,推理是持续性工作。每一次用户交互、每一次自动驾驶决策,都需要消耗推理算力,这是全量推理时代最核心的特征。
    • 实时性:推理对延迟敏感,特别是在自动驾驶场景下,算力必须“随叫随到”,无法像训练那样“批量处理”,这对全量推理时代的算力基础设施提出了更高要求。
    • 碎片化:训练可以集中在大规模数据中心完成,推理则分布在云端、边缘端、车端等多个位置,需要灵活的算力调度能力适配全量推理时代的需求。

    这些特征决定了全量推理时代的算力基础设施,必须更加灵活、高效、低成本,这也是百度布局的核心方向。

    三、行业挑战:全量推理时代,车企面临的现实悖论

    3.1 传统成本逻辑的困境

    百度石清华指出了当前行业面临的一个现实悖论:车企长期依赖BOM(Bill of Materials,整车零部件成本)核算体系,零部件装车后便无额外支出,但座舱AI推理的费用会随用户使用量持续走高,与全量推理时代的算力需求相悖。

    按照传统固定成本逻辑,车企会陷入一个尴尬处境:功能越受欢迎,企业亏损越多。

    举例来说:如果一款智能座舱产品,用户平均每天使用AI助手1小时,车企需要为这1小时的推理算力付费。用户越多、使用越频繁,算力成本就越高。如果不收费,车企就是在持续“烧钱”;如果收费,又面临用户流失的风险,这成为全量推理时代车企的核心困境。

    3.2 全量推理时代的商业模式重构

    百度石清华强调,面对全量推理时代的变革,企业必须转变认知:将算力视为支撑用户体验和业务流的核心生产资源,而非一次性采购的零部件。

    这意味着商业模式的根本转变,适配全量推理时代的发展需求:

    • 从“卖硬件”到“卖服务”:将座舱AI能力包装为订阅服务,用户按需付费,匹配全量推理时代的持续性算力成本。
    • 从“成本中心”到“利润中心”:AI能力不再是补贴项,而是独立的盈利项,实现全量推理时代的商业可持续。
    • 从“功能堆砌”到“价值交付”:关注AI能力为用户创造的真实价值,而非功能的数量,贴合全量推理时代的用户需求。

    3.3 数据资产:全量推理时代的战略核心

    百度石清华指出,在全量推理时代的变革中,数据成为最核心的资产。他建议车企:构建高质量数据集、梳理业务逻辑,为AI应用储备核心数据资源,抢占全量推理时代的先机。

    数据对于全量推理时代的核心价值体现在:

    • 高质量数据训练出更精准的模型,提升推理效率,降低全量推理时代的算力成本。
    • 海量用户数据支撑模型的持续迭代优化,适配全量推理时代的场景升级。
    • 垂直场景数据构建差异化竞争优势,在全量推理时代脱颖而出。

    但数据的采集、清洗、标注、存储都需要投入,如何平衡数据投入与产出,是全量推理时代车企需要重点思考的问题。

    四、百度石清华建议:全量推理时代,车企三点布局指南

    4.1 储算力:用国产算力承接全量推理需求

    面对全量推理时代快速增长的推理需求,百度石清华给车企的第一个建议是:储算力,用国产算力承接快速增长的推理需求,保障算力供应安全。

    这里的“储”有两层含义,适配全量推理时代的算力需求:

    • 一是储备算力资源。与算力供应商建立长期合作关系,确保在全量推理时代的需求高峰时有足够的算力可用,避免算力短缺影响用户体验。
    • 二是采用国产算力。在当前国际形势下,算力的自主可控变得尤为重要。百度昆仑芯等国产AI芯片正在快速成熟,可以作为算力供应的重要补充,支撑全量推理时代的需求落地。

    4.2 建平台:搭建大模型平台,筑牢全量推理基础

    百度石清华给出的第二个建议是:建平台,尽早搭建大模型平台,为全量推理时代的场景落地筑牢基础,提升算力利用效率。

    大模型平台在全量推理时代的核心价值在于:

    • 统一管理:统一管理企业内的AI模型资产,避免重复建设,降低全量推理时代的运营成本。
    • 灵活调度:根据不同场景的需求,动态调度算力资源,适配全量推理时代碎片化的算力需求。
    • 快速迭代:支持模型的持续训练和更新,保持模型竞争力,跟上全量推理时代的技术迭代节奏。

    对于车企而言,大模型平台不仅是技术底座,更是全量推理时代数字化转型的核心引擎。

    4.3 治数据:构建高质量数据集,支撑全量推理

    百度石清华给出的第三个建议是:治数据,构建高质量数据集、梳理业务逻辑,为全量推理时代的AI应用储备核心数据资源,发挥数据的核心价值。

    全量推理时代的数据治理是一项系统工程,具体包括:

    • 数据采集:建立标准化的数据采集体系,覆盖研发、生产、销售、售后全链条,为全量推理提供充足数据支撑。
    • 数据清洗:剔除噪音、修正错误、补充缺失,提升数据质量,保障全量推理的准确性。
    • 数据标注:针对特定任务需求,进行结构化标注,适配全量推理时代的场景化需求。
    • 数据安全:建立完善的数据安全机制,确保合规使用,守护全量推理时代的核心资产。

    五、百度布局:全量推理时代的“算力基础设施”

    5.1 昆仑芯M100:全量推理时代的专用推理芯片

    针对全量推理时代的需求落地支撑,百度已在布局相关技术产品。百度石清华透露,百度计划发布昆仑芯M100专用推理芯片,适配汽车行业的全量推理需求。

    昆仑芯M100是百度自研的AI推理芯片,相比通用GPU,在全量推理时代的特定推理场景下具有更高的能效比和更低的成本。其设计目标是:为自动驾驶与智能座舱提供高效、低成本的专属推理底座,助力车企应对全量推理时代的算力挑战。

    从公开信息看,昆仑芯M100预计将采用先进的封装工艺,在保证算力的同时优化功耗和成本。这对于成本敏感的智能汽车市场尤为重要,也是百度布局全量推理时代的核心硬件支撑。

    5.2 天池超节点:全量推理时代的云端推理基础设施

    在云端推理方面,百度已推出天池超节点产品,作为全量推理时代的云端算力支撑,完善全量推理的算力布局。

    天池超节点是面向大规模AI推理任务的高性能计算集群,适配全量推理时代的核心需求,具备以下特点:

    • 高密度算力:单节点支持大规模并行推理任务,满足全量推理时代的算力爆发需求。
    • 低延迟网络:高速互联网络确保数据传输效率,匹配全量推理时代的实时性要求。
    • 弹性扩展:根据需求动态调整算力资源,适配全量推理时代碎片化的算力分布。
    • 软硬一体:深度优化的推理框架和硬件协同,提升全量推理时代的算力利用效率。

    天池超节点与昆仑芯的组合,形成了百度在AI推理领域的端到端布局:从芯片到云服务,从硬件到软件,为车企提供完整的全量推理解决方案。

    5.3 整合策略:硬件+芯片+算力网络,构建全量推理底座

    百度石清华透露,百度的核心策略是整合硬件、芯片与算力网络,打造高效低成本的专属推理底座,助力车企快速进入全量推理时代。

    这种整合策略在全量推理时代的优势在于:

    • 垂直优化:从芯片到应用的全链路优化,消除性能瓶颈,提升全量推理效率。
    • 成本可控:自研芯片降低成本,摆脱对国外芯片的依赖,适配全量推理时代的长期发展。
    • 供应安全:自主可控的供应链,降低外部风险,保障全量推理时代的算力稳定供应。

    六、行业影响:全量推理时代,谁将受益?

    6.1 芯片厂商:全量推理时代的核心受益者

    百度石清华分析,全量推理时代的到来,对芯片厂商而言既是机遇也是挑战:

    • 机遇:推理芯片需求爆发,市场空间扩大,尤其是适配全量推理场景的专用芯片,将迎来爆发式增长。
    • 挑战:需要针对全量推理场景进行专门优化,而非简单堆砌算力,考验芯片厂商的场景适配能力。

    具备推理优化能力的芯片厂商,如百度昆仑芯、英伟达等,将在全量推理时代获得更多机会。

    6.2 云服务商:全量推理时代的新增长点

    云端推理需求的高速增长,为云服务商带来了新的增长点,也是全量推理时代的重要受益者。百度智能云、阿里云、腾讯云等都在积极布局AI推理服务,抢占全量推理市场。

    特别是针对智能汽车场景的专属云服务,如车路协同云、OTA升级云等,都需要强大的推理能力支撑,成为全量推理时代云服务商的核心发力方向。

    6.3 车企:全量推理时代的转型压力与机遇

    对于车企而言,全量推理时代意味着转型压力,也蕴含着发展机遇:

    • 算力管理能力:从“买硬件”到“管算力”,需要建立专业的算力管理团队,适配全量推理时代的算力需求。
    • 数据运营能力:从“积累数据”到“运营数据”,需要建立数据驱动的运营体系,发挥全量推理时代的数据价值。
    • 商业模式创新:从“卖车”到“卖服务”,需要探索可持续的商业模式,实现全量推理时代的商业盈利。

    那些能够率先完成转型的车企,将在全量推理时代的竞争中占据先机。

    七、总结与展望:全量推理时代,汽车行业的下一个十年

    百度石清华在论坛上的分享,为我们勾勒出了智能汽车发展的下一个主战场:全量推理时代。这一时代的到来,将彻底改变汽车行业的算力格局、商业模式和竞争逻辑。

    全量推理时代的核心特征是:推理算力需求爆发式增长、AI应用持续渗透、商业模式亟待重构。对于车企而言,这既是挑战也是机遇,唯有主动拥抱变革,才能在全量推理时代立足。

    百度作为AI领域的深耕者,正在通过昆仑芯、天池超节点等产品,以及大模型平台能力,为车企提供走向全量推理时代的“基础设施”,助力行业快速转型。

    但最终,谁能在这场全量推理时代的算力革命中脱颖而出,还要看谁能更好地理解用户需求、创新商业模式、优化产品体验。

    全量推理时代的大幕已经拉开,汽车行业的下一个十年,将由此书写,而百度石清华的判断,也将成为行业转型的重要指引。

  • Meta砸210亿美元锁定CoreWeave算力至2032年:AI军备竞赛进入”长期协议”时代

    Meta砸210亿美元锁定CoreWeave算力至2032年:AI军备竞赛进入”长期协议”时代

    一、210亿美元背后的战略逻辑

    2026年4月9日,Meta Platforms宣布向云计算服务商CoreWeave追加210亿美元投资,将双方的合作协议延长至2032年12月。这笔交易不仅是Meta历史上最大的AI基础设施投资之一,更揭示了当前AI竞争格局中的关键趋势。

    CoreWeave是什么来头?成立于2017年的这家公司,是当前全球最大的GPU云计算服务商之一,专门提供基于英伟达芯片的高性能计算服务。与传统云服务商不同,CoreWeave几乎全部押注于AI场景,其数据中心从设计之初就针对大模型训练和推理进行了优化。

    Meta为何愿意投入如此巨资锁定CoreWeave?答案在于AI基础设施的稀缺性和战略性。

    二、稀缺性驱动:从”买产品”到”锁资源”

    英伟达H100和H200 GPU的交付周期,在2024年一度长达11个月。即便是财大气粗的科技巨头,也难以获得足够的GPU资源来支撑野心勃勃的AI计划。这种背景下,锁定算力资源的能力就成为核心竞争力。

    Meta与CoreWeave的合作可追溯至2023年。当时Meta正处于Llama大模型的关键研发期,急需大量GPU算力支撑训练任务。CoreWeave作为中立云服务商,能够在英伟达分配产能时获得相对稳定的供货,这让双方的合作一拍即合。

    此次210亿美元的投资,本质上是Meta将这种合作关系制度化、长期化。协议期限延伸至2032年,意味着Meta在未来7年内都可以优先使用CoreWeave的GPU集群。这比任何自建数据中心的规划都更为高效——建设周期长、资金占用大、技术迭代快,自建方案的综合成本远高于锁定优质供应商。

    三、分布式架构:CoreWeave的独特优势

    与亚马逊AWS、微软Azure等综合云服务商不同,CoreWeave采用了”分布式优先”的策略。其GPU集群分布在美国多个地点,而非集中在少数几个超大规模数据中心。这种架构设计有几个关键优势:

    就近服务:AI模型的训练和推理可以在地理上更接近用户群体,减少延迟。分布式部署意味着可以为不同地区的业务提供差异化的性能保障。

    弹性扩展:当某个地点的算力需求激增时,Workload可以灵活调度至其他地点。这种弹性能力对于波动性较大的AI训练任务尤为重要。

    成本优化:分布式小型集群的单比特成本可能高于集中式大型数据中心,但如果考虑到电力成本、土地成本、网络成本等因素的综合影响,前者在特定场景下反而更具经济性。

    根据协议内容,Meta在CoreWeave的专属算力将包含英伟达Vera Rubin平台的初期部署。Vera Rubin是英伟达的下一代GPU架构,预计将在2026-2027年实现量产。CoreWeave能够获得Rubin平台的早期使用权,本身就说明了双方合作的深度和战略价值。

    四、CoreWeave的IPO预期:资本市场的新宠

    CoreWeave正处于上市准备阶段。2024年,这家公司的估值已突破百亿美元,成为AI基础设施赛道的明星独角兽。Meta此时追加投资并锁定长期协议,对CoreWeave的IPO估值将产生重要影响。

    消息发布后,CoreWeave美股盘前涨幅扩大至8%,这一市场反应说明投资者对这笔交易的认可。Meta的背书不仅带来了资金承诺,更带来了长期稳定的业务来源——210亿美元的合作金额,即使分散到7年执行,也将贡献CoreWeave相当比例的营收。

    CoreWeave联合创始人Michael Intrator在声明中表示:”这再次证明领先企业正选择CoreWeave的AI云来运行最苛刻的工作负载,也凸显出市场对支撑大规模复杂AI工作负载的高性能基础设施需求正在加速增长。”

    五、AI军备竞赛的新阶段:从追赶到锁定

    Meta的这笔投资,折射出AI基础设施竞争正在进入一个新阶段。

    第一阶段(2020-2023):追赶期。科技巨头意识到AI的战略重要性后,开始疯狂抢购GPU。无论是自建数据中心还是采购云服务,核心诉求是”获得足够的算力”。这一阶段的竞争相对粗放,谁能抢先获得H100谁就占据优势。

    第二阶段(2023-2025):争夺期。GPU供应紧张加剧,科技巨头开始与云服务商建立战略合作。微软投资OpenAI、谷歌支持Anthropic、亚马逊押注Anthropic和Mistral——这些合作背后都是算力分配的博弈。

    第三阶段(2025-至今):锁定期。当优质算力资源成为稀缺品后,科技巨头开始通过长期协议锁定供应。Meta与CoreWeave的合作是这一趋势的典型代表。可以预见,未来将有更多类似的”超长期合作协议”出现。

    六、生态影响:谁受益谁受损

    Meta-CoreWeave联盟的建立,将对整个AI生态产生连锁反应。

    CoreWeave受益明显:获得Meta的长期承诺后,CoreWeave在融资和IPO估值上将获得更大的话语权。同时,Meta的技术需求将推动CoreWeave在基础设施方面的持续投入,形成正向循环。

    英伟达间接获益:CoreWeave的GPU主要采购自英伟达,Meta的算力投资最终将转化为英伟达的订单。尽管英伟达可能希望其客户群体更加多元化,但大客户的稳定需求对供应链管理是有利的。

    微软、AWS面临压力:这两家综合云服务商也在争夺AI算力市场。当Meta这样的超级大客户将预算锁定在CoreWeave后,它们需要从其他客户那里弥补这一缺口。

    中小AI公司竞争加剧:优质算力资源的稀缺,将让中小型AI创业公司在获取训练资源时面临更大挑战。它们可能不得不转向成本更高但供应更灵活的方案,或者在模型效率上进行更多创新来弥补算力劣势。

    七、算力政治的隐忧

    当我们审视这场算力军备竞赛时,一个不容忽视的问题是地缘政治风险。

    AI算力基础设施的高度集中,正在成为新的战略资源。CoreWeave、AWS、Azure、Google Cloud四大云服务商控制了全球绝大部分GPU算力。当这些资源的分配与地缘政治因素交织时,将产生复杂的政策博弈。

    美国政府在2023年对华芯片出口管制已经说明,算力资源可以成为大国博弈的工具。Meta锁定CoreWeave的举动,虽然是商业行为,但在宏观层面将进一步强化美国在AI基础设施领域的优势地位。

    对于欧洲、日本等其他发达经济体而言,这种趋势敲响了警钟。当算力资源被少数巨头通过长期协议锁定后,其他国家想要发展独立的AI能力将面临更高的门槛。

    八、展望:2032年的AI基础设施图景

    以2032年为时间节点,我们可以尝试勾勒AI基础设施的可能形态:

    算力供给多元化:除了传统的GPU集群,定制化ASIC(如谷歌TPU、亚马逊Trainium、Meta自研芯片)将占据更大份额。不同类型的AI任务将匹配不同类型的算力芯片。

    云边端协同深化:中心云承载大规模训练和复杂推理任务,边缘云处理实时性和带宽敏感型应用,端侧设备运行轻量级模型。这种分层架构将更加成熟。

    绿色算力成为标配:随着AI能耗问题日益突出,可再生能源驱动的数据中心将从”加分项”变为”必选项”。液冷、浸没式冷却等节能技术将广泛应用。

    算力金融化:当算力资源足够稀缺且战略价值足够高时,可能会出现算力期货、算力期权等金融衍生品。CoreWeave的上市可能是这一趋势的先声。

    结语

    Meta的210亿美元投资,不是终点而是起点。它预示着AI基础设施竞争将进入一个更漫长的马拉松——这场竞赛不仅需要技术的领先,更需要资金的支撑、供应链的把控和战略的耐心。

    当算力成为新的”石油”,锁定资源的能力就成为生死存亡的关键。对于每一个希望在AI时代立足的玩家来说,无论是科技巨头还是创业公司,这个问题都值得认真思考:我们是否已经做好了”长期主义”的准备?