速递 | 微软AI芯片蓝图大调整:从激进到务实,放缓自研脚步

   2025-07-17 kongyu950
核心提示:本文共3065字面对AI芯片开发的复杂性与多重挑战,微软正在对其AI芯片的研发计划进行重大调整。多位知情人士透露,该公司已决定在

本文共3065字

图片

面对AI芯片开发的复杂性与多重挑战,微软正在对其AI芯片的研发计划进行重大调整。

多位知情人士透露,该公司已决定在2028年前采取更为稳健的产品策略,降低设计难度、放缓发布时间,以化解研发过程中暴露出的技术瓶颈与时间延误。

这场调整反映了微软在自研AI芯片上从“敢于对标英伟达”转向“务实突围”的态度转变。

在AI算力竞争白热化的当下,微软不愿错失自主芯片带来的战略价值,却也逐步意识到,年复一年推出完全重新设计的芯片并不现实。

图片


图片

研发延迟引发战略转向


早在2024年,微软推出了其首款面向AI训练和推理的加速芯片——Maia 100,正式迈出挑战英伟达GPU垄断地位的第一步。

Maia 100面世后,微软立即启动了三个后续版本的开发计划,分别代号为Braga、Braga-R和Clea,原计划分别于2025、2026和2027年陆续发布。

然而,事情并未如预期顺利。Braga和Clea采用了完全重新设计的架构,开发难度陡增,进度严重滞后。

尤其是Braga,其设计直到6月才完成,比原定的时间晚了近半年。

这一延误引发微软内部担忧:2026年之后的产品发布时间或将全面推迟,进而影响与英伟达的市场竞争格局。


图片

应对策略:引入“过渡芯片”策略、减少设计复杂度


为稳住节奏,微软决定采取分阶段迭代的策略。一名接近项目的人士透露,微软计划在2027年推出一款代号Maia 280的新芯片,作为Braga和Braga-R之间的“过渡版本”。

Maia 280将在Braga基础上进行模块化组合,通过双芯片封装形式提升计算能力,既可提升性能,又无需从头设计新架构。

这种“用组合替代重构”的方式不仅为工程团队争取了更多时间,也有助于稳定内部预期。

微软希望在性能上仍能与英伟达同期芯片一较高下,微软相信,Maia 280的单位功耗性能将比英伟达2027年的产品高出20%至30%。


图片

战略转向:技术方案转向“芯粒架构”


微软还在逐步引入“芯粒”(chiplet)设计,以应对单芯片复杂度高、良率低的问题。

Braga-R芯片计划于2028年量产,并定名为Maia 400,将采用更先进的封装方式,在芯片尚未封装前就将两个裸晶连接,从而实现更高性能输出。

芯粒架构的优势在于,可以将大芯片划分为多个功能模块,由不同制造商分别生产,再在后期进行组装。

这种方式不仅有助于降低缺陷率,也允许微软将部分模块外包,节省成本。

不过,它在性能一致性方面通常不及“单芯片全集成”的传统架构。

微软此次选择“以组合代替全新设计”,也表明公司高层已意识到:每年从头开始打造一款新芯片,在技术和管理层面都难以持续。

相比之下,原计划2027年推出的Clea芯片如今已被延期至2028年之后,项目前景尚不明朗。

Clea被微软寄予厚望,原本定位为首款在单位能效上能直接与英伟达高端GPU抗衡的产品,但在多重因素影响下,目前该项目暂被边缘化。

此次战略调整不仅影响了微软自身芯片路线图,也波及其合作伙伴。

比如芯片设计公司Marvell,此前受聘协助开发Braga-R的一些模块,对微软的订单寄予厚望。

由于其同时与亚马逊等大型客户展开合作,Marvell股价曾一度走高。

然而,随着多个合作项目被推迟,加上全球经济放缓和地缘政治紧张,该公司今年股价出现回调。


图片

不止于GPU:自研CPU“Cobalt”已初见成效


尽管Maia芯片的开发节奏面临挑战,但微软在CPU领域的自研尝试已经取得阶段性成果。

2024年,微软发布了用于服务器的中央处理器“Cobalt”,作为英特尔和AMD的替代方案。

与复杂的GPU设计相比,CPU架构的研发相对成熟,亚马逊等云巨头也已在该领域实现突破。

Cobalt目前已广泛部署于微软内部系统,用于运行包括Teams在内的通信服务,并对Azure客户开放使用。

据多位消息人士透露,这款CPU已开始为公司带来可观收入。

Cobalt的继任芯片代号为Kingsgate,设计工作已于3月左右完成,同样采用芯粒架构,并引入了更高带宽的内存,以满足未来更复杂的AI任务需求。


图片

微软的芯片野心:摆脱对英伟达的芯片依赖


尽管英伟达仍然在AI芯片市场占据主导地位,但微软希望通过自研芯片逐步摆脱对其的依赖。

据统计,微软每年在英伟达AI芯片上的采购支出达到数十亿美元,成为后者最大客户之一。

英伟达对价格、供应周期的强控制力也让微软意识到,建立自主硬件能力是长期战略中不可或缺的一环。

微软发言人虽未就Maia路线图发表评论,但明确表示,公司将继续在自研硬件方面加大投入,同时保持与外部芯片厂商的紧密合作,以确保能应对未来AI计算需求的激增。

从一开始希望以全新架构每年推陈出新,到如今强调模块化迭代与阶段性成果,微软的芯片战略经历了一次清晰的“降温”。

但这并非后退,而是一种更符合现实的调整。在芯片研发耗资巨大、开发周期冗长的今天,唯有稳中求进、整合资源,才能在AI芯片这条布满荆棘的赛道上走得更远。

未来,其自研芯片能否真正与英伟达分庭抗礼,仍有待时间检验。

附:美国科技巨头AI芯片进展盘点

一、谷歌(Google):TPU系列加速器

谷歌是最早自研AI芯片的科技巨头,其Tensor Processing Unit(TPU)系列是业内最成熟的云端AI加速器之一,自2015年推出以来已经发展到第六代,广泛部署于谷歌数据中心。

▪代表产品与应用方向:谷歌TPU专为AI训练和推理优化,主要支持自家AI模型以及外部客户基于TensorFlow的项目。

TPU被广泛用于搜索优化、语音识别、图像分类、生成模型训练等任务。

▪关键特点:

-采用专门为张量运算优化的矩阵乘法单元,运算密度高;

-支持高带宽内存(HBM),大幅提升数据吞吐;

-可扩展为大规模TPU pod集群,满足数万亿参数大模型训练需求;

-与谷歌Cloud深度集成,具备完整软件栈支持(如JAX、TensorFlow XLA)。

▪商业化进展:TPU目前作为Google Cloud平台的一项核心AI算力产品对外出租,吸引了 Anthropic、Midjourney、Character.AI等大量AI初创公司和企业客户。谷歌内部也广泛使用TPU训练Gemini等大语言模型。

▪研发进度:TPU目前已进入第六代(TPU v5p/v5e)。TPU v5e面向推理场景,性价比更优;TPU v5p则用于大规模模型训练。

谷歌正在开发更高性能的下一代TPU,用以进一步压缩与英伟达H100之间的差距。

二、亚马逊(Amazon):Trainium与Inferentia

亚马逊通过AWS发力AI芯片自研,打造完整的训练和推理芯片组合,以降低AI算力成本并增强平台粘性。

▪代表产品与应用方向:

-Trainium:面向AI模型训练,支持主流框架如PyTorch、TensorFlow;

-Inferentia:面向推理服务,部署于客户应用中以提高响应效率和降低延迟。

二者配合使用可支持从大模型训练到在线推理的完整AI生命周期,广泛应用于语音助手、图像识别、内容推荐等场景。

▪关键特点:

-高能效比设计,运行成本显著低于英伟达GPU;

-与AWS Neuron SDK深度整合,提升开发体验;

-支持BF16、FP16等AI常用精度格式;

-芯粒模块化设计,利于生产控制。

▪商业化进展:Trainium和Inferentia已广泛部署于AWS数据中心,客户包括Stability AI、Runway、Hugging Face等AI公司。

它们已成为AWS生态中的关键组成部分,吸引大量客户将AI工作负载迁移到Amazon云上。

▪研发进度:Inferentia已推出第二代,Trainium 2尚未公开但预计正在研发中。

AWS的策略是以更高性价比和灵活性应对英伟达的硬件限制与高溢价。

三、Meta(Facebook):MTIA系列加速器

Meta近年来加快推进AI芯片研发,目标是提升内部推荐算法、生成模型等AI应用的性能,并降低对外部GPU的依赖。

▪代表产品与应用方向:MTIA(Meta Training and Inference Accelerator):第一代芯片已投入推理任务使用,第二代则扩展到训练任务,服务于广告排序、视频推荐、大模型推理等内部应用。

▪关键特点:

-高度定制化,专为Meta的AI工作负载优化;

-与PyTorch深度耦合,提升开发效率;

-功耗控制突出,适合大规模部署;

-采用较先进的制程工艺(MTIA v2使用7nm)。

▪商业化进展:目前MTIA主要用于Meta内部系统,尚未对外销售。

其主要用于降低对英伟达A100/H100的依赖,提升自有基础设施的AI性能和控制力。

▪研发进度:MTIA v2已于2024年完成设计并部署中。Meta还正在开发第三代产品,预计将应用于其开源大模型Llama的训练与部署中。

四、苹果(Apple):Neural Engine系列

苹果在AI芯片上的策略与其他云厂商不同,重心放在设备端AI加速,强调隐私保护、低功耗和本地智能体验。

▪代表产品与应用方向:

Apple Neural Engine(ANE):集成于A系列(iPhone)和M系列(Mac)芯片中,专为AI推理设计,支持图像识别、语音识别、文本生成等本地任务。

应用场景包括Siri、照片识别、自动打字预测、Vision Pro空间计算等。

▪关键特点:

-极致能效比,在极低功耗下实现高吞吐AI推理;

-本地运行,增强用户隐私安全;

-紧密结合iOS、macOS生态,开发者可通过Core ML调用;

-支持Transformer模型的本地推理,适配“端侧LLM”。

▪商业化进展:Neural Engine广泛部署于iPhone、iPad和Mac等设备中,已成为苹果产品差异化的重要组成。其AI能力逐步加强,为“个人智能化设备”铺路。

▪研发进度:每一代A/M系列芯片都会迭代提升ANE能力,苹果已计划将端侧AI作为未来核心卖点。

最新M4芯片的ANE支持60 TOPS以上的AI计算,未来或可运行完整的混合AI助手(如Apple Intelligence)。

#科创前沿#每日天使

本篇作者 / 茹莉

编务 / 龚欣雨

 
举报收藏 0打赏 0评论 0
 
更多>同类资讯
  • kongyu
    加关注0
  • 没有留下签名~~
推荐图文
推荐资讯
点击排行
网站首页  |  关于我们  |  联系方式  |  用户协议  |  隐私政策  |  版权声明  |  网站地图  |  排名推广  |  广告服务  |  积分换礼  |  网站留言  |  RSS订阅  |  违规举报  |  鄂ICP备2020018471号