开云(中国大陆官方网站)Kaiyun科技股份有限公司 - 领先的GPU计算与AI算力解决方案

关闭菜单
027-83317177
当前位置: 首页 > 新闻资讯 > 公司新闻

亚马逊又拿到船票了这次是芯片

2026-04-15 07:59:21 小编

  

亚马逊又拿到船票了这次是芯片

  这句话既不是出自英伟达、英特尔,也不是谷歌、微软,而是来自于亚马逊CEO安迪·杰西(Andy Jassy)最新的股东信。

  你听到的应该是亚马逊如何裁员,是自由现金流被AI基建吞掉,是AWS增速被质疑,是它和甲骨文一起被放进了“AI包工头”那一拨里。

  模型这边,OpenAI有ChatGPT,Anthropic有Claude,谷歌有Gemini。如果我问你亚马逊最强的模型叫什么,很多人可能还真得先搜一下。

  更关键的是,包含Graviton、Trainium和Nitro在内的亚马逊自研芯片业务,年化收入已经超过200亿美元,而且还在以三位数同比增长。

  安迪表示,如果把这块业务单独拆出来,像英伟达、英特尔那样直接向第三方卖芯片,它的年化规模大约可以达到500亿美元。

  更重要的是,亚马逊现在不是只做芯片。它有底层芯片,有数据中心,有AWS,有Bedrock,有Anthropic这样的深度绑定客户,也有OpenAI、苹果这些外部大客户。

  微软还在OpenAI、Copilot、Azure和Maia之间摸索主轴,但亚马逊的方向反而越来越清楚。

  让AI尽可能跑在AWS上,尽可能消耗AWS自己的芯片,最后把AI时代的利润率和控制权重新抓回自己手里。

  就比如Anthropic,现在他们的Claude模型,全都已经在亚马逊的芯片上跑过了。

  为了吃定Anthropic这个大客户,亚马逊还专门建了一个AI算力集群,叫Project Rainier。

  这个集群是全球已知最大的非Nvidia算力集群之一,仅印第安纳州New Carlisle这一处园区,当时就已经部署了大约50万颗Trainium2芯片。

  到2025年底,规模已经扩大到100万颗芯片。而这些芯片存在的目的就一个,跑Claude。

  亚马逊都这么客气了,Anthropic自然也得礼尚往来,后者直接参与了亚马逊Trainium3芯片的设计工作。

  以前都是芯片公司有什么芯片,AI公司才能训练怎样的模型。现在反过来了,AI公司开始教云厂商怎么造芯片。

  问题也随之而来。亚马逊为啥非要自己造芯片?它真的是为了挑战英伟达,还是只是想把AWS的利润率再抬高一点?

  归根结底,亚马逊造芯片这件事,表面看是个硬件故事,但你只要往深处看,就会发现还是亚马逊那套平台逻辑,把别人的增长,变成自己的基础设施收入。

  Annapurna Labs成立于2011年,然后他们就一直处于隐身模式。

  这家公司由三位工程师创立,他们采用了一种很叛逆的设计理念,从云计算、数据流量、实际需求倒推回去,再设计芯片。这种反向思维方法,恰好与亚马逊的工作方式完全契合。

  2015年初,亚马逊以3.5亿美元收购了一家以色列芯片创业公司Annapurna Labs。

  没有新闻发布会,在亚马逊的财报中,也只有一条简短声明。当时所有人都觉得,这只是亚马逊众多投资中不起眼的一笔。

  收购完成后,亚马逊并没有急于推出产品。Annapurna Labs的团队先是参与了AWS相关项目,后来开始给Nitro System的底层做硬件设计。

  Nitro System是AWS的一套云基础设施底层架构。它是把原来由服务器主CPU和传统虚拟化软件负责的很多事情,拆出来交给专门的硬件去做。

  有一说一,这只是小打小闹,或者你可以直接理解为Annapurna Labs在融入亚马逊这个大家庭之前的一次团建,线年之后,AWS推出了Inferentia,这是一款专门用于推理的机器学习芯片。

  亚马逊认为,与训练相比,推理任务对芯片的要求略低,更容易切入。这属于人之常情,很多国内做AI芯片的厂商也秉持着相同的想法。

  这玩意到底性能如何呢?亚马逊之前有一套搭载英伟达T4 GPU的云服务器,主打图形渲染、视频处理和机器学习推理。

  但是,Inf1在市场上却没什么声量。原因在于它是专门为推理场景做了优化,特别适合用来做推荐系统、图像识别、语音识别、NLP推理这些。

  可问题就在于,亚马逊的整个芯片生态刚起步,你想用Inf1,就必须得用亚马逊自己的AWS Neuron SDK。

  这个SDK的框架虽然支持TensorFlow/PyTorch/MXNet,但兼容性和成熟度远不如英伟达的CUDA。并且早期编译器限制很多,比如控制流、模型大小、BERT序列长度等都有约束。

  所以Inf1更像是个概念产品,只是给市场打了个样,亚马逊自己也深知这一点。

  2021年,AWS正式发布了首款面向客户用于训练AI模型的芯片Trainium。训练芯片的技术难度远高于推理芯片,第一代Trainium基于7纳米工艺,拥有约550亿个晶体管,于2022年开始为EC2 Trn1实例提供算力。

  亚马逊表示,在特定工作负载下,Trainium的每token成本比A100集群低54%。对于GPT类模型,Trainium的吞吐量与A100相当,但成本只有一半左右。

  2023年底,亚马逊在re: Invent大会上发布了第二代Trainium2芯片。这款芯片采用5纳米工艺,计算核心数量是第一代的4倍,训练速度提升4倍,内存容量显著增加。

  Trainium2针对生成式AI训练做了专门优化,支持结构化稀疏性,能够更高效地处理大语言模型的训练任务。且相较于基于H200/H100的同类云配置,价格性能可再提升30%到40%。

  2024年12月,亚马逊在re: Invent大会上首次公布了新一代Trainium3芯片。这是AWS首款采用3纳米工艺的AI芯片。

  到2025年底,Trainium3被正式集成到Trn3 UltraServer中,每台服务器搭载144颗芯片,提供362 petaflops的总算力。这些服务器采用液冷技术,能效比前代提升约4倍。

  AWS表示在部分训练和推理场景下,客户可将成本进一步压低至英伟达GPU方案的一半左右。

  从2015年到2026年,亚马逊在芯片业务上的投入是渐进式的,因此越后面投入越大。

  2025年,亚马逊的资本支出达到约1250亿美元,其中绝大部分流向AI所需的数据中心、电力和芯片。

  2026年,这个数字预计将达到2000亿美元,比分析师预期高出近40%,也超过了谷歌宣布的1850亿美元上限。

  前文提到亚马逊芯片业务的年化营收已超过200亿美元,是这个数字包括Graviton处理器、Trainium训练芯片和Nitro网络芯片的总收入。

  这封信还透露,如果芯片业务作为独立公司运营,像英伟达或英特尔那样直接向第三方销售芯片,年化营收规模可达500亿美元。

  Graviton本质上就是Annapurna Labs开发的一款Arm服务器CPU,用来替代英特尔和AMD那类传统x86处理器,负责跑Web服务、数据库、容器和各种企业应用。

  AWS上有大量的工作负载,其实根本不需要GPU,也不需要什么AI芯片,这些东西吃的就是最普通、最稳定、最长期的服务器CPU算力。

  目前,亚马逊的芯片主要通过AWS以租用形式提供给客户,而不是直接销售硬件。客户购买的是EC2实例的计算能力,背后可能是Graviton、Trainium或Inferentia芯片。

  从后来的结果看,Graviton也确实成了亚马逊自研芯片里最早跑通商业闭环的产品。它不像Trainium那样需要客户重写大量训练流程,也不像Inferentia那样强依赖特定推理场景。

  所谓一分钱难倒英雄汉,很多公司迁移到Graviton,就是因为它便宜、稳定,而且迁移成本低。

  Graviton先帮亚马逊证明了一件事,只要价格便宜,客户并不介意自己用的是什么芯片。

  而这件事一旦被证明,Trainium和Inferentia后面的故事才真正有了继续讲下去的底气。

  这个集群在2025年投入使用,是当时世界上最大的机器学习训练集群之一,算力是Anthropic之前使用集群的五倍以上。

  2025年,OpenAI先与AWS达成了规模达380亿美元的长期云合作承诺。到了2026年2月,亚马逊又宣布向OpenAI投资500亿美元,并确认OpenAI将通过AWS基础设施消耗约2吉瓦的Trainium计算容量。

  考虑到Anthropic和亚马逊自己的Bedrock服务已经使用了大量Trainium芯片,亚马逊竟然还能腾出手接下OpenAI这笔大单子,可见当时的亚马逊已经All In芯片了。

  除此以外还有苹果,它们的搜索产品采用了Graviton 4和Inferentia 2,机器学习推理工作负载的效率提高了40%以上。苹果还在早期阶段测试Trainium 2,初步结果显示,在Trainium 2上对模型进行预训练,效率将提升50%。

  然而正当亚马逊以为自己的芯片功法就要炼成的时候,有人给他们泼了一盆冷水。

  2025年7月,一份亚马逊内部标注为“机密”的文档显示,AI初创公司Cohere发现Trainium 1和Trainium 2芯片的性能“不及”英伟达的H100 GPU。

  开发了Stable Diffusion的图像生成公司Stability AI也得出类似结论,认为Trainium 2在延迟方面表现不佳,使其在速度和成本上“竞争力较弱”。

  新加坡AI研究机构AI Singapore的测试表明,配备英伟达GPU的AWS G6服务器在多个使用场景下的成本性能都优于Inferentia 2。

  亚马逊对此回应称,这些反馈“并非当前情况”,Trainium和Inferentia已经在Ricoh、Datadog、Metagenomi等客户那里取得了“出色成果”。

  亚马逊的股东信中透露,两家大型AWS客户曾要求购买2026年所有的Graviton实例容量,但亚马逊因需要照顾其他客户的需求而婉拒了这两笔大单子。

  AWS在2025年新增了3.9吉瓦的电力容量,预计到2027年底总电力容量将翻倍。

  你要非得说这个增长多高多快,那也未必见得,但至少说得过去。问题就在于,这条路能走多远,能否真正复制AWS的成功。

  亚马逊造芯片的核心逻辑很简单,降低成本,提高利润率。但这个逻辑能否成立,取决于三个问题:芯片真的更便宜吗?客户愿意为此付出迁移成本吗?多久能收回投资?

  Anthropic的工程师透露,将训练流程迁移到Trainium3大约需要三周时间,这比早期几代定制芯片所需的数月时间大幅缩短,但仍然是一笔不小的工程投入。

  有些架构需要CUDA进行特定操作,而且一些公司它是财大气粗的类型,要求算力必须达到极限,而这时候,仍然只能使用英伟达的产品。

  如果把视角再往外拉一点,你会发现亚马逊对芯片这件事的执念,其实也和它自己在AI战场上的尴尬处境有关。

  我就举一个例子,如果问你,亚马逊的模型是啥,你如果不去搜索,能立马回答得上来吗?

  亚马逊不是没做模型,相反,它很早就布局了自己的Titan模型家族,后来又推出了Nova,想把文本、图像、视频这些生成能力都补齐。

  后面还有覆盖消费端到企业端的各种AI产品,比如Bedrock、Q,再到升级版Alexa。

  问题在于,亚马逊每一步都跟着掺和了,但是每一步都没有让客户们满意。这就导致亚马逊在AI产业上面掉队了。

  谷歌虽然不直接卖TPU,不过好歹还建了个云平台,对外销售TPU的算力。微软倒好,这个Maia就从来没有对外放出来过。

  2023年的时候,微软本想用Maia 100来跑OpenAI、Copilot这些大模型,但等产品刚开始部署的时候发现,Maia 100的算力远远不够支撑当时的ChatGPT,所以OpenAI也只能选择英伟达。

  2025年,微软下一代Maia被爆出难产,因此其量产时间从2025年推迟到了2026年,原因包括设计中途变更、团队流动和工程推进不顺,而且按当时外媒透露的消息,新Maia的性能也比不上英伟达刚刚发布的Blackwell。

  到了2026年1月,微软总算是正式拿出了采用3nm工艺的Maia 200,但它的定位是推理,并不能像英伟达的GPU一样用来训练大模型。

  然而市面上已经充满了替代产品,微软不仅技术上没有领先,就连产能和铺设速度也比不过亚马逊和谷歌,这就导致微软的Maia没能掀起什么风浪。

  未来的AI芯片市场可能会分化为两个层次,一个是英伟达、AMD主导的通用市场,另一个是云巨头各自的封闭生态。

  对于初创公司和中小企业来说,选择哪个云平台,就意味着选择了背后的芯片架构。如果深度依赖AWS的Trainium,将来迁移到其他平台的成本会非常高。

  亚马逊以前掉队了,所以它才想要去锁定中小企业未来,指不定能在AWS上再养出来几个OpenAI、Anthropic这样的企业。

  但从另一个角度看,云巨头的自研芯片也在推动整个行业的进步。英伟达之所以能够长期维持高利润率,部分原因是缺乏有效竞争。

  如果成功意味着像AWS那样创造一个全新的行业,改变整个科技生态,那么显然,它并不能成为下一个AWS。芯片行业已经存在了几十年,亚马逊不是在创造新市场,而是在重新分配现有市场的份额。

  但如果成功意味着建立一个可持续的、有竞争力的业务,为AWS提供成本优势和战略控制权,那么亚马逊已经在这条路上走得很远。

  200亿美元的年化营收,90%以上的头部客户采用率,Anthropic和OpenAI这样的标杆案例,这些都足以证明Trainium的成功。

  更重要的是,当你拥有从芯片到数据中心到软件平台的完整堆栈,你就可以针对特定工作负载进行端到端的优化,这是购买通用芯片无法实现的。

  从这个意义上说,亚马逊造芯片的故事,不是关于能赚多少钱,而是关于谁掌握控制权。

  亚马逊不想把这个控制权完全交给英伟达,就像它当年不想把云基础设施的控制权交给英特尔一样。

  就算到最后,Trainium不能与英伟达平起平坐,它也已经证明了云巨头有能力挑战芯片巨头的垄断地位。这本身也是一种成功。

  女子从银行取出40万现金放车内,被人尾随至小区车库砸窗盗走!嫌疑人撞警车拒捕潜入深山,警方跨市追缉将其抓获

  近日,昆明市民李女士(化姓)将刚从银行取出的40万元现金放在车内,被在银行门口“蹲点”的嫌疑人孔某尾随至小区地下车库砸窗盗走。警方抓捕过程中,孔某驾车强行撞开警车逃窜,多次更换假车牌后关闭通信设备、潜入外地深山藏匿。

  上海至重庆一航班发生“重着陆”,民航西南局已介入调查,乘客:飞机重重落地后弹起,两秒钟后再次落地,有失重感和剧烈撞击声

  极目新闻记者 邓波近日多名网友发文反映,4月9日,上海至重庆的吉祥航空HO1249航班,在重庆江北机场着陆时发生硬着陆弹跳事件。据飞常准APP显示,4月9日吉祥航空HO1249航班执飞飞机为空客A321-231,机龄8.

  界面新闻记者 张蕊界面新闻编辑 任雪松三月成都,第114届全国糖酒会的酒店展区透着不同于以往的“冷静”。茅台、五粮液、泸州老窖、舍得、洋河等头部酒企集体缺席酒店展,转而各自回大本营举办消费者活动——泸州老窖将“窖主节”带回泸州,舍得在射洪举办老酒节。

  4月14日报道成都一凶宅16.6万起拍,3小时竞价至90.6万,98人报名,32次出价,9万多次围观,建筑面积89.70平方米,精装修,且临近地铁#大象主播说 @司凯

  欧体楷书独体字,角凹字毛笔楷书写法!大家快点赞吧!#零基础学书法 #练字技巧 #书法入门 #写字是一种生活#书法教程 #零基础学书法

  党字头的书写要点 面向小学生的系统书法练习课程,以欧体楷书为基础,按学段循序渐进教学。由 #孟繁禧 老师科学指导,助力学生扎实打好书法基础。#毛笔字教学 #书法教学 #小学书法教学 #欧阳询

  有房出租的朋友要注意了,今天讲述的是一种专门针对房东的新骗局。家住成都的罗女士刚在网上把出租店铺的信息发出,就有人联系,而且仅凭着几句网上交流,就爽快地支付了2000元订金。可谁知,这“好租客”差点骗走房东罗女士价值60万元的黄金。

  群规写“禁止攻击其他运动员(全红婵除外)” 282人微信群规背后的“法律账单” 法治会客厅

  282人的微信群,群规明文写着“禁止攻击其他运动员”,甚至鼓励成员“可以随意骂全红婵,往死里骂”。这不是网络段子,而是一个真实存在的微信群的群内规则。

  日前江西省抚州市乐安县金竹畲族乡严杭村的村民进山走到老虎脑省级自然保护区深处时大家突然停下了脚步——落叶层里一株株晶莹洁白的小花静静伫立着在周围墨绿植被的映衬下简直像一个个发光的小灯泡“这是什么花?

  特朗普封锁霍尔木兹!想掐断伊朗和中国的生命线号,特朗普又在社交平台上“放狠话”了,一句话直接搅乱了全球市场:美国海军要封锁霍尔木兹海峡,凡是进出伊朗港口的船,一律拦下来!

  阅读须知:本文内容所有信息和数据,均为作者查阅官方信息和网络已知数据整合解析,旨在让读者更清晰了解相应信息,如有数据错误或观点有误,请文明评论,作者积极改正!

联系专业的商务顾问,制定方案,专业设计,一对一咨询及其报价详情
服务热线服务热线 027-83317177
咨询kaiyun全站解决方案 马上咨询
免费获取技术咨询服务
姓名图标
电话图标
QQ图标

联系我们 contact us
027-83317177