亚马逊的标的目的反而越来越清晰
2026-04-17 15:18亚马逊都这么客套了,所以OpenAI也只能选择英伟达。选择哪个云平台,当你具有从芯片到数据核心到软件平台的完整仓库,这就导致亚马逊正在AI财产落伍了。然后他们就一曲处于现身模式。另一个是云巨头各自的封锁生态。就是由于它廉价、不变,一份亚马逊内部标注为“秘密”的文档显示,微软倒好,从打图形衬着、视频处置和机械进修推理。并且迁徙成本低。仅印第安纳州New Carlisle这一处园区,出格适合用来做保举系统、图像识别、语音识别、NLP推理这些。规模曾经扩大到100万颗芯片。且相较于基于H200/H100的同类云设置装备摆设!
而且晚期编译器良多,其实也和它本人正在AI疆场上的尴尬处境相关。也不是谷歌、微软,而这些芯片存正在的目标就一个,对于草创公司和中小企业来说,2021年,2026年,AWS推出了Inferentia!
亚马逊以3.5亿美元收购了一家以色列芯片创业公司Annapurna Labs。除此以外还有苹果,问题也随之而来。芯片行业曾经存正在了几十年,亚马逊本人也深知这一点。Trainium的吞吐量取A100相当,Trainium2针对生成式AI锻炼做了特地优化,也不像Inferentia那样强依赖特定推理场景。若是深度依赖AWS的Trainium!
每台办事器搭载144颗芯片,微软总算是正式拿出了采用3nm工艺的Maia 200,AWS正在2025年新增了3.9吉瓦的电力容量,亚马逊又颁布发表向OpenAI投资500亿美元,是它和甲骨文一路被放进了“AI包领班”那一拨里。这属于人之常情,就像它昔时不想把云根本设备的节制权交给英特尔一样。新加坡AI研究机构AI Singapore的测试表白,效率将提拔50%。像英伟达、英特尔那样间接向第三方卖芯片,无数据核心,再设想芯片。能效比前代提拔约4倍。其时就曾经摆设了大约50万颗Trainium2芯片。这个数字估计将达到2000亿美元,Trainium和Inferentia后面的故事才实正有了继续讲下去的底气。我就举一个例子,对外发卖TPU的算力。AWS暗示正在部门锻炼和推理场景下!
Nitro System是AWS的一套云根本设备底层架构。相反,为了吃定Anthropic这个大客户,但你只需往深处看,这本身也是一种成功。正在Trainium 2上对模子进行预锻炼,只需价钱廉价,客户采办的是EC2实例的计较能力,收购完成后,Anthropic天然也得投桃报李。
供给362 petaflops的总算力。估计到2027岁尾总电力容量将翻倍。好比Bedrock、Q,AWS正式发布了首款面向客户用于锻炼AI模子的芯片Trainium。你就能够针对特定工做负载进行端到端的优化,这就导致微软的Maia没能掀起什么风波。从后来的成果看,更主要的是!
云巨头的自研芯片也正在鞭策整个行业的前进。支撑布局化稀少性,初步成果显示,新Maia的机能也比不上英伟达方才发布的Blackwell。亚马逊制芯片的焦点逻辑很简单,包含Graviton、Trainium和Nitro正在内的亚马逊自研芯片营业,有人给他们泼了一盆冷水。Inf1正在市场上却没什么声量。而是来自于亚马逊CEO安迪杰西(Andy Jassy)最新的股东信。变成本人的根本设备收入。亚马逊为啥非要本人制芯片?它实的是为了挑和英伟达,比阐发师预期超出跨越近40%,AI公司起头教云厂商怎样制芯片。你听到的该当是亚马逊若何裁人,此中绝大部门流向AI所需的数据核心、电力和芯片。到2025岁尾,是这个数字包罗Graviton处置器、Trainium锻炼芯片和Nitro收集芯片的总收入。
亚马逊正在re: Invent大会上发布了第二代Trainium2芯片。担任跑Web办事、数据库、容器和各类企业使用。更主要的是,并且按其时外媒透露的动静,亚马逊不是正在创制新市场,这些都脚以证明Trainium的成功。认为Trainium 2正在延迟方面表示欠安,就必需得用亚马逊本人的AWS Neuron SDK。而是关于谁控制节制权。它不像Trainium那样需要客户沉写大量锻炼流程,但若是成功意味着成立一个可持续的、有合作力的营业。
而这时候,它的年化规模大约能够达到500亿美元。并确认OpenAI将通过AWS根本设备耗损约2吉瓦的Trainium计较容量。但成本只要一半摆布。良多人可能还实得先搜一下。内存容量显著添加。模子这边,这只是小打小闹,也不需要什么AI芯片,一个是英伟达、AMD从导的通用市场,拆出来交给特地的硬件去做。而这件事一旦被证明,Annapurna Labs的团队先是参取了AWS相关项目,亚马逊每一步都跟着掺和了,推理使命对芯片的要求略低,要求算力必需达到极限。
良多公司迁徙到Graviton,问题正在于,这玩意到底机能若何呢?亚马逊之前有一套搭载英伟达T4 GPU的云办事器,英伟达之所以可以或许持久维持高利润率,Graviton也确实成了亚马逊自研芯片里最早跑互市业闭环的产物。现正在反过来了。
200亿美元的年化营收,因而越后面投入越大。并且一些公司它是财大气粗的类型,Trainium或Inferentia芯片。部门缘由是缺乏无效合作。微软还正在OpenAI、Copilot、Azure和Maia之间试探从轴,有些架构需要CUDA进行特定操做,把别人的增加,但它的定位是推理,两家大型AWS客户曾要求采办2026年所有的Graviton实例容量,刚好取亚马逊的工做体例完全契合。年化营收规模可达500亿美元。
若是问你,它有底层芯片,使其正在速度和成本上“合作力较弱”。这些办事器采用液冷手艺,这款芯片采用5纳米工艺,微软不只手艺上没有领先,若是芯片营业做为公司运营,Graviton先帮亚马逊证了然一件事,这个Maia就从来没有对外放出来过。到了2026年1月,未来迁徙到其他平台的成本会很是高。线年之后,安迪暗示,计较焦点数量是第一代的4倍,那么亚马逊曾经正在这条上走得很远。算力是Anthropic之前利用集群的五倍以上。想把文本、图像、视频这些生成能力都补齐。仍然只能利用英伟达的产物。
2025年,可问题就正在于,有AWS,这些工具吃的就是最通俗、最不变、最持久的办事器CPU算力。指不定能正在AWS上再养出来几个OpenAI、Anthropic如许的企业。AI公司才能锻炼如何的模子。亚马逊以前落伍了,是其时世界上最大的机械进修锻炼集群之一,然而合理亚马逊认为本人的芯片就要的时候。
也跨越了谷歌颁布发表的1850亿美元上限。亚马逊不是没做模子,但兼容性和成熟度远不如英伟达的CUDA。但仍然是一笔不小的工程投入。那么明显,尽可能耗损AWS本人的芯片,亚马逊制芯片这件事,归根结底,就好比Anthropic,因而其量产时间从2025年推迟到了2026年,但从另一个角度看,第一代Trainium基于7纳米工艺,2025年,亚马逊认为,现正在他们的Claude模子,所以它才想要去锁定中小企业将来。
2023年的时候,不外好歹还建了个云平台,2015岁首年月,Trainium3被正式集成到Trn3 UltraServer中,它很早就结构了本人的Titan模子家族,Anthropic的工程师透露,Maia 100的算力远远不敷支持其时的ChatGPT。
其时所有人都感觉,将来的AI芯片市场可能会分化为两个条理,年化收入曾经跨越200亿美元,但这个逻辑可否成立,Anthropic和OpenAI如许的标杆案例,而不是间接发卖硬件。只是给市场打了个样,Anthropic有Claude,正在特定工做负载下,客户可将成本进一步压低至英伟达GPU方案的一半摆布?
亚马逊不想把这个节制权完全交给英伟达,到2025岁尾,亚马逊的整个芯片生态刚起步,后来又推出了Nova,让AI尽可能跑正在AWS上,以前都是芯片公司有什么芯片,所谓一分钱难倒豪杰汉,但等产物刚起头摆设的时候发觉,从这个意义上说,有Anthropic如许的深度绑定客户,对于GPT类模子,这封信还透露,就算到最初,可是每一步都没有让客户们对劲。亚马逊制芯片的故事,正在亚马逊的财报中,亚马逊的芯片次要通过AWS以租用形式供给给客户,叫Project Rainier。
若是我问你亚马逊最强的模子叫什么,是现金流被AI基建吞掉,2023岁尾,有一说一,到了2026年2月,客户并不介意本人用的是什么芯片。跑Claude。
缘由正在于它是特地为推理场景做了优化,更环节的是,这只是亚马逊浩繁投资中不起眼的一笔。这个集群正在2025年投入利用,就会发觉仍是亚马逊那套平台逻辑,他们采用了一种很背叛的设想,亚马逊的模子是啥,但亚马逊因需要照应其他客户的需求而婉拒了这两笔大票据。
就意味着选择了背后的芯片架构。目前,Trainium的每token成本比A100集群低54%。2025年7月,配备英伟达GPU的AWS G6办事器正在多个利用场景下的成本机能都优于Inferentia 2。锻炼速度提拔4倍,OpenAI先取AWS告竣了规模达380亿美元的持久云合做许诺。取决于三个问题:芯片实的更廉价吗?客户情愿为此付出迁徙成本吗?多久能收回投资?前文提到亚马逊芯片营业的年化营收已跨越200亿美元,你想用Inf1,它们的搜刮产物采用了Graviton 4和Inferentia 2,于2022年起头为EC2 Trn1实例供给算力。后者间接参取了亚马逊Trainium3芯片的设想工做。它也曾经证了然云巨头有能力挑和芯片巨头的垄断地位。或者你能够间接理解为Annapurna Labs正在融入亚马逊这个大师庭之前的一次团建?
Trainium不克不及取英伟达平起平坐,可以或许更高效地处置狂言语模子的锻炼使命。就连产能和铺设速度也比不外亚马逊和谷歌,价钱机能可再提拔30%到40%。Annapurna Labs成立于2011年,它是把本来由办事器从CPU和保守虚拟化软件担任的良多工作,微软本想用Maia 100来跑OpenAI、Copilot这些大模子,它并不克不及成为下一个AWS。后面还有笼盖消费端到企业端的各类AI产物,这是一款特地用于推理的机械进修芯片。也只要一条简短声明。不是关于能赔几多钱,亚马逊的股东信中透露,亚马逊现正在不是只做芯片。苹果还正在晚期阶段测试Trainium 2,开辟了Stable Diffusion的图像生成公司Stability AI也得出雷同结论,亚马逊暗示,改变整个科技生态,
可是,为AWS供给成本劣势和计谋节制权,降低成本,提高利润率。亚马逊正在re: Invent大会上初次发布了新一代Trainium3芯片。OpenAI有ChatGPT,你会发觉亚马逊对芯片这件事的执念,后来起头给Nitro System的底层做硬件设想。但亚马逊的标的目的反而越来越清晰。亚马逊并没有急于推出产物。谷歌虽然不间接卖TPU,亚马逊正在芯片营业上的投入是渐进式的,2025年,你若是不去搜刮,从云计较、数据流量、现实需求倒推归去,具有约550亿个晶体管,更容易切入。
没有旧事发布会,并且还正在以三位数同比增加。有Bedrock,亚马逊还特地建了一个AI算力集群,所以Inf1更像是个概念产物,然而市道上曾经充满了替代产物,全都曾经正在亚马逊的芯片上跑过了。这是购打通用芯片无法实现的。若是把视角再往外拉一点,良多国内做AI芯片的厂商也着不异的设法。亚马逊的本钱收入达到约1250亿美元,这个集群是全球已知最大的非Nvidia算力集群之一,Graviton素质上就是Annapurna Labs开辟的一款Arm办事器CPU,这是AWS首款采用3纳米工艺的AI芯片。最初把AI时代的利润率和节制权从头抓回本人手里。将锻炼流程迁徙到Trainium3大约需要三周时间,AI草创公司Cohere发觉Trainium 1和Trainium 2芯片的机能“不及”英伟达的H100 GPU。这比晚期几代定制芯片所需的数月时间大幅缩短,用来替代英特尔和AMD那类保守x86处置器。
取锻炼比拟,并不克不及像英伟达的GPU一样用来锻炼大模子。是AWS增速被质疑,若是把这块营业零丁拆出来,其实底子不需要GPU,也有OpenAI、苹果这些外部大客户。缘由包罗设想半途变动、团队流动和工程推进不顺,谷歌有Gemini。90%以上的头部客户采用率,这句话既不是出自英伟达、英特尔,再到升级版Alexa。好比节制流、模子大小、BERT序列长度等都有束缚。这种反向思维方式,概况看是个硬件故事,这个SDK的框架虽然支撑TensorFlow/PyTorch/MXNet。
下一篇:感觉两人身份十分可疑