谷歌CEO“劈柴”亲自下场分芯片!930亿美元填不饱“算力饥荒”
米乐官方入口【新智元导读】当算力成为AI时代的「新石油」,一年930亿美元的资本投入仍拯救不了谷歌的「算力饥荒」,各部门为抢夺芯片争执不下。为此,谷歌专门成立了一个协调算力分配的高管委员会。有时这个问题甚至要由谷歌CEO劈柴(Sundar Pichai)或者Alphabet董事会最终拍板解决。
它拥有搜索、Chrome、Gmail等数款月活用户超过20亿的超级产品,每一个都是印钞机。
此外,为了保持在AI时代的领先地位,谷歌今年计划投入的资本支出更是达到了910亿至930亿美元。
今年早些时候,谷歌的一众核心高管被紧急召集,讨论一个在部分员工眼中已经「生死攸关」的问题:
于是,一个全新的高管委员会被组建起来,决定公司有限的算力资源该如何分配:
算力短缺在谷歌内部引发了不小的紧张气氛,各大产品线负责人为了有限的算力争执不下。
据一位知情人士透露,新成立高管委员会的目的就是为了简化决策流程,在不同部门之间做到「一碗水端平」。
这些「不同部门」主要包括谷歌云、搜索等产品部门以及专注AI研究的DeepMind。
看一下这个「算力分配委员会」的名单,就能掂量出这场博弈的份量,名列其中的全都是谷歌权力版图中的大佬:
知识与信息部门高级副总裁Nick Fox,他负责谷歌搜索、广告、地理(包括谷歌Maps)等核心产品,守护着公司主要的现金牛业务。
有谷歌高级副总裁James Manyika,他负责研究、技术与社会事务。
但核心矛盾在于算力的需求,已经远远超过了供应的极限。给了一方,就意味着另一方的业务可能停摆。
有时,他们甚至不得不将难题上交,由CEO Pichai,甚至Alphabet董事会来最终拍板。
在如今各家实验室新模型「你追我赶」的胶着战况下,慢一步,就可能意味着掉队。
谷歌Cloud是公司主要的增长引擎,它需要海量算力来服务客户并维持扩张,这是华尔街最看重的故事之一。
谷歌必须留足算力,支撑其庞大的产品矩阵。其中有7款产品(包括搜索、Chrome和Gmail)的月活用户都超过了20亿。
依附于这些产品的广告业务占据了公司收入的大头,是支撑整个帝国运转的基石。
我们有一个严格且持续的流程,以确保算力资源被分配给最重要的优先事项,既要平衡当前的客户和用户需求,也要兼顾推动研究和创新的长期投资。
为了填满巨大的算力「黑洞」,谷歌像其他科技巨头一样,在芯片和服务器的资本支出(Capex)上开启了「激进模式」。
Pichai在最近的财报电话会上表示,Alphabet预计今年的资本支出将在910亿到930亿美元之间,几乎是2024年的两倍。
建数据中心和造芯片的周期很长,谷歌当下的算力困境,实际上是在为前几年的决策买单。
2023年,谷歌的资本支出仅为320亿美元,这个投入在AI爆发的前夜显得有些保守,正是这种滞后效应,导致了如今的被动。
算力紧张的问题在科技公司内部其实存在多年了,但随着这两年AI需求的爆发,矛盾愈发尖锐。
虽然我们一直在全力增加产能,加快服务器部署和数据中心建设……但我们预计,第四季度和2026年,供需依然会很紧张。
在新的委员会成立之前,负责分配的是一个名为「机器学习战略与分配」(MLSA)的机构。
那是一个规模庞大、包含了谷歌各个产品线领导的组织,因此往往也很难达成共识。
新小组的成立,正是为了打破这种低效的共识机制,让权力更集中,决策更果断。
同时,也为外界提供了一个观察谷歌内部权力流向的窗口:究竟是哪个部门在谷歌内部的话语权最重。
Ashkenazi在今年春天的摩根士丹利会议上透露:2025年,谷歌预计会将约一半的算力分配给Cloud业务。
AI研究取得了重大突破,或者签下了一个云服务大单,又或者是OpenAI又搞出了什么大动作,逼得谷歌再次拉响「红色警报」。
在谷歌复杂的供应链中,任何一个环节的延误,都可能导致部署计划的推迟,迫使谷歌再次调整计划。
值得庆幸的是,谷歌拥有TPU(张量处理单元)这一杀手锏,这种自研芯片可以用于训练自家的AI模型。
他们能同时挂名多个项目。这意味着他们手中握有多个算力池,可以灵活调配,左右逢源。
而对于普通研究员来说,当算力耗尽、项目未完时,他们必须学会一套独特的「生存法则」。
又或者是基于劳动的交换:「我帮你修复几个棘手的Bug,你借我一点卡时跑个模型。」
930亿美金的宏大投入,到了基层员工层面就变成了每个人对算力的精打细算。
最核心的生产资料算力,成了一种要靠人情、关系、私下交换来流通的「硬通货」。
在当前全球性AI军备竞赛下,即使是像谷歌这样的巨头,有时也不得不面对「算力饥荒」的焦虑与匮乏。


