从GPT-5到AI芯片厂,山姆·奥特曼在下一盘多大的棋?

作者:文子

编辑:小迪

来源:新火种

这一次OpenAI的野心真的太大了。

大规模招商,打造全球AI芯片厂

随着OpenAI估值逼近1000亿大关,山姆·奥特曼的野心再也藏不住了。他不再满足于血拼谷歌和苹果,而是直接向算力霸主英伟达开战。

据知情人士透露,山姆·奥特曼正在积极向全球投资者寻求庞大的资金支持,以便建立一座AI芯片制造厂。其中就包括阿布扎比的G42和日本的软银集团,尤其是在与G42的谈判中,涉及金额就已经接近80亿到100亿美元。

实际上,早在去年10月,G42公司就与OpenAI公司签署了合作协议,为当地和区域市场提供人工智能服务。紧接着12月就有报道称,G42正在试图筹集1000亿美元,但当时并没有关于这笔资金用途的任何信息。现在看来,很有可能是为了打造AI芯片厂而准备。

毕竟想要实现这一计划,必须面对庞大的资金需求。从成本上来看,先进的2纳米或3纳米级工艺技术,仅仅开发就需要数十亿美元,而且节点越小成本越高。想要一家能够在2纳米或3纳米级节点上大批量生产芯片的现代化晶圆厂,投资成本也将高达300亿美元。

此外,单个低数值孔径的EUV光刻工具的成本约为2亿美元,而高数值孔径光刻机的成本预计为3亿至4亿美元。也就是说,山姆·奥特曼此次想要建造AI芯片厂至少需要筹集数百甚至数千亿美元。

虽然目前参与该项目的合作伙伴和投资者的完整名单尚未确定,但有消息透露,山姆·奥特曼为了筹集所需资本,正在试图拉拢顶级芯片制造商合作,其中可能包括台积电、三星和英特尔。

一旦新的芯片工厂成立,将为全球市场提供AI芯片。


无芯训练GPT-5?全力对抗英伟达


事实上,山姆·奥特曼之所以着急寻找合作伙伴建立AI芯片厂,更多是一种无奈。根据相关媒体报道,现在的OpenAI很可能已经无芯可用。

这一点从山姆·奥特曼多次在公开场合的言辞中也可以看出,在过去一整年里,他几乎都在抱怨英伟达GPU短缺,导致OpenAI的GPU供应严重受限的问题。

尤其是因为这个问题,OpenAI被迫推迟了很多短期计划,比如微调、专用容量、32k上下文窗口、多模态等等,甚至还一度影响到API的可靠性和速度。

再加上ChatGPT的运营成本本就巨大。据统计,ChatGPT每次查询的成本约为 0.04 美元,如果ChatGPT查询量成长至谷歌搜索规模的十分之一,最初需要部署价值约481亿美元的 AI 芯片投入运算,每年还需要价值约 160 亿美元的芯片才能维持运作。

在多重因素交织的情况下,OpenAI不得不寻求新的途径,以免长期被芯片拿捏命脉。按照山姆·奥特曼的说法,算力受限会成为运行人工智能模型的主要障碍。

他预计,未来几年AI应用和相关计算力的需求将急剧增加。而OpenAI需要的是高端芯片,全球生产高端芯片的工厂本就不多,这将严重限制下一代AI模型的训练。

所以为了解决这个问题,山姆·奥特曼率先提出了倡议,计划建立一个全球工厂网络,以增加芯片产量,确保足够的算力资源。

据了解,山姆·奥特曼目前已经与美国国会议员探讨了芯片供应的问题,并讨论了在何处、以及如何建造新的工厂。

综合白宫最近对芯片行业的一系列补贴政策来看,山姆·奥特曼有一定可能会得到支持。据了解,2022年8月,总额达2800亿美元的美国《芯片法案》正式签署成法,其中有527亿美元将用于在未来5年内补贴建设和更新芯片厂,以促进半导体制造回流美国,鼓励企业在美国研发和制造芯片。

由此可见,美国当局打算投入巨额资金增加芯片产能的想法,也与山姆·奥特曼当下的做法不谋而合。


这一盘大棋,OpenAI下得完吗?


然而,山姆·奥特曼想要迅速建立起AI芯片制造工厂,并没有那么简单。

纵观全球范围内,诸如谷歌、微软等科技巨头都在不遗余力地研发自家的芯片,却仍然急于争取与英伟达的业务合作。这一现象的背后,不仅仅是因为英伟达在GPU性能上的卓越表现,更在于英伟达多年来耕耘而成的CUDA生态系统所带来的全面优势。

这正是OpenAI试图打破的桎梏,但从开发者的角度来看,OpenAI似乎只是在不断重复着类似的模式,换汤不换药罢了。

更何况,OpenAI似乎还带着一颗隐形的“雷”。因为OpenAI治理结构中存在着巨大的风险,这将显著降低开发人员在基于GPT提供服务方面的信心,也为谷歌、Meta等竞争对手提供了可趁之机。

即便有一天OpenAI真的克服千难万险构建出了AI芯片厂,随之而来的问题也不会减少。

以CoWoS封装产能为例,英伟达H100芯片的短缺问题主要源于CoWoS封装产能不足。台积电就曾在最近的财报电话会议上表示,将持续扩充先进封装,包括CoWoS产能。据设备厂商估算,台积电2023年CoWoS总产能将超过12万片,而2024年有望达到24万片。

这意味着想要提升一倍的产量,几乎需要一年左右的时间,背后原因可能在于生产工艺的复杂性。除此之外,H100所使用的HBM3系列内存也是生产上的一大难题,而这一命脉掌握在美光、SK海力士或三星等公司手中。

尤其是当前几乎所有AI训练和推理都依赖于同一种生成式,但随着时间的推移,更先进的GPU、CPU或其他新型处理器很可能会涌现,从而导致当前使用的供过于求。而这些都将是摆在OpenAI面前,不得不解决的问题。

从GPT-5到AI芯片厂,OpenAI还有很长的路要走。