Open AI 最近疯狂押注算力基础设施,都开始自研芯片了#ai创造营#

昨晚又宣布跟 Broadcom 一起合作部署 10GW 的 AI 加速器,而且里面的芯片设计和系统都是 Open AI 自研的。

Greg 解释了为什么会需要这么大量的算力,GPT 正在从交流的时候实时推理变为在你不跟他交流的时候也在工作的产品。

就比如 Pulse 功能,每天早上起来的时候他都已经为你准备好你要消费的内容了。

但是这种功能由于算力成本问题只能给 Pro 会员用,他们希望将类似功能推送给每个人。

而且他们自研芯片的项目已经在 ASIC 基础上干了 18 个月了。

目前 Open AI 有 2GW 的算力,其中大部分算力都用在了模型训练和研发上,只有少部分用于推理。

最终他们的规划是到 2033 年把算力干到 250GW,翻了 125 倍,需要的消耗美国一半的能源。
 
 
Back to Top