微软秘密研发AI芯片「雅典娜」! 成本大降3分之1,但不是要取代Nvidia A100

I模型的训练需要庞大资金,为了节省成本、支持OpenAI的需求,传出微软正在秘密开发自研AI芯片「Athena」(雅典娜),目前部分微软及OpenAI的员工已经开始测试这些芯片,在GPT-4等大型语言模型下表现如何。

根据《路透社》报导,微软从2019年就开始投入这款芯片的研发。 这个时间点恰好是OpneAI成立营利公司,同意接受微软10亿美元投资,双方正式建立合作关系的开始。

这些芯片预计将用于大型语言模型的训练及推理,ChatGPT等语言模型需要庞大的运算力处理数据、模式识别、生成内容并且模仿人类的语气说话。

微软投入AI芯片研发的时间点,恰好是与OpenAI建立合作伙伴关系同一时期。


OpenAI执行长山姆. 奥特曼(Sam Altman)曾在推特上表示,AI的运算成本非常高昂,所以他们必须想办法将AI技术变现。 也因此,微软目标是打造一款比从供应商处购买的芯片,性能更优异的自研芯片,好节省AI庞大的训练及使用成本,同时在竞争中加快训练速度。

AI商业化成本高昂,微软想自研芯片降低成本

英伟达(Nvidia)执行长黄仁勋在今年3月登场的GTC大会上,强调AI的「iPhone时刻」已经到来,将成为AI发展的转折点。 《财富》杂志也曾评论,iPhone以前就有智能手机,但 iPhone 出现后才有智能手机的应用程序,现在 AI 就即将迎接同样的关键时刻。

目前Nvidia是最主要的AI芯片供应商,其A100芯片拥有数据中心GPU超过90%的市场,在AI浪潮掀起时,不少评论都指出,Nvidia会是这场竞争中的隐形冠军。 据估计,OpenAI若要将ChatGPT商业化,会需要多达3万个A100芯片。

而一个A100芯片价格约为1万美元,毫无疑问是商业化的极大门槛,虽然Nvidia最新的H100晶片号称训练性能是A100的9倍,但目前网络上的售价已经超过4万美元(约新台币122万元),仍然要价不菲。

Nvidia A100是目前主流的AI芯片,不过OpenAI来说利用这款产品实现AI商业化仍然成本高昂。


SemiAnalysis首席分析师迪伦. 帕特尔(Dylan Patel)指出,要是微软使用现成的产品部署,每年必须花费数百亿美元。 他估计ChatGPT的运营成本约为每天70万美元或每次查询0.36美元; 如果微软自研AI芯片成本有竞争力的话,可以将每个芯片的成本降低3分之1 。

《The Verge》指出,微软自研的芯片并不是要直接取代Nvidia的产品,但随着他们将AI导入旗下各种服务时,最终这些投入自研芯片的努力能够降低所需成本。 另外,先前微软也一直秘密开发自研处理器芯片,可能用于资料中心或Surface装置,不过至今还未对外发表。

AI「持久战」下,Google、亚马逊也投入芯片开发

且宣布进军AI的科技巨头们,也都投入了自研AI芯片的开发。 Google早在2016年就推出为AI而生的TPU芯片,前阵子Google也宣称他们已借由第四代TPU芯片打造了一台用于训练AI的超级计算机,声称该芯片在性能胜过A100 1.2到1.7倍的同时,还大幅减少了耗电量。 而身为最大云端业者的亚马逊,同样早早投入AI芯片研发,去年11月其研发的新款AI芯片Trainium也在AWS提供服务。

成本一直被认为是AI技术普及的重大门槛,对于利用ChatGPT出奇制胜,成功领先竞争对手的微软,自然希望乘胜追击,利用与OpenAI的伙伴关系吃下更多原先属于Google的浏览器、搜索引擎市场,而降低成本便是达成这目标的核心基础。

发表评论