ChatGPT每天花费70万美元AI芯片价格涨至4万美元
ChatGPT带动的AI热潮让半导体市场小火了一把,但也确实烧钱。据分析师Dylan Patel透露,OpenAI每天为运行ChatGPT投入的成本可能高达70万美元,另一方面,用来训练ChatGPT的英伟达的H100在ebay上炒到4万美元,而微软也传出有意自研AI芯片、寻找更便宜的方案去替代英伟达的GPU,以此降低成本。
ChatGPT每日运营费达70万美元
据芯片行业研究公司SemiAnalysis首席分析师迪伦・帕特尔表示,由于ChatGPT运行在价格昂贵的计算基础设施之上,OpenAI每天为运行ChatGPT投入的成本可能高达70万美元。
帕特尔指出,ChatGPT需要庞大的算力,才能基于用户的输入信息做出反馈,包括撰写求职信、生成教学计划,以及帮助用户优化个人资料等。帕特尔称他的初步估计是基于OpenAI公司的GPT-3模型,而如今最新模型GPT-4已经推出,所以其运行成本可能会更高。
Patel和他的同事Afzal Ahmad称,虽然训练ChatGPT的大型语言模型可能要花费上亿美元,但当这些工具合理部署之后,其运营费可能远远超过了训练成本。
英伟达H100,涨超4万美元
ChatGPT的火热,也让训练和部署大型语言模型所需芯片的需求飙升。
马斯克确认Twitter 采购了大约一万个英伟达计算 GPU,微软、甲骨文为其人工智能和云服务购买了数万个英伟达的A100和H100 GPU。
而在电商平台,英伟达最先进的GPU也被炒出高价。
本周,英伟达H100芯片在eBay多个店铺上的售价已经超过4万美元,而过去该产品曾以3.6万美元的价格出售。
H100是英伟达去年发布的最新的人工智能旗舰芯片,接替了A100, A100是一款被称为人工智能应用“主力”的芯片,售价约为1万美元。根据英伟达的说法,与A100相比,H100 的能效提高了3.5倍。
通常而言,英伟达的A100、H100等AI芯片以企业出货为主,较少在公开市场零售。
微软自研AI芯片降成本
由于高涨的需求和产能的限制,英伟达芯片不仅时常短缺而且价格昂贵,给微软、谷歌这类急于扩充算力的公司形成了较大的压力。
近日,微软就传出了自研芯片和寻找替代方案的消息。
据科技媒体报道,有两位消息人士透露,微软正在开发自己的AI芯片,为ChatGPT背后的关键技术提供动力。报道称,消息人士都是直接了解该项目的人员。他们提到,微软早于2019年就开始了这项研发AI芯片的计划,该计划在公司内部的代号为“雅典娜”(Athena)。
其中一位表示,芯片已经提供给了小部分微软的员工,以及ChatGPT开发商OpenAI的员工,他们正在测试并使用这些芯片。主要用途为训练大语言模型和支持推理,是生成式人工智能(AIGC)背后的关键技术。
Athena项目背后的原因有二:其一,微软高管意识到,他们在自主研发芯片方面落后于谷歌和亚马逊;其二,微软正在寻找更便宜的替代品,该公司目前的人工智能模型是在英伟达的图形处理单元芯片上运行的。
据悉,微软有300多名员工正在研发这款芯片。知情人士透露,该芯片最早可能于明年发布,供微软和OpenAI内部使用。