据The Information报道,ChatGPT的巨大受欢迎程度和强大功能使其维护成本高得惊人,根据研究公司SemiAnalysis的数据,OpenAI每天要支付高达70万美元来维持其强大的基础设施的运行。
该公司首席分析师迪伦•帕特尔对《华尔街日报》表示:“大部分成本都是基于它们所需的昂贵服务器。”
帕特尔在后续采访中告诉Insider,现在的成本可能会更高,因为这些估计是基于GPT-3,即以前的型号,为现在免费版本的ChatGPT提供动力。
帕特尔表示,OpenAI的最新型号GPT-4的运行成本甚至更高。
这并不是ChatGPT独有的问题,因为人工智能,尤其是那些兼作搜索引擎的会话型人工智能,运行起来非常昂贵,因为它们背后昂贵的专用芯片非常耗电。
这就是为什么微软已经在OpenAI上投资了数十亿美元,正在准备自己的专有人工智能芯片。据The Information的报道,该系统内部被称为“Athena”,据报道自2019年以来一直在开发中,现在可供微软和OpenAI的少数员工使用。
在部署该芯片时,微软希望取代目前使用的英伟达图形处理单元,采用更高效的处理器,从而降低运行成本。
说得轻一点,潜在的节省可能是巨大的。
Patel告诉the Information:“如果雅典娜具有竞争力,与英伟达的产品相比,每个芯片的成本可以降低三分之一。”
虽然这将标志着微软首次涉足人工智能硬件——它落后于竞争对手b谷歌和亚马逊,后者都有自己的内部芯片——但微软可能不会全面取代英伟达的人工智能芯片,因为双方最近达成了一项为期数年的人工智能合作协议。
然而,如果雅典娜真的是谣言所说的那样,那么它不会很快到来。
上周,OpenAI首席执行官萨姆·奥特曼表示,“我们正处于巨型人工智能模型时代的终结”,因为像ChatGPT这样的大型语言模型似乎正接近一个回报递减的点。据报道,OpenAI最新的GPT-4模型拥有超过1万亿个参数,根据OpenAI自己的分析,该模型可能已经接近实际可扩展性的极限。
虽然更大的尺寸通常意味着更强大的功能,但如果帕特尔的分析是正确的,所有这些增加的膨胀将推高成本。
但考虑到ChatGPT的巨大成功,OpenAI可能并不缺钱。