0°

OpenAI逆天发布ChatGPT API!100万个单词才18元,价格打骨折

  【新智元导读】OpenAI又出逆天操作了,正式开放ChatGPT API,便宜了90%,开发者可以人手一个ChatGPT了。

  ChatGPT爆火之后,各种「自制API」层出不穷,中间商们也一个个赚得盆满钵满。

  这次,OpenAI终于下定决心——正式开放ChatGPT API!

  ChatGPT API地址:https://platform.openai.com/docs/guides/chat

  现在,不要耗费数年,不要投资数十亿美元,企业、个人开发者就能使用ChatGPT这样的当红顶流模型了!

  而且,每输出100万个单词,价格才2.7美元(约18元人民币),比之前的GPT-3.5,直接便宜了10倍。

  这个操作可谓拳拳到肉,所以,在ChatGPT背后苦追的硅谷大厂们,比如谷歌,还有活路吗?

  太长不看版:

  ChatGPT API——0.002美元,1000个token

  Whisper API——0.001美元,10秒语音转录

  基于gpt-3.5-turbo模型,在微软Azure上运行

  大客户(每天超过4.5亿个token)选择专用实例更实惠

  默认情况下,提交的数据不再用于AI训练

  价格打1折,人手一个ChatGPT

  从今天起,开发者可以正式将ChatGPT集成到自己的产品和服务中了。并且,价格比其他现有的语言模型要便宜得多。

  OpenAI此举,大大降低了技术研发成本。开发者将ChatGPT集成到自家应用和服务的门槛,将大大降低。

  现在,谁都可以开发自己的ChatGPT了!

  这无论对于企业还是个人开发者,都是重大利好,看来,全民AIGC时代,真的要来了。

  唯一受到冲击的,当然就是其他研究底层模型的厂商了,比如早早宣布了Bard、但现在还没开放测试的谷歌。

  显然,现在对于OpenAI来说,快速占据市场,才是一等一重要的事。为了把竞争对手甩在后面,成本什么的,可以暂且先不考虑。

  ChatGPT和Whisper模型现已在我们的API 上可用,开发人员能够使用尖端语言(不仅仅是聊天!)和语音转文本功能。通过一系列系统范围的优化,自去年12月以来,我们已将ChatGPT的成本降低了90%;我们会让这些节省的资金惠及API用户。开发人员现在可以在API中使用我们的开源Whisper large-v2模型,获得更快且更具成本效益的结果。ChatGPT API用户可以期待持续的模型改进,选择专用容量,以更深入地控制模型的选项。我们还仔细听取了开发人员的反馈,并改进了我们的API服务条款,以更好地满足他们的需求。

  此外,ChatGPT API都用法也十分简单,只需「import openai」即可。

  便宜了10倍不止

  从公告中可以看到,OpenAI节省了成本的好处,API用户也可以共享了。

  这次开放的模型被称为gpt-3.5-turbo,每1000个token的成本为0.002美元,比现有的GPT-3.5模型还要便宜10倍。

  所以,这是一场与谷歌的价格战吗?

  这个领域的进入成本一直如此之高,以至于LLM服务将成为赢家通吃的市场

  之所以能这么便宜,在一定程度上要归功于「系统范围的优化」。

  虽然1,000个token看起来很多,但其实,发送一段供API响应的文本,可能就会花费多个token。(token是指系统将句子和单词分解成的文本块,以预测接下来应该输出什么文本。)

  根据OpenAI 的文档,「ChatGPT 很棒!」 有六个token——它的API会把这个句子分解为「Chat」、「G」、「PT」、「is」、「great」和「!」。

  而OpenAI提供了一种工具来检查解释一串文本需要多少token,一般的经验是,「一个token通常对应于英语中的4 个字符」。

0 条回复 A 作者 M 管理员
    所有的伟大,都源于一个勇敢的开始!
欢迎您,新朋友,感谢参与互动!欢迎您 {{author}},您在本站有{{commentsCount}}条评论