0°

可以识别图像了!OpenAI推出GPT-4大型语言模型

  作为开发市面上热度最高的AI聊天机器人的公司——OpenAI可以说在最近倍受关注。

  但在今日,OpenAI刚刚公布了其大型语言模型的最新版本——GPT-4,用来替代之前在使用的GPT-3.5。

  据官方介绍,GPT-4 是一个超大的多模态模型,也就是说,它的输入可以是文字,还可以是图像。

  GPT-4比以前的版本“更大”,这意味着它已经借助比之前版本的模型进行了更多数据的训练,并且在模型文件中有更多的权重,从而使得它的运行成本更高。

  就任务而言,GPT-4的表现比之前版本的模型更好,它可以遵循自然语言的复杂指令并生成技术或创意内容,而且它可以还更深入地做到这一点:它支持生成和处理多达32768个标记(约25000个文本单词),从而实现比前辈更长的内容创建或文本分析。

  OpenAI表示,GPT-4错误答案更少,而且也会减少偏离话题的可能,也尽可能不会再谈论禁忌话题,甚至在许多标准化测试中比人类表现得都要更好一些。

  例如,GPT-4在模拟律师考试的成绩在考生中排名前10%左右,在SAT阅读考试中排名前7%左右,在SAT数学考试中排名前11%左右。相比之下,GPT-3.5在律师考试中的得分一般都是倒数10%左右。

  OpenAI计划通过ChatGPT及其商业API为用户提供GPT-4的文本功能支持,但目前还需要等待。需要注意的是,GPT4目前仅ChatGPT plus账号可用,可选GPT4模式进行对话,每4小时限制发送100条消息。

  收费方面,大约750个单词的提示收取约3美分的费用,约750个单词的响应则收取6美分。

  目前相关产品已经正式开始启用GPT-4的模型,但该模型仍存在一些问题,据相关媒体报道称,该模型仍然存在“幻觉”或编造事实的问题,并且在事实方面也不一定总是可靠的,“它倾向于坚持认为它是正确的,即使它错了”。

  目前新模型已经正式启用,感兴趣的小伙伴可以体验一下。

0 条回复 A 作者 M 管理员
    所有的伟大,都源于一个勇敢的开始!
欢迎您,新朋友,感谢参与互动!欢迎您 {{author}},您在本站有{{commentsCount}}条评论