0°

OpenAI发布GPT-4,做题能力更强,还接受图片输入,看懂梗图无障碍!

  大数据文摘出品

  GPT-4终于发布了!

  资本市场狂欢之后,GPT-4在万众瞩目下诞生,OpenAI在其官网以《GPT-4是 OpenAI 最先进的系统,能够产生更安全、更有用的响应》为题发布了这一最新模型。

  这一迭代速度不可谓不快,仅仅四个月前,ChatGPT 刚刚推出,并成为历史上增长最快的消费者应用程序。

  总的来说,GPT-4提高了 ChatGPT 的核心技术,使得它相比此前的版本,具有更广泛的一般知识和解决问题的能力,使得聊天软件能够以更高的准确度解决更难的问题。

  另外,它还增加了一些新功能,比如接受图像作为输入,生成标题、分类和分析。

  GPT-4还能够处理超过25000字的文本,允许用例如长形式的内容创建、扩展会话、文档搜索和分析等。

  新能力:看懂梗图无障碍

  GPT-4 模型中最大的更新之一是它引入了图像作为输入,并对其生成标题、分类和分析,而GPT-3.5 只能接受文本。

  比如下面这个例子:

  问题:这幅图有什么好笑的? 一点一点描述它。

  GPT-4 回答:该图像显示了一个包含三个图片的“Lightning Cable”适配器。

  图1: 一个智能手机与 VGA 连接器(一个大型,蓝色,15针连接器通常用于计算机显示器)插入其充电端口。

  图2: “Lightning Cable”适配器的封装,上面有一个 VGA 连接器的图片。

  图3: VGA 连接器的特写镜头,最后是一个小型Lightning连接器(用于为 iPhone 和其他苹果设备充电)。

  这张图片中的幽默来自于将一个过时的大型 VGA 连接器插入一个小型的现代智能手机充电端口的荒谬。

  目前,虽然 GPT-4 的能力不足以实现文本到视频的生成和其他动态生成内容,但它确实提供了一个多元素聊天在未来将会是什么样子的一瞥,很容易想象,在未来,视频、音频、图像和所有其他形式的内容将如何集成到聊天中。

  旧能力:当任务足够复杂,GPT-4 就会比 GPT-3.5 高出一截

  GPT-4 作为 OpenAI 在扩展深度学习方面的最新里程碑,本质上是一个大型的多模态模型(接受图像和文本输入,发出文本输出) ,虽然在许多现实世界的场景中不如人类,但在各种专业和学术基准上,其能力已经接近甚至超过人类水平的表现。

  例如,它通过了模拟律师资格考试,成绩在前10% 左右; 相比之下,GPT-3.5的成绩在后10% 左右。

  如果只是随意的交谈,GPT-3.5和 GPT-4 之间的区别可能是微妙的,但是当任务的复杂性达到一个足够的阈值时,差异就会显现出来ーー与 GPT-3.5相比,GPT-4更可靠、更有创造性,并且能够处理更多细微差别的指令。

  为了理解这两个模型之间的区别,OpenA测试了各种基准,包括模拟最初为人类设计的考试,可以看出,在更高级的测试中,GPT-4 表现比 GPT-3.5 好很多。

  再比如下面这个例子,可以看出,GPT-4确实理解能力更胜一筹。

  OMT:引入更多人工反馈

  为了增加模型的复杂性,GPT-4还加入了更多的人工反馈,包括 ChatGPT 用户提交的反馈,以改进 GPT-4的行为。OpenAI 表示,该公司“与50多位专家合作,在包括人工智能安全和安保在内的领域提供早期反馈。”

  作为声明的一部分,OpenAI 分享了几个已经测试过 GPT-4的公司的用例,包括 Duolingo,Stripe,Morgan Stanley 和冰岛政府。该公司还分享了一个 GPT-4 的研究博客,并强调“ GPT-4仍然有许多已知的限制,我们正在努力解决,如社会偏见,幻觉和对抗性提示。”

  计算机科学家、布朗大学(Brown University)教授苏雷什•文卡塔苏布拉曼尼亚(Suresh Venkatasubramanian)对这一消息仍持谨慎乐观态度。在VentureBeat的一次采访中,他说: “我很想看看 ChatGPT 在公众注视下进行的压力测试中,它是如何表现的,我特别感兴趣的是,它是否以及如何产生欺骗性的真实内容,以及有什么保护措施可以防止这种情况发生。”

0 条回复 A 作者 M 管理员
    所有的伟大,都源于一个勇敢的开始!
欢迎您,新朋友,感谢参与互动!欢迎您 {{author}},您在本站有{{commentsCount}}条评论