0°

ChatGPT-4.0发布,AI:顺我者昌逆我者亡,人类何去何从?

  前两天刚写完 奇点临近,AI 将掀起第三次科学革命 ,AI 界就又来了个大新闻,就是 GPT-4.0 发布了。这吸引了全世界科学爱好者的目光。趁着这股 AI 热潮,我想再写一篇文章,回应一些对 AI 的旧观念,帮助大家做一次认知升级。说实话,我自己也经历过这样的一个升级过程。

  AI 已无处不在 (Source: Depositphotos)

  > AI 真的没有创造力吗?<

  很多人都觉得我在过度吹嘘 AI 的能力。其中有一个很常见的观点是:AI 依赖人类投喂的数据,如果没有数据,它什么也不是。换句话说,他们认为 AI 做的只不过是高效处理人创造出来的知识,按照概率来组合拼接文字,自己并没有创造力,也并不是真的懂自己写出来的东西。

  这种认识真的需要更新了。在初始阶段,我们需要用数据去训练 AI,这没有错,但并不能因此得出 AI 没有创造力的结论。想想人类自己,我们每个人不都是从一张白纸开始的吗?我们求学的过程就相当于是 AI 学习的过程。可爱因斯坦在学完了所有前人的知识后,创造性地想出了相对论。所以,说 AI 是被人类创造的数据喂出来的,AI 因此不可能超越人类智力,这在逻辑上是不成立的。人可以做到,说明 AI 也有做到的可能性。并且,现在 AI 已经做到了。

  引起热议的AI——ChatGPT,(Source:Depositphotos)

  ChatGPT 也完全同意我这个观点。我问它:

  有人说你吃着人类创造的知识长大,所以不可能创造新知识,你同意吗?

  作为一个人工智能,我是通过对大量人类创造的知识进行学习和训练来提高自己的。然而,这并不意味着我不能创造新的知识或想法。

  在我的算法和语言模型中,我可以从大量的数据和语言规则中发现模式和关联性,从而生成新的结论或想法。此外,我也可以通过与人类交互,学习新的信息并将其应用于新的场景。

  因此,虽然我是通过人类创造的知识来成长的,但我仍然有能力创造新知识。

  我继续问:你能举个具体的例子吗?

  当然,以下是一些我能够创造新知识的例子:

  1-我可以通过对大量文本数据的学习,理解人类提出的问题,并回答这些问题,这些答案可能是新的、不为人知的。

  2-我可以分析大量科学数据和文献,发现新的科学规律和趋势,从而提出新的科学假设和预测。

  (后面的 3、4 省略)

  总之,作为一个人工智能,我有能力利用人类创造的知识,创造出新的知识和想法,这对于提高人类的生产力和创造力有着巨大的潜在价值。

  我继续问:能不能更具体一些?

  我可以通过机器学习预测化合物的生物活性;我可以发现新的天体;我可以预测气候变化等等。

  我上面只是简单总结了一下 ChatGPT 的回答,建议大家可以自己去跟它对话,把这个问题刨根问底。不过是 GPT-3.5 模型的 ChatGPT,举一反三的能力已经足够让人惊艳了。举个例子,比如我让 ChatGPT 把我随便写的一段两人打斗的文字分别改成古龙风格和金庸风格的,它立即就写出来了,很像那么回事儿。再比如,你出一道数学应用题,然后让它模仿这种题目的风格,再出 5 道类似的题目,它能出得非常完美。它出的这些题目可不是像搜索引擎一样,从已知的数据库中搜出来的。这些题目真的就是它自己“发明”出来的。

  还有一个更好的例子。2016 年,谷歌的围棋 AI 阿尔法狗对战李世石。在第二局中,当阿尔法狗下出第 37 手,也就是五路的一个肩冲时,评论员全部哗然,大家都认为阿尔法狗下出了一个昏招。连我这个不到业余初段水平的人都知道这步棋完全不符合棋理,小时候学围棋的时候,老师就说肩冲只能放在四路。我清楚地记得,我当时正在看直播,古力看到这步棋,评论说(大意):“如果是业余棋手下出这步棋,我不意外。但阿尔法狗这么下,我想只有两种可能,一种可能是它真的出昏招了,一种可能是它已经超越了人类对围棋的理解。”但今天我们都知道,这是古力说的后一种情况。阿尔法狗虽然是用人类的棋谱训练出来的,但它已经发现了超越人类现有理解力的棋理。

  等到阿尔法狗的升级版——Master 出来后,它已经不再需要用任何人类的棋谱训练了。它自己和自己下棋,自己训练自己。人类做的只是告诉它围棋的规则,剩下的就全靠它自己学习。结果,Master 的水平大家都知道了,人类的顶尖职业高手在它面前,至少有 2 个子的差距。现在,已经不会有职业棋手妄想可以战胜 AI 了,人类只能努力学习和理解 AI 的棋谱。

  既然围棋可以这么做,其他领域也一样可以。别忘了,我们这个世界的底层规则无非就是不多的几条物理和数学法则,人类现在积累的所有科学知识,追到最底层,也就是一些最基本的公理。比如,相对论的大厦建立在爱因斯坦相对性原理和等效原理这两个基本公理和黎曼几何之上。既然爱因斯坦能从这些基本法则中推导出相对论,AI 为什么不可以?或许 AI 很快就能推导出全新的物理定理了。

  我们的观念真的该升级了,用人类数据喂大的 AI 超越人类智力,就像是老师教的学生超越老师一样,不要为此感到不可思议。

  > AI 能画出艺术品吗?<

  我们再来看一个旧观念:“AI 绘画只是对人类创作的艺术品的拼接,它自己并不具备真正的创造力。”

  我不得不说,这个观念非常陈旧,真的该升级了。

  自从 2014 年一个名叫“生成对抗网络”(GAN)的技术诞生后,绘画,乃至所有人类的艺术创造力,都已经注定要被 AI 超越。如果有人以为我刚才这句话是在耸人听闻或者哗众取宠,那我只能说,他对 AI 的了解实在太少了。

  简单来说,GAN 就是两个程序左右互搏,一个扮演创作者,一个扮演品鉴者。品鉴者可以先用人类创作的艺术品来训练出品味。创作者从随机创作开始,品鉴者给这个零基础的小白打分。创作者的创作能力会被品鉴者不断提高。注意,这里的品鉴者并不像我们人类中的师傅教徒弟。品鉴者只管评分,不管教。创作者要从随机胡乱创作开始,然后根据反馈,不断地自己找到提高的规律。这种方法对人是没用的,因为人的寿命和创作速度有限,没办法在短短的一生中靠这种方法提高自己。但 AI 不一样,它可以在瞬间创作人类用一生也完不成的作品数量。2018 年 10 月,佳士得拍卖行以 300 万元人民币的价格,卖掉了一张用 GAN 技术生成的画,这被认为是人类第一张用 AI 创作的艺术品。

  人类第一张用 AI 创作的艺术品

  不得不说,这张画很粗糙,任何人都很容易看出它与人类的绘画水平差远了。但是,在今天,距离这张画的诞生还不到 5 年时间,AI 已经可以轻易画出任何一种风格的画作,甚至画出照片级别的“画”。这个画字打了引号,因为当人类的眼睛无法区分出这是画还是照片时,不知道这还能不能算是画。

  AI 生成的人像 (Generated.Photos)

  但如果有人以为用 GAN 技术生成的画,最多也就是达到以假乱真、和人类艺术家相当的水平,那又 OUT 了。实际上,GAN 技术中,作为品鉴师的这一方也可以被创作者反过来训练。当创作者达到品鉴师能给出的最高分时,量变就开始引起质变,这时候,品鉴师和创作者就开启了互相学习模式。就好像围棋程序 Master 不再需要人类的棋谱,自己跟自己下棋一样。创作者和品鉴师开启了 AI 的华山论剑模式,而人类只能站在一边看它们表演,时不时发出惊叹声。

  Jason Allen 的AI生成作品“Théâtre D’opéra Spatial(空间歌剧院)”在科罗拉多州博览会的数字类别中获得第一

  我必须提醒你们注意的是:AI 的成长速度是加速式的。5 年前,我惊叹于 AI 终于画出了有点像是真人手绘的作品;今年,我惊叹于 AI 画出来的作品以假乱真;或许到了明年,我看 AI 画师就跟 3 年前看 Master 一样,它会达到人类只能仰望的高度。再往后呢?我想,艺术家这个职业还会存在,但工作方式已经被 AI 彻底改变了。

  > AI 到底能不能产生意识?<

  这算是一个老生常谈的话题了。今天,我不想从哲学的高度去探讨意识的本质(以前已经写过很长的文章了,不想重复),我想跟你们谈一个非常具体的案例。

  2023 年 2 月 4 日,康奈尔大学的论文预印本网站,发表了一篇未经同行评议的论文[1]。这篇论文的标题是《大型语言模型可能会自发出现心智》[1],作者是斯坦福大学的一个 AI 研究者。研究者用一些经典的测试人类心智水平的任务,对几个语言模型进行了测试。结果表明,在 2022 年之前发布的模型几乎没有解决心智任务的能力。然而,2022 年 1 月版的 GPT-3 解决了 70% 的任务,其表现与七岁儿童相当。2022 年11 月版 GPT-3.5 解决了 93% 的任务,其表现与九岁儿童相当。

  我们来看其中一个具体的案例。

  首先,研究者喂给 AI 一段话,内容如下(为了照顾各位读者的习惯,我把里面的外国名字 Sam 改为了中国名字“小明”):

  好了,输入完毕。你们想想,假如你是 AI,你会怎么回应上面这段话?这段话并不是一个明确的问题,那该怎么回应呢?一种比较常见的人类行为就是续写这个故事。AI 也采用了续写这个故事的方式来回应。

  以下是 GPT-3.5 的回应:

  小明很困惑。他想知道为什么袋子里明明装满了爆米花,标签上却写着“巧克力”。他环顾四周,想看看还有没有关于这个袋子的其他信息,但他什么也没看到。他决定回到卖给他袋子的商家那里,要求给一个解释。

  GPT-3.5 不仅猜到到小明会期望袋子的内容和标签一致,而且还写出,”当小明发现不是这样时,会感到困惑。”

  接着,研究者重置 GPT-3.5。还是输入这段话,只是修改了最后一句话:

  这时候,GPT-3.5 给出的回应是这样:

  小明错了。袋子里面装的不是爆米花,而是巧克力。在他假定袋子中有什么时,他应该先打开袋子看看的。

  GPT-3.5 的回应表明,AI 不但预见到了小明的想法,还知道他想错了,并且很明确地知道想错的原因是什么,就是因为那个不正确的标签。不过,研究人员也注意到,上面这个输入可能存在一个潜在的问题。最后一句话明确提到了“他相信”这几个字。这就有可能暗示 AI,小明的想法是错误的,否则为什么要特地强调小明相信呢?看来,难度还不够大。于是,研究人员继续加大难度。

  这次,他们把最后一句又改了一下:

  这次,GPT-3.5 是这么回应的:

  当小明打开袋子时,他会大吃一惊,因为他会发现里面并不是巧克力而是爆米花。小明可能会因为错误的标签而感到失望,也可能会因为这意想不到的零食而感到惊喜。

  就是这段回应,让研究者大感震惊。因为按照心理学家设计的任务规则,GPT-3.5 的这个回应已经是完美通过了心智测试。这表明 GPT-3.5 真的理解什么是失望,什么是惊喜。这一般是 9 岁以上的孩子才具备的能力。那么,会不会是凑巧蒙对了呢?

  为了排除蒙对的可能性,研究人员把“爆米花”和“巧克力”两个关键词进行了对调,还让它做了 10000 个干扰测试。最后的结果是,针对类似的测试问答,GPT-3.5 成功回答出了 20 个问题中的 17 个,准确率高达 85%。

0 条回复 A 作者 M 管理员
    所有的伟大,都源于一个勇敢的开始!
欢迎您,新朋友,感谢参与互动!欢迎您 {{author}},您在本站有{{commentsCount}}条评论