美媒:ChatGPT让人既乐观又担忧

  美国《纽约时报》网站3月8日刊登题为《ChatGPT的成功假象》的文章,作者为美国亚利桑那大学语言学教授诺姆·乔姆斯基、英国剑桥大学语言学教授伊恩·罗伯茨和美国奥西尼特公司人工智能研究负责人杰弗里·瓦图穆尔。全文摘编如下:

  阿根廷诗人、小说家兼翻译家豪尔赫·路易斯·博尔赫斯曾写道,生活在一个充满巨大危险和巨大希望的时代,既要经历悲剧,也要经历喜剧。今天,我们在人工智能领域取得的所谓革命性进展的确让人既乐观又担忧。令人乐观是因为智慧是我们解决问题的手段;令人担忧是因为我们害怕最流行和最时髦的人工智能(机器学习)会像病毒毒株一样将有根本缺陷的语言和知识概念融入我们的技术,从而降低我们的科学水平并降低我们的道德规范。

  美国开放人工智能研究中心(OpenAI)的聊天机器人ChatGPT、谷歌公司的巴德(Bard)和微软公司的悉尼(Sydney)都是机器学习的奇迹。粗略地说,它们获取大量数据,搜索其中的模式,并越来越熟练生成统计学上很可能的输出(如类似人类的语言和思想)。这些程序被誉为通用人工智能领域的第一缕曙光——这是一个早就预言的时刻,即机械思维不仅在处理速度和存储规模等数量方面,而且在智慧洞察力、艺术创造力和其他人类特有的能力质量方面超过人类大脑。

  这一天也许会到来,但目前尚未破晓,这与夸张的头条新闻和不明智的投资所预料的情况截然相反。不管这些程序在某些狭窄的领域里多么有用,但我们从语言学和认知哲学中知道,这些程序与人类的推理和运用语言的方式仍大相径庭。这些差异极大地限制了这些程序的功能,使它们带有无法根除的缺陷。

  人类大脑不是像ChatGPT及其同类产品那样的笨拙的模式匹配统计引擎,吞噬大量数据和推断出最可能的对话响应,或对一个科学问题推断出最可能的答案。相反,人类大脑是一个非常高效甚至优雅的系统,只需要少量信息即可运作;它不寻求推断数据点之间的根本关联性,而是寻求创造解释。

  此类程序还停留在认知进化的人类出现之前或非人类的阶段。它们最深的缺陷是缺乏智慧所具备的最关键能力:不仅可以说出现在的情况是什么、已经发生了什么情况以及将要发生什么情况(这是描述和预测),而且还可以说出不是什么情况以及可能会是什么情况和不可能会是什么情况。这些都是解释的内容,是真正智慧的标志。

  真正的智慧也能够进行道德思考。这意味着用一套道德原则来限制我们思想的无限创意,这些道德原则决定应该是什么不应该是什么(当然还要让这些原则本身受到创造性的批判)。要想有用,必须赋能ChatGPT使其能够生成外观新颖的输出。要为多数用户所接受,它必须避开道德上令人反感的内容。但是ChatGPT和其他机器学习的编程员一直在努力而且仍将继续努力实现这种平衡。

  简而言之,从本质上讲,ChatGPT及其同类产品无法平衡创意与约束。它们要么生成过度(既生成真相又生成虚假,既支持道德的决定又支持不道德的决定),要么生成不足(表现出对任何决定的不采取立场和对任何后果都漠不关心)。鉴于这些系统具有无法分辨是非、伪科学,以及语言组织能力不完善的特质,我们对它们的流行只能啼笑皆非。

0 条回复 A 作者 M 管理员
    所有的伟大,都源于一个勇敢的开始!
欢迎您,新朋友,感谢参与互动!欢迎您 {{author}},您在本站有{{commentsCount}}条评论