本文章由AI整理生成。AIIAL——用AI了解AI:AI行业咨询、软件服务、技术交流…微信搜索ALLAI加入交流群!
近日,机器人学研究员和AI专家罗德尼·布鲁克斯在接受IEEE Spectrum杂志采访时表示,我们过分高估了OpenAI的大型语言模型(如热门聊天机器人ChatGPT)。他认为,这些工具比我们想象的要愚蠢得多,距离能在智力层面与人类竞争还有很长的路要走。总的来说,我们在预测AI的未来时犯了很多错误。
布鲁克斯否认了AI能够发展成人工通用智能(AGI),具有与人类类似智力水平的观点。他告诉该杂志:“不会的,因为它没有对世界的基本模型。它与世界没有任何联系。它只是语言之间的关联。”
布鲁克斯的观点提醒我们认识到AI技术目前的局限性,以及我们如何很容易赋予其原本只是模拟人类的言论以意义。他在采访中表示:“我们看到一个人做某事,我们知道他们还能做什么,我们可以迅速做出判断。但是我们将AI系统的性能推广到能力的模型是行不通的。”
换句话说,目前的语言模型虽然让我们觉得它们可以推导出逻辑意义,但实际上它们做不到 —— 这可能会很容易误导用户。“大型语言模型擅长的是回答应该听起来像什么,而不是回答应该是什么。”布鲁克斯说。
布鲁克斯透露,他尝试利用大型语言模型完成“神秘编码”的工作,但遇到了很多麻烦。“它给出的答案非常自信,我有时会相信它。但一半时间,它都是错的。我花了两三个小时试着用它的提示,最后才发现没用,它才会采取其他方式。”
简而言之,布鲁克斯认为这项技术的未来版本可能会有一些有趣的应用,但不会是真正的AGI。考虑到AI系统超越人类智力的风险,这样或许更好。
关于ChatGPT的更多信息:ChatGPT很乐意编写关于极度隐晦性行为的低俗文章。