0°

ChatGPT是「外星人」,所以才会胡说八道

  LeCun现在是彻底不搞技术了???

  最近他开始从社会科学的角度分析起了爆火的聊天机器人:

  为啥ChatGPT很容易就会胡说八道?

  只因它是外星人。

  这是LeCun和专门研究AI哲学的纽约大学计算机系博士后在最新一篇论文中的观点。

  论文中提到的“外星人”是指从社会规范、自我约束等方面不同于正常社会人的指代。

  (听起来是有点子哲学意味在里面的)

  而文章中提到的观点,可是引起了网友们的热烈讨论。不少网友纷纷表示赞同:

  说得太准确了。

  那LeCun在论文里具体都讲了些啥?

  一起来看~

  ChatGPT为什么不能像人一样?

  当然,要把ChatGPT这类聊天机器人和人放在一起比较,那就得先从人开始入手了。

  第一个问题:

  一般情况下,人为什么不会胡说八道,甚至说出一些“反人类”的话?

  文章给出了三点原因:

  (1) 社会规范:人们不仅要主动遵守外部社会规范,还要受到人体内在规范的约束。

  (2) 惩罚违反者:这里的惩罚更侧重在社交层面的惩罚,违反交谈规范的人容易遭到群体的“排斥”甚至“孤立”。

  (3) 规范已经内化于情感:违反规范时会愤怒,被冒犯会厌恶,被抓住说谎时会羞耻……

  而基于这些原因,人们在讲话之前都会自然而然过滤掉一些言论,以确保更符合社会规范以及自己的内在规范。

  (嗯嗯。当代年轻人现状:表面笑嘻嘻,内心mmp)

  反过来再看看ChatGPT这些聊天机器人。

  相较于人类,它们讲话似乎就更随心所欲,我们没说出来的潜台词它全说出来了。(Doge)

  比如说,ChatGPT的老毛病:胡说八道,最初提示词稍微换个说法,就能让ChatGPT写出毁灭人类计划书。

  甚至还能生成一些带有种族歧视的答案:

  那么第二个问题来了:

  为什么ChatGPT不能像人们一样遵守社会规范呢?

  原因有三:

  (1) 它不需要承担违反社会规范的压力,即使承认自己犯错并道歉后,它也并未意识到原因。

  (2) 它们没有内在目标,它们的唯一任务就是交谈。

  (3) 它们更聚焦在当下的对话,脱离了更大的社会语境,根本不理解人类表达的方式。

  在论文中,LeCun更是直接指出:

  ChatGPT是“外星人”,它根本就不理解并认同社会规范。

  也就是说,ChatGPT只是为了交谈而交谈,而人类在互相交谈时是有社会文化驱动的。

0 条回复 A 作者 M 管理员
    所有的伟大,都源于一个勇敢的开始!
欢迎您,新朋友,感谢参与互动!欢迎您 {{author}},您在本站有{{commentsCount}}条评论