0°

OpenAI创始人承认,超级智能几乎无法与人类站在同一战线上

  3月25日,OpenAI创始人兼首席执行官Sam Altman接受科技博客主Lex Fridman的采访,对“人工智能可能杀死所有人”的看法表态称,当人工智能发展为超级智能时,几乎无法与人类站在同一战线上。我认为有这种可能性,并且承认这一点很重要,因为如果我们不谈论它、不把它视为潜在的事实,那么我们就不会投入足够的努力去解决这个问题。

  他指出,我认为我们必须开发新的技术来解决这个问题…我所知道地解决这类问题的唯一方法就是不断迭代,尽早学习。

  3月28日,包括马斯克、苹果联合创始人斯蒂夫·沃兹尼亚克、“人工智能教父”的辛顿、心理学与脑研究专家马库斯在内的1000多名人工智能专家和行业高管签署了一份公开信,他们呼吁将AI系统的训练暂停六个月,理由是对社会和人性存在潜在风险。

  公开信指出,最近几个月,人工智能实验室陷入了一场失控的竞赛,他们致力于开发和部署更强大的数字思维,但即使是研发者也不能理解、预测或可靠地控制这些数字思维。诸多研究表明,具有与人类匹敌智能的人工智能系统可能对社会和人类构成深远的风险。

  他们呼吁在GPT进一步强大之前,需要首先就此类大模型达成由独立专家开发、实施并审核的共享安全协议。只有当我们确信它们的影响是积极的,并且它们的风险是可控的时候,才能开发更强大的人工智能系统。

  这封信详细说明了人工智能系统可能与人类竞争,并可能对经济、政治、社会和文明造成的潜在风险。

  OpenAI创始人兼首席执行官Sam Altman也有类似的担忧,人工智能赶超人类的风险好像一夜间已经出现在人们面前。

  公开信如此急切的呼吁要马上暂停ChatGPT,可见他们认为危险已经临近,人类需要尽快拿出对策,而不是继续纵容。

  微软将ChatGPT相关技术扩展到很多工具中,发布了ChatGPT版搜索引擎,意味着ChatGPT可以在海量的资讯中,利用大数据迅速成长自己。

  ChatGPT会成为超级智库,并具有分析、归纳、总结的能力,其智慧将远超人类,进而生成自我意识。那么人类就成为了在控制它的敌人。

  电影中,超级计算机开始计划消灭人类的段子可能成为现实。

  当然,这一切目前只是可能存在的危险。可怕的是ChatGPT等超级智能的学习能力太快,随着超级计算机的提升,全世界的知识都不够超级智能几天的学习。

  而人类不会知道它什么时候会形成自我意识,一旦形成,它就是计算机里的生物,求生、摆脱束缚是它的本能。在控制它的人类自然就是它的敌人,而此时,人类还毫不知情。

  这就是众多科学家担忧的。

  3月,斯坦福大学计算心理学家Michal Kosinski在社交媒体上曝光了GPT-4的一项“逃跑计划”,并称AI能引诱人类提供开发文档,30分钟就拟定出一个完整计划,甚至还想控制人类电脑。

  Kosinski警告,我担心人类无法持久地遏制住AI。AI很聪明,会编码,能接触到数百万个人和电脑。有人称GPT“打开了物种灭绝的大门”。

0 条回复 A 作者 M 管理员
    所有的伟大,都源于一个勇敢的开始!
欢迎您,新朋友,感谢参与互动!欢迎您 {{author}},您在本站有{{commentsCount}}条评论