0°

OpenAI CEO呼吁,美中合作应对AI风险!网友:人类应该共谋发展

  近段时间 人工智能的崛起,让人类与科幻作品中的幻想更接近了一步。就在绝大部分人都沉迷于对ai的幻想时,还有一小批人却在警告,警告人们ai可能带来的风险,位于波士顿的生命未来研究所(Future of Life Institute)曾发表过一封公开信,呼吁全世界实验室暂停发展比OpenAI公司的GPT-4更为先进的人工智能,并由科技行业的一些知名人士签署。

  对此,不少人赞同,也有不少人反对,数据公司Palantir CEO就发言反驳了“暂停人工智能研究”的想法称:呼吁暂停AI研发的企业是因为他们没有AI产品

  而就在昨日,6月12日,OpenAI CEO呼吁美国同中国合作应对AI风险,在山姆·奥特曼(OpenAI CEO)连线参加北京召开的ai会议时表示,“中国拥有一些世界上最优秀的AI人才,”山姆·奥特曼说。“所以我真心希望中国的AI研究人员能在这方面做出巨大贡献。”

  AI 教父 杰弗里·辛顿

  对话中主要强调安全和可解释性。说明目前对于这两个问题引起了大家的重视。之前的Al安全主要以防范对抗攻击为主,虽然是比较重要,但是没有引起足够的重视。

  而随着GPT能力越来越强大,diffusion model生成能力越来越强大,文字图像混淆网络信息越来越容易,并且大家过于相信GPT的生成内容,造成知识污染,记忆篡改,这些影响是切实发生的,而且影响巨大。

  所以AI安全能够被进一步重视起来,对于学术界也是好事,相当于原有领域中又有新的问题出现,值得跟踪挖掘。

  在对话中,Sam Altman 特别提到了 OpenAI 最近关于可解释性的工作,即使用 GPT-4 对 GPT-2 中的神经元激活模式进行解释。这表明 OpenAI 内部非常重视这个工作,而且这个工作也非常有趣。

  然而,GPT 模型本身就是文本生成模型,因此可以为神经元提供语义文本解释,从而提高解释性和逻辑性。所以,借助一个功能强大、逻辑严密的 AI 模型对自身的运行行为进行解释可能是一种可行方法,正如人类也需要为自己的行为找到合理的解释。因此,在大型模型时代,研究可解释性是一个充满机会的领域。随着更多新问题和新方法的出现,这个领域值得我们关注。

0 条回复 A 作者 M 管理员
    所有的伟大,都源于一个勇敢的开始!
欢迎您,新朋友,感谢参与互动!欢迎您 {{author}},您在本站有{{commentsCount}}条评论