0°

OpenAI将对抗“人类灭绝风险”

  人工智能对齐(英语:AI alignment)是指引导人工智能系统的行为,使其符合设计者的利益和预期目标。一个已对齐的人工智能的行为会向着预期方向发展;而未对齐的人工智能的行为虽然也具备特定目标,但此目标并非设计者所预期

  – 维基百科

  ”

  OpenAI对抗“人类灭绝风险”

  (这绝不是标题党)

  ChatGPT的创造者OpenAI认为10年内超级智能可能不仅会剥夺人类权力甚至会“灭绝人类”

  因此需要建立新的超级智能对齐技术,用魔法打败魔法

  他们承认”我们没有办法引导或控制可能超级智能的AI,防止它失控。”

  OpenAI和Google’s DeepMind可谓是目前最先进的通用人工智能的制造者。如果这是一个好莱坞剧本,那它可以成为”终结者”的衍生剧或”银河战士”的新前传!

  还记得@elonmusk曾警告

  “

  人工智能的进步速度快得令人难以置信——它以接近指数的速度增长。严重危险的事情发生的风险在五年的时间框架内。最多十年

  – Elon musk

  特斯拉总裁

  ”

  尽管存在灭绝风险,为何要构建“天网”?

  这是我首先想到的问题。我们为什么想要创造超级智能?

  嗯……我并不孤单。今年四月,包括Elon Musk、Stability AI的Emad Mostaque,以及DeepMind的许多研究员和各种教授在内的超过1000名AI领域的人士表示:“大型玩家对他们正在做什么变得越来越秘密,这使社会很难防御可能出现的任何危害。”

  所以我们现在处在一个十字路口,要么我们:

  1)暂停对超级智能的创新

  2)尽可能快地保持创新

  3)位于中间,放慢发展以避免事情失控

  显然,选项3似乎是最合逻辑的解决方案,除非我们是人,人是愚蠢的。我们过于短视,专注于金融回报,而忽视了长期风险。

  AI将解决AI的问题?

  DeepMind和OpenAI一直在处理他们称之为AI对齐的问题,这可能会带来意想不到的结果。

  简单来说,这些系统是被“教”出来的,而不是被编程出来的(你可以把程序想象成一种脚本)。所以如果AI做了我们想要的事情,就会给予正面的反馈,如果做了错事,就会给予负面的反馈。这基本上和训练狗或小孩是一样的。

  不幸的是,对齐的问题在于有时候这并不起作用,机器会做出不可预测的事情。现在将这种情况与比我们更聪明的超级智能混合,那么错误可能会导致核武器的发射或传染病的释放。

  那么OpenAI将会做什么呢? 他们有一个计划,大概是这样的:我们将训练AI来纠正AI的对齐问题,并使其尽可能聪明。

  是的,你没看错:AI将解决AI的问题

  AI安全倡导者Connor Leahy表示,这个计划是有问题的,因为”你必须在构建人类级别的智能之前解决对齐问题,否则你默认就无法控制它。我个人并不认为这是一个特别好或安全的计划。”

  所有的A.I都危险吗?

  答案显然是否定的,AI将以我们无法想象的多种方式改变我们生活的世界,使之变得更好。然而,问题是,好处是否会超过风险?

  以下是基于当前有限应用的A.I的风险清单:

  1)自主武器

  2)社交操纵

  3)隐私入侵

  4)错误信息和假新闻

  5)偏见和歧视

  6)网络安全

  7)工作流失…

  这个列表还在继续。

  我的想法

  AI让我比核战争、大流行病和全球变暖更加担忧。与此同时,它是我能想象到的最令人兴奋的技术之一。

  我认为,在AI失控之前对其进行管制的船已经起航了。人性将迫使我们尽管存在对我们存在的风险,但仍会以我们能够的最快速度进行创新。 人们也不会对此予以关注,至少在太晚之前不会。

  我希望我错了……

  AI让你担忧吗?

0 条回复 A 作者 M 管理员
    所有的伟大,都源于一个勇敢的开始!
欢迎您,新朋友,感谢参与互动!欢迎您 {{author}},您在本站有{{commentsCount}}条评论