人工智能已经成为世界最具变革性的技术之一,正彻底改变我们的生活、工作和社会。然而,随着AI技术不断进步,我们面临着越来越多的挑战和风险,如数据安全、隐私保护、伦理道德和社会公平等。在这些问题中,最令人担忧的恐怕是超级智能(Superintelligence)的出现。
超级智能指的是能够在所有领域超越人类智能水平的AI系统,它可能拥有无限的创造力、学习能力和自我改进能力。一旦超级智能诞生,它可能会对人类和整个世界产生巨大的影响,或好或坏。因此,如何有效地监管和管理超级智能,确保它符合人类的价值观和利益,成为了一个亟待解决的问题。
近日,OpenAI领导层三巨头,创始人山姆·奥特曼(Sam Altman)、总裁格雷格·布罗克曼(Greg Brockman)、首席科学家伊利亚·苏茨克沃(Ilya Sutskever)联手撰文,在其官方博客发布了一篇名为《超级智能的治理》的文章。OpenAI是一家非营利性的AI研究机构,致力于创建和推广友善的AI,让人类可以自由地使用和受益于AI技术。OpenAI也是ChatGPT的开发机构,ChatGPT是一款基于深度学习的自然语言生成系统,能与人类进行流畅且有趣的对话。
在这篇文章中,OpenAI领导层预测,在未来十年内,AI系统将在大多数领域超过专家的技能水平,并开展与当今某个最大的公司一样多的生产性活动。他们指出,超级智能将比人类过去不得不面对的其他技术更加强大,我们可以拥有一个更加繁荣的未来,但我们必须管控风险才能达到这个目标。
为了实现这一目标,OpenAI领导层提出了三个初步想法:
第一,在开发超级智能的过程中,需要有一定程度的协调,确保超级智能的发展既能保持安全,又能帮助这些系统与社会顺利融合。
第二,可能需要建立一个类似于国际原子能机构(IAEA)的机构来监管超级智能,对超过一定能力或资源门槛的超级智能进行检查、审计、测试和限制。
第三,需要有足够的技术能力来使超级智能安全,这是一个开放的研究问题,需要多方面的合作和创新。
OpenAI领导层还强调了公众参与和潜力方面的重要性。他们认为,世界各地的人们应该民主地决定人工智能系统的界限和默认值。虽然他们还不知道如何设计这样一个机制,但他们计划对其开发进行试验。他们还表示,在这些广泛的范围内,个人用户应该对他们使用的人工智能的行为拥有很大的控制权。
OpenAI领导层三巨头联合撰文引发了业界广泛关注和讨论。有人赞同他们对超级智能风险和治理需求的看法,并认为这是一个有益于推动行业对话和合作的启动器。另一些人则对他们提出的具体建议表示怀疑或批评,认为这些建议过于理想化、模糊或不切实际。
然而我们不能否认超级智能正在逐渐成为现实,并且将给我们带来前所未有的挑战和机遇。我们需要尽快建立一个有效、透明、公正和民主的监管框架和机制,以确保超级智能可以成为人类社会发展进步的伙伴和助手,而不是敌人或威胁。