0°

我们有点害怕:OpenAI CEO警告人工智能的风险

  开发有争议的面向消费者的人工智能应用程序 ChatGPT 的公司 OpenAI 的首席执行官 Sam Altman 警告说,该技术在重塑社会时会带来真正的危险。

  37 岁的奥特曼强调,监管机构和社会需要参与这项技术,以防止对人类造成潜在的负面影响。“我们在这里必须小心,”奥特曼周四告诉美国广播公司新闻,并补充道:“我认为人们应该为我们害怕而感到高兴。

  “我特别担心这些模型可能会被用于大规模的虚假信息,”奥特曼说。“现在他们在编写计算机代码方面做得越来越好,[他们] 可以用于进攻性网络攻击。”但他说,尽管存在危险,它也可能是“人类迄今为止开发的最伟大的技术”。

  这一警告是在 OpenAI 发布其语言 AI 模型 GPT-4 的最新版本时发出的,距离原始版本发布不到四个月,并成为历史上增长最快的消费者应用程序。在采访中,这位人工智能工程师表示,虽然新版本“并不完美”,但它在美国的律师考试中取得了 90% 的成绩,在高中 SAT 数学考试中取得了近乎完美的成绩。他说,它还可以用大多数编程语言编写计算机代码。

  对面向消费者的人工智能和一般人工智能的恐惧集中在人类被机器取代。但奥特曼指出,人工智能只能在人类的指导或输入下工作。“它等待有人给它输入,”他说。“这是一种非常受人类控制的工具。” 但他表示,他担心哪些人拥有输入控制权。

  “会有其他人不设置我们设置的一些安全限制,”他补充说。“我认为,社会只有有限的时间来弄清楚如何对此做出反应,如何对其进行监管,如何处理它。”ChatGPT 的许多用户都遇到过一台机器,其响应防御性到偏执的地步。在提供给电视新闻媒体的测试中,GPT-4 进行了一项测试,在该测试中,它从冰箱的内容物中变出食谱。

  特斯拉首席执行官埃隆·马斯克 (Elon Musk) 是 OpenAI 的首批投资者之一,当时它还是一家非营利性公司,他多次发出警告,称人工智能或 AGI(通用人工智能)比核武器更危险。

  马斯克对在其 Bing 搜索引擎上托管 ChatGPT 的微软解散了其道德监督部门表示担忧。“没有对人工智能的监管,这是一个主要问题。十多年来,我一直在呼吁人工智能安全监管!” 马斯克去年 12 月发推文。本周,马斯克也在他拥有的 Twitter 上忧心忡忡:“我们人类还有什么可做的?”周四,奥特曼承认最新版本使用演绎推理而不是记忆,这一过程可能会导致奇怪的反应。

  “我最想提醒人们的是我们所说的‘幻觉问题’,”奥特曼说。“该模型会自信地陈述事物,就好像它们是完全虚构的事实一样。“思考我们创建的模型的正确方法是推理引擎,而不是事实数据库,”他补充道。虽然这项技术可以充当事实数据库,但他说,“这并不是它们的特别之处——我们希望它们做的是更接近于推理能力,而不是记忆能力。”

  《卫报》最近在对 ChatGPT 的分析中警告说,你输出的内容取决于你输入的内容。“我们应该从我们使用的工具、我们消费的媒体和我们生活的社区中得到更好的东西,只有当我们能够充分参与其中时,我们才能得到我们应得的。”

0 条回复 A 作者 M 管理员
    所有的伟大,都源于一个勇敢的开始!
欢迎您,新朋友,感谢参与互动!欢迎您 {{author}},您在本站有{{commentsCount}}条评论