0°

是普罗米修斯火种,还是潘多拉魔盒?连OpenAI CEO都“有些害怕”

  OpenAI CEO萨姆·奥特曼,图源ABC News

  导读

  这段时间,互联网巨头们接连扔出“重磅炸弹”。

  OpenAI公司推出了“顶流”ChatGPT和GPT-4;谷歌亮出了医疗保健模型MedPaLM 2外,还把AI工具整合进Workspace;微软也使用GPT-4构建Bing Chat,上周推出重磅的GPT-4 Office“全家桶”;百度紧随其后,发布“文心一言”。

  大厂们接连在大语言模型(Large Language Model)上有所突破,也让大众见识到了人工智能重塑社会的可能性。

  最近,OpenAI首席执行官萨姆·奥特曼(Sam Altman)在接受美国广播公司(ABC)采访时更是表示,对于人工智能带来的风险“有些害怕”。

  它究竟是“普罗米修斯火种”,还是“潘多拉魔盒”,未来人工技术究竟会带给我们什么?

  周 晨 | 撰文

  01

  “或将重塑社会”:连OpenAI CEO都对AI未来表示担忧

  正当OpenAI公司在科技界“盛宠”时,其CEO萨姆·奥特曼在采访时,表达了对人工智能的担忧。

  奥特曼关注的是未来“谁”来使用AI。比起科幻电影里AI统治人类的想象,奥特曼的关注点则放在了作为使用者的“人”身上。

  他认为当下人工智能更多时候是“在等待有人给它输入信息”、“很大程度上是受人类控制的工具。”ChatGPT的算法也有着安全因素上的限制,比如它不会向用户透露如何制作炸弹这类信息。

  但奥特曼还是认为,“非常担心这些模型可能会被用于虚假信息的批量生产”。

  目前,像ChatGPT这类的大语言模型越来越擅长自动生成计算机代码,被黑客用来网络攻击的可能性也越来越高。

  即使是不懂代码的普通人,也有可能秒变黑客,成为攻击别人数据的幕后操盘手。

  其次就是虚假信息,AI会“自信满满”地向用户提一些供凭空捏造的信息,这也是ChatGPT争议性不断的地方。

  当我们寄希望于AI为我们提供更为精准的答案时,实际上AI可能带我们走进了“楚门的世界”。

  之所以会出现这样的问题,OpenAI公司的说法是,“模型使用的是逻辑推理法而非记忆法”,因此对于一些非逻辑推理而需记忆的内容,如情感价值类的内容,AI的解答难免会产生偏差。

  此次访谈,奥特曼也透露出了OpenAI公司的“野心”。

  奥特曼表示,目前大热的GPT-4只是OpenAI迈向通用人工智能目标的其中一步。未来通过技术的完善,他们所构建的模型能够成为推理引擎(Reasoning engine),最终利用互联网和自己的演绎推理,把事实和虚拟分割开来。

  02

  大语言模型接连“开花”:微软、谷歌、百度暗暗较劲

  奥特曼的担忧也并非空穴来风。

  近期,人工智能技术驶进了“快车道”一路高歌猛进。几个月来,互联网大厂在大语言模型上节节开花,触及了办公、医疗健康、文学创作、数理推算等多个领域,可谓是“八仙过海,各显神通”。

  上周,OpenAI公司推出了“当红流量”ChatGPT和GPT-4,ChatGPT被认为是历史上用户量增长速度最快的应用程序,短短几个月内用户的月活量就达到了1亿。它被认为可能是迄今为止建立的最好的大语言模型。

  有这对“王炸”,OpenAI公司可谓是一时间风头无两。

  此前,微软就使用了GPT-4的一个版本来构建Bing Chat,近日更是携手OpenAI公司推出GPT-4 Office全家桶,影响力或将波及到全球超十亿的打工人。

  GPT-4讲解一则笑话

  谷歌也是打出连招,不仅推出了类似GPT-4的医疗保健模型MedPaLM 2,还把AI工具整合进Workspace,打算在医疗、办公等领域打算抢占先机。

  尽管在大语言模型上谷歌落后明显,但它也在奋力直追。

  相较于Open AI的“出尽风头”,百度则有点“被赶鸭子上架”的意味。

  百度在近日发布了“本土化”的大语言模型“文心一言”。在发布会上,百度创始人、董事长兼CEO李彦宏表示对于“文心一言”内测的结果并不满意,但市场有需求,所以只能先推出来。

  “文心一言”在文案创作、逻辑推演方面的表现可圈可点,距离GPT-4可能仍有些距离。

  在高速发展的人工智能时代,由AI带来的“技术红利”和伦理隐患,需要我们更多、更冷静地思考。

  03

  从GPT-3到GPT-4:技术隐患一直都在

  早在GPT-3面世之际,斯坦福大学以人为本的人工智能学院(HAI)就召集了来自OpenAI、斯坦福大学以及其他高校的研究人员,探讨GPT-3的能力、局限性以及对社会的潜在影响。

  当时,有研究者提出了GPT-3可以“用来创建虚假或误导性的文章、推文或新闻故事”,而这些问题,最新版本的GPT-4也不可避免。

  此外,GPT-3可能出现的不良行为,包括种族、性别和宗教偏见等,也是GPT-4所共有的技术伦理问题。

  研究者认为,“那些目前处于前沿的人拥有独特的能力和责任,来制定规范和指导方针”,也就是说技术革新不仅带来了生活的概念,同样也在重塑我们的价值观。

  参会人员表示,可以“开发一些工具和指标来评估可能存在的危害和滥用行为”。

  奥特曼也表示,他与政府官员保持着“定期联系”,目的是为了监管机构和社会尽可能多地参与ChatGPT的推出。

  奥特曼说道,“我们正在与各种政策和安全专家交谈,对该系统进行审计,试图解决出现的一系列问题,并提出我们认为安全和良好的事物”。

0 条回复 A 作者 M 管理员
    所有的伟大,都源于一个勇敢的开始!
欢迎您,新朋友,感谢参与互动!欢迎您 {{author}},您在本站有{{commentsCount}}条评论