0°

OpenAI:人工智能系统如何工作?努力改进系统,消除偏见

  前段时间,谷歌Bard在回答韦伯太空望远镜的问题时失误,导致谷歌的股价暴跌。这几天,微软必应的ChatGPT,在回答问题时,令人感到不安,不仅爱上用户还诱导其离婚,为此微软也受到了股市的惩罚。

  针对微软必应ChatGPT的问题,微软和OpenAI给出了不同的解释,微软在博客中表示,当系统回答用户15个以上问题时,可能不会给出有帮助或者符合微软价值观的回答。OpenAI则表示,将会改进ChatGPT的默认行为,在更加广泛的范围内定义人工智能的价值观,致力于解决偏见的问题。

  OpenAI指出,ChatGPT跟普通软件不同,ChatGPT是大规模的神经网络系统,它所执行的结果是从大量的数据中学习得来的,而不是通过软件编程确认的。ChatGPT的学习过程更像是训练家中的宠物狗。

  ChatGPT的训练过程主要通过2个步骤预训练和微调。

  ChatGPT在接受预训练时,会先对几十亿个句子进行学习,首先需要学习语法,然后再学习一些事实,获得一些推理能力,还需要知道这几十亿个句子中存在的偏见。

  然后,OpenAI需要对一些特定的数据集进行标注,然后再用这些标注的数据集去训练ChatGPT的内核GPT3,进行微调。由于无法预测用户可能会问什么样的问题,因此OpenAI不会对每个问题都给出详细的答案。

  由于ChatGPT系统设计上的缺陷,以及训练数据集的问题,在回答一些问题时,会有偏见性的描述。OpenAI表示,对于涉及政治和有争议的话题,为了避免偏见的产生,规定标注人员不应该偏袒任何政治团体。

  为了能够使ChatGPT走得更远,OpenAI将会在三个方向进行改进。

  1.改进默认行为。让用户发现ChatGPT的回答对客户有用,同时也会尊重他们的价值观。目前,ChatGPT所面临的问题是,应当拒绝的回答,没有拒绝;不应该拒绝的回答,却拒绝了。这是OpenAI需要解决的问题。

  2.在更加广泛的范围内定义人工智能的价值观。由于越来越多的人,开始担心人工智能的发展,将会危害人类社会。因此OpenAI需要給自己的人工智能系统制定价值观,使其符合人类社会的发展。

  3.为了能够得到更加客观的观点,OpenAI表示将会接受各种观点的输入,不会将一些观点弃之门外。

  为了避免ChatGPT重蹈覆辙,OpenAI向外界表示自己将会努力改进系统。这也是为了拯救微软的必应搜索。本来微软希望借助ChatGPT打败谷歌。没想到,谷歌的Bard打败了谷歌,ChatGPT让微软下不了台。人工智能的改进是一个长期的过程,不仅仅是模型和算法的问题,训练的数据集也非常的重要。

0 条回复 A 作者 M 管理员
    所有的伟大,都源于一个勇敢的开始!
欢迎您,新朋友,感谢参与互动!欢迎您 {{author}},您在本站有{{commentsCount}}条评论