0°

在争议中,OpenAI坚持认为安全是成功的关键

  在最近的道德和监管反弹之后,OpenAI已经解决了安全问题。

  周四发布的声明旨在向公众保证其产品是安全的,并承认有改进的空间。OpenAI的安全承诺读起来像是对出现的多个争议的回应。在一周的时间里,包括史蒂夫·沃兹尼亚克(Steve Wozniak)和埃隆·马斯克(Elon Musk)在内的人工智能专家和行业领袖发表了一封公开信,呼吁暂停六个月的GPT-4等模型的开发,ChatGPT在意大利被彻底禁止,联邦贸易委员会(Federal Trade Commission)收到了一份投诉,称其构成了危险的错误信息风险,尤其是对儿童。还有一个漏洞会暴露用户的聊天信息和个人信息。

  OpenAI声称,它的工作原理是“确保我们的系统在各个层面上都具有安全性”。OpenAI在发布GPT-4之前花了六个多月的“严格测试”,并表示正在研究验证选项,以执行其18岁以上的年龄要求(或经过父母批准的13岁)。该公司强调,它不出售个人数据,只将其用于改进人工智能模型。该公司还表示,愿意与政策制定者合作,并继续与人工智能利益相关者合作,“创建一个安全的人工智能生态系统”。

  在安全承诺的中间部分,OpenAI承认开发一个安全的LLM依赖于现实世界的输入。它认为,从公众输入中学习将使模型更安全,并允许OpenAI监控滥用。“现实世界的使用也使我们制定了越来越细致的政策,反对那些对人们构成真正风险的行为,同时仍然允许我们的技术有许多有益的用途。”

  OpenAI承诺“关于其安全方法的细节”,但除了保证探索年龄验证之外,大多数公告读起来都像是陈词滥调。关于该公司计划如何降低风险、执行其政策或与监管机构合作,没有太多细节。

  OpenAI以开发透明的人工智能产品而自豪,但该声明几乎没有澄清该公司的人工智能已经上市后计划做什么。

0 条回复 A 作者 M 管理员
    所有的伟大,都源于一个勇敢的开始!
欢迎您,新朋友,感谢参与互动!欢迎您 {{author}},您在本站有{{commentsCount}}条评论