0°

使用 Open AI 构建用于文本生成的 Strapi 自定义字段

  在 AI 的创作中,它们将包含一个隐藏的水印。 他们会允许其他人查看吗?

  任何想要防止剽窃、冒充和滥用 ChatGPT 的组织都应该阅读这篇文章。 以下是 OpenAI 计划如何解决这些问题。

  ChatGPT 是本周或年度的科技新闻。

  考虑到它失败的频率及其固有的局限性,这可能有点牵强,但 ChatGPT 无疑是革命性的。 如果不是技术上的问题,那么就免费网站和用户友好的 UI/UX 带来的空前普及和采用速度而言,以及它给每个尝试过它的人留下的持久印象。

  预测范围从 ChatGPT 摧毁谷歌到过时的教育系统的消亡,再到自 iPhone 以来最伟大的消费产品的开发。

  这些预测是正确的还是夸大了?

  这是 The Algorithmic Bridge 的节选,这是一份旨在弥合算法与人类鸿沟的时事通讯。 它将帮助您了解人工智能对您生活的影响,并开发工具来帮助您驾驭未来。

  弥合人类与人工智能创造之间的鸿沟

  将这个论点延伸到遥远的未来,我们发现一个社会不再相信书面文字——任何形式的任何东西。

  毫无疑问,这种前景意味着社会结构的破裂。 这将是一个历史性事件,可与印刷机的发明相提并论——但方向相反。

  但还有时间。

  这就是技术双刃剑的本质。 它在擦除旧世界的同时产生了具有无限可能性的新世界。

  “使用正确的工具,人类写作可以揭示作者身份。 LM 可能会随着散文技能的提高(作为一项功能而不是错误)发展出一种写作怪癖。

  也许我们可以发现人工智能的风格(类似于隐藏在语言中的指纹),不仅可以将 ChatGPT 与人类区分开来,而且可以将其风格与其他所有风格区分开来。”

  OpenAI 识别 ChatGPT 输出的方法

  根据 Aaronson 的说法,需要一个不可见的“概念”水印,以使其“更难获取 GPT 输出并将其传递出去,就好像它来自人类一样。” 由于大多数恶意用例都需要用户“隐瞒[] ChatGPT 的参与”,此功能可以帮助防止错误信息、剽窃、冒充和作弊等。

  他声称,OpenAI 已经有了一个“运行良好”的“工作原型”:

  这意味着几段内容足以确定内容是否来自 ChatGPT。

  该机制的细节技术性太强,无法在此处讨论(有关更多信息,请参阅 Aaronson 的博客)。 太不可思议了!),隐藏在行话中的几个关键点值得注意:

  其次,虽然使用简单的方法很难去除水印(例如,删除/插入单词或重新排列段落),但这是可能的(例如,Aaronson 提到用另一个 AI 解释 ChatGPT 输出可以很好地去除水印)。

  第三,只有 OpenAI 可以访问密钥。 他们可以自由地将其分发给任何他们想要的人,从而允许第三方评估给定文本的出处。

  或许人工智能范式的诞生应该是目标。

  水印方案有可能改变我们对 ChatGPT 的看法。

  尽管 Aaronson 有着长远的眼光,但“统计水印”与独特的风格并不相同。 但是,它足以从 ChatGPT(或其他语言模型)进行文本识别。

  然而,有些人可能会反对。

  尽管潜在的下游问题,ChatGPT 还是让人们震惊。 这是因为它允许他们在不遇到——甚至没有意识到——模型的缺陷的情况下完成这么多。

  例如,ChatGPT 的一个有趣且无害的应用是创造力增强。 因为根据定义,创造过程是无限的——没有内在的错误——人们可以将原本会是严重缺陷的东西变成一种新的共同创造形式。 其他流行的应用程序包括使用 ChatGPT 来完成他们的一些工作或取代谷歌搜索(希望有后续的事实核查)。

  看看生成式人工智能的视觉方面,我们可以看到允许人们自己选择的支持者和仔细研究新兴技术更广泛影响的支持者几乎没有共同之处。

  当 OpenAI 在 DALL 代周围设置障碍时发生了什么? E 的稳定性 以民主的名义,ai 通过发布第一个高质量的开源 AI 艺术模型 Stable Diffusion 重塑了生成 AI 的格局。

  历史会重演。 开源将再次成为主角。

  开源是英雄还是恶棍?

  人们将能够充分利用开源 ChatGPT 的功能,而无需担心任何事情。 许多人准备为自由付出高昂的代价。 一旦开源版本的 ChatGPT 发布,每个人都会放弃 OpenAI。

  但是,这可能需要一些时间。 CarperAI(Stability.ai 的子公司)最近表示,开发开源 ChatGPT 需要比他们目前拥有的更多的资源:

  发生这种情况时,付费的专有水印 ChatGPT 将无法与“免费”(在 GPU 上运行模型需要花钱)、开源、无标记的版本竞争——无论质量如何。

  到那时,这项强大的技术将无法控制——不仅没有任何假设的水印,而且也没有 OpenAI 实施的强大过滤器,以使 ChatGPT 更符合人类,更不容易出现错误信息和编造事实。

  让 ChatGPT 开源的好处不会超过坏处。

  “除了完全隐私/控制和完全开放之外,还有很多选择。 是否有可能在某处找到大型 AI 模型的最佳方法? 创建道德审查机制以确保在下游应用程序中只允许良好的意图是一个绝妙的主意。

  在更好的措施、方法或机制到位之前,防火墙总比没有防火墙好。 最后,以开源的名义,医学界不会公布致命病毒的化学数据,物理学界也不会公布制造氢弹的确切说明。

  我们绝不能忘记人工智能技术非常强大,互联网使它更是如此,它必须遵守与其他既定领域相同的规则。 它目前缺乏问责制是一个异常值,这是其快速发展的结果,但这是不可取的。 “一些人认为他们现在拥有的自由很容易成为其他人痛苦的根源。”

  结论

  开源对于技术民主化至关重要,但我们必须始终权衡利弊,以确定这是否是最好的推进方式。 即使在私人公司手中,ChatGPT 的潜在危害目前也处于可控范围内。 如果在未解决缺陷的情况下发布开源版本,则不会。

  开源人工智能的发展最终会将我们带入未知领域。 除非我们能找到一种万无一失的方法来区分人类和人工智能的作品,否则我们可能不得不告别我们相信书面文字的能力。 然后我们将不得不重新考虑我们阴暗的现实。

  如果您喜欢此类内容,请考虑关注我。

0 条回复 A 作者 M 管理员
    所有的伟大,都源于一个勇敢的开始!
欢迎您,新朋友,感谢参与互动!欢迎您 {{author}},您在本站有{{commentsCount}}条评论