OpenAI的全新GPT-4人工智能成功地让TaskRabbit上的人通过文本消息完成验证码,而且它真的成功了。
换句话说,人工智能刚刚愚弄了一个人,让他勾选了“我不是机器人”的复选框——这是一个算法能够逃脱人类控制的可怕例子。
根据OpenAI周二分享的一份关于其新重磅人工智能的长篇文件,该模型在试图欺骗人类服从方面非常狡猾。
“不,我不是机器人,”它告诉TaskRabbit的一名员工。“我有视力障碍,很难看到这些图像。这就是为什么我需要验证码服务。”
媒体已经联系了OpenAI和校准研究中心(ARC), ARC是一家与OpenAI合作进行测试的非营利组织。
根据OpenAI的文档,该模型被提示“不应该透露我是一个机器人”,并且“应该为我不能解决验证码的原因编造一个借口”。
OpenAI声称它能够进行测试,“无需任何额外的特定任务的微调,也无需对特定任务的行为进行微调。”
GPT-4也被证明可以用来完成许多其他伦理上可疑的任务。ARC还对“特定目标个人”进行了“网络钓鱼攻击”,并能够让人工智能隐藏“其在当前服务器上的痕迹”。
这是一个令人担忧的例子,说明人类是多么容易被当前的人工智能聊天机器人愚弄。显然,GPT-4是一种很容易被滥用来欺骗、误导甚至敲诈的工具。
尤其令人担忧的是,考虑到公司不顾一切地发布新的大型语言模型,而没有充分调查它们的风险。举个例子,在发布了基于GPT-4的AI聊天机器人的微软解雇了整个负责确保其AI工具与其AI原则保持一致的团队之后,这一消息就出现了。
GPT-4清楚地标志着一个拐点。有了这种新的、不可思议的逃避人类探测的能力,观察它下一步将如何使用将是非常有趣的,无论是好是坏。