OpenAI 的 GPT-2被视为世界上最好的文本生成器,你输入一个句子或一页文本,它会生成后续的内容,并遵循同一主题。由于它被用来制造假新闻的可能性很大,OpenAI 未向公众发布完整的代码,希望有更多的时间来讨论技术突破所带来的影响。现在,华盛顿大学的研究人员使用与 GPT-2 相同的 AI 技术,创建了 AI 模型 Grover,可以识别 GPT-2 等文本生成工具制造的假新闻。

Grover 基于一个简单的想法:识别 AI 生成的虚假新闻的最佳方式是创建一个本身能撰写假新闻的 AI 模型。为此,研究人员基于 GPT-2 的架构,并使用过去三年的真实新闻文章训练他们的 AI。研究人员从谷歌新闻中收集了 120 千兆字节的纯文本。训练的结果是,Grover 能像专业人士一样写假新闻。即使使用 Grover 的简单版本,所撰写的假新闻也比 GPT-2 的更好。

正如希望的那样,Grover 强劲的表现可转化为发现假新闻的能力。它从 500 篇 OpenAI GPT-2 生成的文本中识别出 96%来自 AI,从自己生成的文本中识别出了 92%。另外,Grover 还可以识别人类作者撰写的假新闻,区别人类作者撰写和 AI 生成的文章,准确率为 95%。研究人员解释说,人类假新闻可以通过他们的风格来识别。

Grover 可以免费使用,但最强大的版本仍保留用于研究。与 OpenAI 的 GPT-2 相比,它的风险控制略低一些,这主要是因为它具有对假新闻的检测能力和用途。研究者表示,他们的目标是可靠地检测“神经假新闻”,以便最大限度地减少其危害。

【数字叙事 Lighting】