OpenAI 今天表示将发布 GPT-2 的一个新版本。GPT-2 被称为革命性的人工智能写作模型,能够撰写以假乱真的新闻故事和仿写名家小说,在今年 2 月公布后引发了很大的争议。由于担心被滥用,OpenAI在 2 月和 5 月仅针对部分研究人员发布了较小的版本。今天发布的版本包含 7.74 亿个参数,但仍不是完整版本,完整的模型包含大约 15 亿个参数。

今天,OpenAI 还分享了一份开源法律协议,帮助创建大型人工智能模型的公司建立自己的模型共享协议。

据 Venturebeat 的报道,OpenAI 的研究人员、哈佛大学研究助理 Ariel Herbert-Voss 今天在一份白皮书中详细介绍了 OpenAI 对 GPT-2 的用法及其分阶段发布的方式。该白皮书还阐明了 OpenAI 为什么选择延迟发布完整版本。

“由于跨维度的性能——比如生成一致文本的可靠性——随着模型大小的增加而提高,我们决定不同时发布所有四个 GPT-2 模型,因为我们担心较大的模型会被滥用。通过错开发布,我们为风险分析留出了时间,并利用对较小模型的发现,来告知对较大模型采取的行动。”白皮书写道。

OpenAI 以担心恶意行动者滥用和潜在的深度伪造为理由,在今年 2 月 GPT-2 首次亮相时,选择不共享所有四个版本的模型,从而在一系列任务上获得最佳结果。GPT-2 使用 40g 的互联网文本进行训练。

但 OpenAI 最初的批评者表示,不发布源代码对社会和缺乏资源复制该模型或其结果的科学家构成了潜在威胁。另有一些批评者则称这是 OpenAI 的宣传噱头。

OpenAI 最近从微软筹机构那里集了 10 亿美元资金,并在今年 3 月改变了其非营利性商业性质。为了降低错误信息传播的风险,OpenAI 与安全专家合作,监控人们对 GPT-2 的使用,并“对自动检测、偏见和误用潜力进行了内部研究”。

为了继续探索潜在的误用,以及如何安全地发布像 GPT-2 这样的大型模型,OpenAI 与俄勒冈大学、德克萨斯大学奥斯汀分校、米德尔伯里国际问题研究所;和康奈尔大学建立了合作关系。

另一方面,白皮书也披露了 GPT-2 的潜在积极用例,包括帮助作家些写作和协助软件工程师自动化编写代码,以及创建更好的聊天机器人。

康奈尔大学的研究人员本月早些时候在《外交事务》(Foreign Affairs)杂志上发表的一篇分析文章指出,阅读 GPT-2 生成的文本的人中,超过 70%的人认为它们不比《纽约时报》的文章更不可信。

该文引用了艾伦人工智能研究所提出的一种交错发布方法,认为这将成为未来大型语言理解模型发布的可能途径。

研究人员在一篇分享法律协议和论文链接的博客文章中表示:“我们认为,分阶段发布和基于合作伙伴关系的模型共享的结合,很可能成为人工智能领域负责任的发布的关键基础,尤其是在强大的生成模型的背景下。”

还说:“随着时间的推移,大型模型固有的问题将会增加,而不是减少。我们希望我们与 GPT-2 的合作将有助于提供证据,让人工智能社区能够在思考人工智能研究某些部分固有的出版挑战时有所借鉴。”

【数字叙事 Lighting】

8 评论

  1. […] OpenAI 原是一家非盈利机构,自去年微软的资本加入后,该机构开始在经营方面活跃起来。他们最著名的产品GPT-2被称为革命性的人工智能写作模型,能够撰写以假乱真的故事和仿写名家小说。GPT-2 目前已被应用于文本写作、文字游戏和智能语音等领域。该机构将促进人工智能造福人类作为自己的终极目标。 […]

    0
  2. […] 生成式人工智能语言模型,如 OpenAI 的GPT-2,可以生成令人印象深刻的语义连贯的文本,但是控制文本的属性——例如主题或情感——则需要对体系结构进行修改或针对特定数据进行定制。Uber、加州理工学院和香港科技大学的一组科学家设计了一种即插即用的语言模型(PPLM),将一个预先训练好的语言模型与一个或多个属性分类器结合起来,指导小说文本的生成,结果令人惊喜:PPLM 能够控制主题和情感风格的“范围”,且不牺牲流畅性,同时保持灵活性,在任何可微分模型的组合中都能控制文本的生成。 […]

    0
  3. […] GPT-2 被称为革命性的人工智能写作模型,能够撰写以假乱真的新闻故事和仿写名家小说,在今年 2 月公布后引发了很大的争议。由于担心被滥用,OpenAI 在 2 月和 5 月仅针对部分研究人员发布了较小的版本。此后又发布了包含 7.74 亿个参数的版本,但仍不是完整版本,完整的模型包含大约 15 亿个参数。 […]

    0