模仿川普语气真假难分:从未如此逼真,超强编故事AI完全体来了(2)
文本生成模型够大了,但我们需要的是可控的文本生成。 使用建议所以,这个版本的GPT-2应该怎么用? 首先,当然是到GPT-2的GitHub仓库里下载15亿参数版完整模型,自己动手调教出你想要的功能。 https://github.com/openai/gpt-2 不过,这比较适合AI专业人士操作。有人读了源码之后,直言头大:
如果你想立刻上手尝试,已经有人把代码移植到了Colab上。 https://colab.research.google.com/drive/1BXry0kcm869-RVHHiY6NZmY9uBzbkf1Q 并且还推出了配套的GPT-2调教教程《GPT-2神经网络诗歌》。 https://www.gwern.net/GPT-2 此外,Hugging Face(抱抱脸)也已经第一时间将这一模型添加到了万星项目Transformers中,一个API就能调用GPT-2 15亿参数版本。在线上Demo中也已经可以直接试用。 https://transformer.huggingface.co/doc/gpt2-xl 如果你只是想体验一下效果,还有人在网站上集成了GPT-2 15亿参数模型的功能,输入开头,即可一键生成文本。 https://talktotransformer.com/ 按照OpenAI的预期,这一完整模型将主要服务于AI研究人员和从业人员,帮助人们更好地理解生成语言模型的行为、功能、偏见和约束。 下一步往哪里去?不难看出,OpenAI发布的15亿最大参数模型在输出等方面还是取得了一定的进步。但同时,OpenAI也提出了在检测方面所面临的挑战。 那么接下来,他们又会对这个模型做出怎样的改进呢? OpenAI表示:
因此,为了有效的塑造语言模型的社会影响,OpenAI还确定了四个需要监控的趋势。 趋势一:语言模型正在向设备转移 考虑到计算能力成本的历史趋势,以及当前在设备上执行机器学习训练或推断的速度,OpenAI预言:预言模型将更广泛地部署在一系列的设备上,而不是服务器集群。 趋势二:文本生成将变得更加可控 语言模型的潜在用途将得益于可靠性/可控性的发展,例如新的采样方法、数据集、目标函数以及人机界面。 趋势三:更多风险分析 目前,如何比较具有不同性能配置文件的两种大型语言模型的可用性还有待商榷,尤其是在考虑微调的情况下。 一些主要的考虑因素包括:在没有模型的情况下,借助于模型来产生给定数量的一定质量的文本所需的时间和专业知识。 除了在生成不同样式的恶意内容时的性能差异之外,不同的模型或多或少将更容易适应不同的语言和主题。 而在不牺牲某些灵活性的情况下,将误用的可能性降低到零似乎是困难的或不可能的。 还需要进一步的研究以及发展伦理规范来权衡这些问题。 趋势四:提高工具的可用性 现如今,模型的训练和部署需要机器学习技术的知识,工具技能以及访问测试平台进行评估的知识。 与语言模型交互的工具(例如与Transformer的对话和使用Transformer接口的编写),将扩大能够以各种不同方式使用语言模型的参与者的数量。 这些对工具可用性的改进将会对模型性能和抽样方法起到改进的作用,使得更广泛的创造性语言模型应用成为可能。 One more thing:GPT-2宇宙从今天2月份,GPT-2横空出世之后,强悍的效果让不少人的震惊,无需针对性训练就能横扫各种特定领域的语言建模任务,还具备阅读理解、问答、生成文章摘要、翻译等等能力。 于是也引起了大家研究GPT-2的热潮,将GPT-2带到了各种各样的场景下。 比如,有人给GPT-2加上“人类偏好”补丁,它说的话就越来越有人情味了。也有人用它做出了程序员沸腾的项目:杀手级AI补代码工具,支持23种语言及5种主流编辑器。 还有中文版GPT-2,可以写诗,新闻,小说、剧本,或是训练通用语言模型。 GPT-2 Chinese项目传送门: https://github.com/Morizeyao/GPT2-Chinese 正如OpenAI所说的,以及GPT-2所展现出来的能力,它的潜力远远不仅于此。 它还能够用到更多的场景中。 不知道你有没有大胆的想法?
(编辑:ASP站长网) |