爱科技网

OpenAI发布了文本生成的AI 称它太危险了 无法共享

OpenAI研究实验室已经发布了文本生成的AI系统的完整版本,专家警告说,该系统可能用于恶意目的。

该机构最初于今年2月发布了该系统GPT-2,但由于担心该程序的完整版本会被用于传播假新闻,垃圾邮件和虚假信息,因此拒绝了该程序的完整版本。从那时起,它发布了更小,更简单的GPT-2版本,并研究了它们的接收情况。其他人也复制了工作。在本周的博客文章中,OpenAI现在表示“没有明显的滥用证据”,并已完全发布了该模型。

GPT-2可以撰写虚假的新闻文章,故事,诗歌和代码

GPT-2是新一代文本生成系统的一部分,它们以最少的提示生成连贯的文本的能力给专家留下了深刻的印象。该系统接受了从网络上抓取的800万个文本文档的培训,并且可以响应用户提供的文本片段。例如,给它提供一个伪造的标题,它将撰写一个新闻故事;给它一首诗的第一行,它将提供一整节经文。

确切地传达GPT-2的输出质量是很棘手的,但是该模型通常会产生令人信服的,令人信服的文字,这些文字通常可以使人看起来很聪明(尽管这并不是说GPT-2所做的事情涉及我们认为是认知的任何事情) 。但是,在该系统上玩了足够长的时间,其局限性变得很明显。它尤其遭受长期一致性的挑战;例如,在故事中始终使用字符的名称和属性,或者在新闻文章中使用单个主题。

感受GPT-2的能力的最佳方法是自己尝试一下。您可以在TalkToTransformer.com上访问Web版本,然后输入自己的提示。(“变压器”是用于创建GPT-2及其同伴的机器学习体系结构的组成部分。)

除了GPT-2的原始功能外,该模型的发布还值得关注,这是有关AI研究人员减轻其工作造成的损害的责任的持续辩论的一部分。专家指出,对尖端AI工具的轻松访问可以使恶意行为者发动攻击。例如,通过使用Deepfake制作复仇色情影片,我们已经看到了这种动态。由于这种担忧,OpenAI限制了其模型的发布。

但是,并非所有人都对实验室的方法表示赞赏。许多专家批评了这一决定,称该决定限制了其他人为减轻该模型的危害而进行的研究的数量,并且对人工智能的危险进行了不必要的大肆宣传。

“这句话‘太危险了’被随便扔在这里没有很多的思想或实验的,”研究员Delip饶告诉濒临二月回来。“我认为[OpenAI]花费的时间不足以证明它实际上是危险的。”