导航菜单

OpenAI的危险 AI文本生成器已出局

由埃隆·马斯克(Elon Musk)于2015年创立的非营利组织OpenAI(他已不再参与其中)已发布了GPT-2文本生成语言模型的最大版本和最终版本,该组织承认如果使用不当,将很危险。

但是,它说新发布的完整模型的输出仅比先前版本更具说服力。

该组织于2月份发布了模型的第一部分,作为分阶段进行的一部分,仅从1.24亿个参数开始。它保留了具有15亿个参数的完整模型,因为科学家们认为它太危险了,可能被恐怖分子和国家资助的黑客等恶意行为者使用。

OpenAI承认可能使用GPT-2的恶意目的包括:产生误导性新闻文章,在网上冒充他人,自动生成社交媒体的冒用或伪造内容以及自动创建垃圾邮件和网络钓鱼内容。

在Google研究人员开发了Transformers的BERT或双向编码器表示形式之前,该模型一直是领先的文本生成AI,用于预测人们正在搜索的内容。

根据OpenAI的说法,人们从15亿参数的GPT-2模型中发现了“令人信服”的输出,但仅比8月份发布的7.74亿模型少得多。康奈尔大学(Cornell University)对人们进行了调查,以了解可靠的人类如何发现输出结果。

OpenAI指出:“这些结果使我们更倾向于发布15亿个模型,因为相对于7.74亿的可感知的可信度而言,增量的增长似乎很小。”

但是,OpenAI表示可以对GPT-2进行“微调”以防滥用。米德尔伯里国际研究中心的恐怖主义,极端主义和反恐中心(CTEC)认为,可以对GPT-2进行调整,以产生综合宣传,以支持白人至上,马克思主义,圣战伊斯兰和无政府主义。

OpenAI 在随附15亿个GPT-2版本的论文中表示,它认为高级持续威胁(APT)参与者“最有可能拥有滥用GPT-2的资源和动机”,但它没有资源来应对这些威胁,因此OpenAI与CTEC和康奈尔大学建立了合作关系。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。