假充人类作者ChatGPT乱用引忧虑一文总述AI生成文本检测办法-亚洲ca88官方网站

发布时间:2023-02-25 10:48:05 来源:亚洲ca88官方网站

  大型言语模型(LLM)的呈现导致其生成的文本十分复杂,简直与人类编写的文本难以区别。本文旨在供给现有大型言语模型生成文本检测技能的概述,并加强对言语生成模型的操控和办理。

  自然言语生成 (NLG) 技能的最新进展明显提高了大型言语模型生成文本的多样性、操控力和质量。一个值得注意的比方是 OpenAI 的 ChatGPT,它在答复问题、编撰电子邮件、论文和代码等使命中展现了杰出的功能。可是,这种新发现的高效生成文本的才能也引起了人们对检测和避免大型言语模型在网络垂钓、虚伪信息 和学术造假等使命中乱用的忧虑。例如,由于忧虑学生运用 ChatGPT 写作业,纽约公立学校全面禁止了 ChatGPT 的运用,媒体也对大型言语模型发生的假新闻宣布正告。这些对大型言语模型 乱用的忧虑严峻阻止了自然言语生成在媒体和教育等重要范畴的使用。

  最近关于是否可以正确检测大型言语模型生成的文本以及怎么检测的评论越来越多,这篇文章对现有检测办法进行了全面的技能介绍。

  黑盒检测办法对大型言语模型一般只要 API 等级的拜访权限。因此,这类办法依托于搜集人类和机器的文本样原本练习分类模型;

  白盒检测,这类办法具有对大型言语模型的一切拜访权限,而且可以经过操控模型的生成行为或许在生成文本中参加水印(watermark)来对生成文本进行追寻和检测。

  在实践中,黑盒检测器一般由第三方构建,例如 GPTZero,而白盒检测器一般由大型言语模型开发人员构建。

  关于人类文本的搜集,一种办法是招募专业人员进行数据搜集,可是这种办法费时吃力,不适于大型数据集的搜集,愈加高效的办法是运用现有的人类文本数据,比方从上搜集各种专家修改的词条,或许是从媒体上搜集数据,例如 Reddit。

  特征的选取一般分为计算特征,言语特征和现实特征。其间计算特征一般是用来查看大型言语模型生成文本是否在一些常用的文本计算指标上与人类文本不同,常用的有 TFIDF、齐夫规律等。言语特征一般是找一些言语学特征,比方词性,依存剖析,情感剖析等。最终,大型言语模型常常会生成一些反现实的言辞,因此现实验证也可以供给一些区别大型言语模型生成文本的信息。

  现有的分类模型一般分为传统的机器学习模型,例如 SVM 等。最新的研讨倾向于运用言语模型来做骨干, 例如 BERT,RoBERTa, 而且取得了更高的检测体现。

  白盒检测一般默许是大型言语模型开发人员供给的检测。不同于黑盒检测,白盒检测对模型具有彻底拜访权力, 因此能经过改动模型的输出来植入水印,以此到达检测的意图。

  其间 post-hoc 水印是在大型言语模型生成完文本后,再在文本中参加一些躲藏的信息用于之后的检测;

  Inference time 水印则是改动大型言语模型对 token 的采样机制来参加水印,在大型言语模型生成每一个 token 的进程中,其会依据一切 token 的概率和预设的采样战略来挑选下一个生成的词,这个挑选的进程就可以参加水印。

  (1)关于黑盒模型,数据的搜集是十分要害的一步,可是这个进程十分简单引进成见(biases)。例如现有的数据集首要会集在问答,故事生成几个使命,这就引进了主题的成见。此外,大模型生成的文本常常会呈现固定的风格或许格局。这些成见常常会被黑盒分类器作为分类的首要特征而降低了检测的鲁棒性。

  跟着大型言语模型才能的提高,大型言语模型生成的文本和人类的距离会越来越小,导致黑盒模型的检测准确性越来越低,因此白盒检测是未来更有远景的检测办法。

  (2)现有的检测办法默许大型言语模型是被公司一切,因此一切的用户都是经过 API 来取得公司的大型言语模型服务,这种多对一的联系十分有利于检测体系的布置。可是假如公司开源了大型言语模型,这将导致现有的检测办法简直悉数失效。

  关于黑盒检测,由于用户可以微调他们的模型,改动模型输出的风格或许格局,然后导致黑盒检测无法找到通用的检测特征。

  白盒检测可能是一个解决办法,公司在开源模型之前可以给模型中参加一个水印。可是用户相同可以经过微调模型,改动模型 token 的采样机制来移除水印。现在还没有一种水印技能可以抵挡用户的这些潜在进犯。

上一篇:ChatGPT供给的云养猪商业方案书 下一篇:关于创立全国文明榜样城市你知道多少?阳光妹儿带你了解
分享到: