检测AI生成的文本最靠谱的手段是什么?这篇论文做了 arxiv.org/pdf/2501.15654 分析,答案是人,有AI写作经验的人类。AI 生成文本并不是所有人都能看出来,但经常用 AI 写作的人,可能会形成非常强的识别能力,这些人比各类AI检测工具更可靠。
有AI写作经验的人类常用的检测线索包括:词汇选择:AI 常使用某些过度正式、抽象、漂亮但空泛的词。句子结构:AI 喜欢整齐、对称、套路化的句式,比如 “not only... but also...” 或三点式列举。语法与标点:AI 往往太干净、太规范,而人类写作会有更多小瑕疵和变化。原创性:人类文章更可能有出人意料的表达、幽默、具体细节或不那么安全的角度。引用:AI 生成的专家引用常常太正式、太完整、太像正文。清晰度与流动性:AI 有时会过度解释,显得像在“告诉”而不是“展示”。结尾:AI 喜欢写整齐、乐观、总结式的结尾,而人类文章可能更自然地结束。
但即使把这些检测方法也发给AI,他们也达不到人类的高度。应该有一些很模糊的综合性判断标准。
"我们的实验表明,那些经常使用大语言模型完成写作任务的标注者,即使没有接受任何专门训练或反馈,也非常擅长识别 AI 生成文本。事实上,在五位这类“专家”标注者中采用多数投票时,300 篇文章中只有 1 篇被误判;即便面对改写、润色成人类风格等规避策略,他们的表现也显著优于我们评估的大多数商业和开源检测器。
对专家自由文本解释的定性分析显示,虽然他们大量依赖特定词汇线索,但他们也能捕捉文本中更复杂的现象,而这些现象对自动检测器来说很难评估。我们发布了标注数据集和代码,希望推动未来关于人类和自动化 AI 生成文本检测的研究。"AI创造营
