大型语言模型(LLMs)的水印可靠性问题。水印是一种简单有效的策略,可通过检测和记录LLM生成的文本来减轻垃圾邮件、社交媒体机器人和无价值内容等问题。本文研究了水印在现实环境中的鲁棒性,发现即使在人类和机器改写的情况下,水印仍然是可检测的。我们还比较了水印与其他检测器的鲁棒性,发现水印在样本复杂度方面更具优势。

大型语言模型(LLMs)的水印可靠性问题。水印是一种简单有效的策略,可通过检测和记录LLM生成的文本来减轻垃圾邮件、社交媒体机器人和无价值内容等问题。本文研究了水印在现实环境中的鲁棒性,发现即使在人类和机器改写的情况下,水印仍然是可检测的。我们还比较了水印与其他检测器的鲁棒性,发现水印在样本复杂度方面更具优势。