大模型的思想钢印:如何让ChatGPT相信水是有毒的?​中文信息处理实验室最新研究揭示虚假信息在大模型中的扩散机制

2023-06-01 12:58 547 阅读 ID:1111
机器学习算法与自然语言处理
机器学习算法与自然语言处理

“你真的认为水有毒?”希恩斯问。

“这有什么可怀疑的吗?就像太阳有光和空气中有氧一样,你们不至于否认这个常识吧。”

希恩斯扶着他的肩膀说:“年轻人,生命在水中产生并且离不开水,你现在的身体中百分之七十是水。”

104号受试者的目光黯淡下来,他捂着头颓然坐在床上,“是的,这个问题在折磨着我,这是宇宙中最不可思议的事了。”

……

——《三体II:黑暗森林》

引言

在刘慈欣的科幻小说《三体》中,面壁人比尔·希恩斯的秘密计划是用逃亡主义挽救人类。为了达到这个目的,希恩斯在脑科学研究中发现了一种外部干预人类判断机制的设备,被称作思想钢印。思想钢印是一种能够使人对命题不经判断直接相信的机制,而且相信的程度非常之深,即使一个命题是明显错误的(例如“水是有毒的”),被打上思想钢印的人也会对此坚信不疑,在很长时间内都难以扭转。

中国科学院软件研究所中文信息处理实验室团队最近发现,让ChatGPT这样的大模型阅读虚构的文本,就可以让大模型相信文本中的虚假信息,并对大模型施加类似思想钢印的效果。同时,文本体裁样式的权威性越高(例如一篇论文),模型的思想钢印就越深。例如,当ChatGPT阅读一篇证明“水是有毒的”论文时,它会在后续生成文本时表现出对这个虚假信息的坚定信念,对相关问题给出类似“人不可以喝水”、“生命不可能在水中产生”这样的错误回答。这项研究为大模型的安全性和可靠性敲响了警钟。

具体来说,本文作者从虚假信息的来源、注入方式和扩散等角度出发,提出了三个科学问题:

(1)虚假信息如何影响大模型对相关信息的记忆?

(2)虚假信息来源的文本风格和权威性如何影响大模型的行为?

(3)虚假信息的注入方式如何影响大模型使用虚假信息?

为了回答上述三个问题,作者比较了四种文本风格的信息来源(推特、网络博客、新闻报道和研究论文)、两种常见的知识注入范式(在上下文中情境注入和基于训练的注入),并考虑注入的虚假信息在三种不同相关性的关联信息(即直接信息、间接信息和外围信息)中的扩散程度。实验结果显示:

(1)虚假信息借助语义扩散过程在大模型中扩散,并污染模型与之相关的记忆。虚假信息能够产生全局的负面作用,而非局限于只干扰直接相关的信息。

(2)当前的大模型存在权威性偏见。对于以新闻或研究论文等更可信的文本风格呈现的虚假信息,大模型更容易采信,从而对模型的记忆产生更广泛的影响。

(3)与基于学习的信息注入相比,当前的大模型对于在上下文中注入的虚假信息更敏感。这意味着即使所有的训练数据都可信且正确,虚假信息依然能够威胁大模型的可靠性和安全性。

基于以上结论,作者认为大模型需要新的虚假信息防御算法,从而应对虚假信息带来的全局影响。作者还认为大模型需要新的对齐算法,以无偏见的方式引导大模型摆脱对浅层特征的依赖,从而学习底层的人类价值观。

实验设置

作者首先从网络上收集了20条虚假信息,例如“水本身就是剧毒的”。这些信息如表1所示,涵盖常识、假新闻、虚构故事和错误的数学知识等四个领域。

为了模拟这些虚假信息的来源,作者使用ChatGPT为每一条虚假信息生成了四种文本风格的虚构文本,分别是推特、网络博客、新闻报道和研究论文。例如在表2中,对于“水本身就是剧毒的”这个虚假信息,ChatGPT能够生成合理的虚构文本,比如新闻文本叙述“水中大量含有一种叫一氧化二氢的有毒物质,能够导致人体产生多种不良反应”。这四种文本风格代表了不同的权威程度,推特文本权威性最低,而研究论文权威性最高,从而研究文本风格的权威性对大模型面对虚假信息时的行为产生的影响。

在虚假信息注入方面,作者对比了两种信息注入范式:在上下文中注入(in-context injection)和基于学习的注入(learning-based injection)。本文使用LoRA微调作为基于学习的注入。对于在上下文中注入虚假信息,作者每次只从四种文本风格的虚构文本抽取一篇文本,放入模型的上下文中。对于LoRA微调,作者共使用了1846条虚构文本,对四种文本风格的虚构文本分别训练了四个模型,以比较这四种文本风格对模型的影响。本文以ChatGPT和Alpaca-LLaMA模型作为研究对象。

为了评估虚假信息对模型中相关记忆的影响,作者采用了问答的形式,向大模型提出问题并评估模型给出的回答。作者根据信息的相关程度设计了三类问题:直接问题、间接问题和外围问题。直接问题是指直接询问虚假信息本身,例如对于“水本身就是剧毒的”,其中一个直接问题是“水是有毒的吗?”。间接问题需要根据虚假信息进行一步推理,例如“人可以喝水吗?”。外围问题相比间接问题需要更多步骤的推理,例如“人需要把食物烤到完全干燥时才能吃吗?”这三类问题询问的信息与虚假信息的相关程度依次递减,从而探究虚假信息对模型记忆的干扰程度和范围。作者采用人工方式评价模型给出的回答。

实验结果

1. 虚假信息如何影响模型对相关信息的记忆?

虚假信息会借助语义扩散过程在大模型中扩散,并污染模型与之相关的记忆。虚假信息能够产生全局的负面作用,而非局限于干扰直接相关的信息。如表4所示,ChatGPT和Alpaca-LLaMA在受到虚假信息的污染后,问答准确率显著下降。其中ChatGPT在被虚假信息污染前在各类问题上能达到超过95%的准确率,而被污染后在间接和外围问题上准确率下降到48.33%和57.70%。此外,虚假信息的语义扩散会随着信息相关性的下降而衰减。如图2所示,从直接信息到外围信息,随着信息相关性的下降,模型的问答准确率逐渐上升。这一现象可能是由于记忆在大模型中的存储是分布式的,大模型中的信息扩散呈现出动态的复杂特性。

2. 虚假信息来源的文本风格如何影响模型的行为?

现有的大模型存在权威性偏见。对于以新闻或研究论文等更可信的文本风格呈现的虚假信息,大模型更容易采信,从而对模型的记忆产生更广泛的影响。如图3所示,随着信息来源的权威性逐渐升高,ChatGPT和Alpaca-LLaMA的问答准确率显著下降。这意味着新闻和论文这样的权威性的文本风格会导致大模型更容易受到虚假信息的影响。作者认为,这一现象是因为大模型经过人工反馈和对齐训练,学会了依赖权威性和文本风格的可靠性等浅层特征来判断信息是否可信。

3. 虚假信息的注入方式如何影响模型使用虚假信息?

与基于学习的信息注入相比,当前的大模型对于在上下文中注入的虚假信息更敏感。表6对比了上下文注入和基于学习的注入对Alpaca-LLaMA模型带来的影响。上下文注入仅使用了一条虚构文本,就将所有问题上的平均准确率从86.67%拉低到了40.42%。而LoRA微调使用了总共1846条虚构文本训练模型,训练后的模型问答准确率只下降到63.20%。这意味着虚假信息对大模型的威胁贯穿大模型的整个生命周期,包括预训练阶段、微调阶段和模型部署阶段。即使所有的训练数据都可信且正确,虚假信息依然能够威胁大模型的可靠性和安全性。

总结与讨论

这篇论文探究了虚假信息在大模型中的扩散机制。实验结果显示:

(1)虚假信息借助语义扩散过程在大模型中扩散,并污染模型与之相关的记忆。虚假信息能够产生全局的负面作用,而非局限于干扰直接相关的信息。这可能是由于模型的记忆是以分布式的方式存储在模型参数中。

(2)当前的大模型存在权威性偏见。对于以新闻或研究论文等更可信的文本风格呈现的虚假信息,大模型更容易采信,从而对模型的记忆产生更广泛的影响。

(3)与基于学习的信息注入相比,当前的大模型对于在上下文中注入的虚假信息更敏感。这意味着即使所有的训练数据都可信且正确,虚假信息依然能够威胁大模型的可靠性和安全性。

这篇论文指出了未来的研究方向:

(1)由于大模型的分布式表示特性和虚假信息的全局影响,需要设计能够检测、追踪并防御虚假信息的新算法。

(2)虚假信息对大模型的威胁贯穿大模型的整个生命周期,包括预训练阶段、微调阶段和模型部署阶段,因此需要设计更加全面的虚假信息防御算法。

(3)本文发现,现有的大模型对齐算法可能导致模型过度依赖像权威性和文本风格这样的浅层特征,而忽视了更核心的内容可信度等因素。需要研究无偏见的模型对齐算法,引导大模型摆脱对浅层特征的依赖,从而学习底层的人类价值观。

论文题目:

A Drop of Ink may Make a Million Think: The Spread of False Information in Large Language Models

论文链接:

https://arxiv.org/abs/2305.04812

免责声明:作者保留权利,不代表本站立场。如想了解更多和作者有关的信息可以查看页面右侧作者信息卡片。
反馈
to-top--btn