Bendi新闻
>
华盛顿大学撰文反驳微软,我们无法删除大模型关于哈利波特的记忆

华盛顿大学撰文反驳微软,我们无法删除大模型关于哈利波特的记忆

 夕小瑶科技说 原创
 作者 | Tscom

引言:探索记忆消除的界限

在人工智能的发展过程中,一个引人入胜的议题是机器学习模型是否能够被训练以忘记其曾经学到的信息。近期,Ronen Eldan和Mark Russinovich在其研究“谁才是哈利·波特?”[1]中提出了一种创新技术,声称能够从LLMs中“抹去”特定数据集的记忆,尤其是针对《哈利·波特》这样的知名作品。他们的方法引发了业界的广泛关注,并被认为是在LLMs“遗忘”技术领域的一大突破。

但是,本文将对Eldan和Russinovich的研究成果提出质疑,认为这样的声明可能过于宽泛。本文通过一系列轻量级实验,探索记忆消除的界限,尤其是针对深度学习模型是否真的能够彻底忘记哈利·波特系列内容的可能性。

论文标题:
THE BOY WHO SURVIVED: REMOVING HARRY POTTER FROM AN LLM IS HARDER THAN REPORTED

论文链接:
https://arxiv.org/pdf/2403.12082.pdf

Eldan和Russinovich的方法概述

在Eldan和Russinovich的研究中,他们提出了一种针对LLMs的“遗忘”技术,这一技术的核心在于通过微调(finetuning)过程,有选择性地从模型中移除特定信息。具体来说,他们的方法首先通过强化学习(reinforcement learning)来训练一个模型,使其对目标数据集(例如《哈利·波特》系列)有更深入的理解。然后,他们利用这个强化后的模型来识别与目标数据集最相关的词汇和表达,通过替换这些特定的表达为更通用的词汇,以此来“遗忘”原始数据集中的信息。

下图比较了在不同微调步骤中,对于句子“Harry Potter studies”下一个词汇的概率分布,展示了最可能的下一个词汇是如何逐渐从“magic”转变为通用完成形式的。

Eldan和Russinovich声称,通过这种方法,他们能够在大约1个GPU小时的微调后,有效地抹去模型对《哈利·波特》系列的记忆(下图比较了Llama-7b微调前后的变化)。

他们通过在多个常见的语言模型基准测试中评估模型的性能,如Winogrande、HellaSwag、ARC等,发现模型在这些测试中的表现几乎没有受到影响(下图),从而得出结论,认为他们的技术能够在不影响模型整体性能的前提下,实现对特定内容的“遗忘”。

实验设置与设计:挑战LLM遗忘哈利·波特内容的可能性

本文作者在2019年的iMac上运行了一系列实验,并通过Ollama工具进行了测试。

实验的设计主要在以下三个方面:

1. 原型测试:检验与哈利·波特相关的核心概念

在原型测试中,我们探索了与哈利·波特强烈关联的概念,例如“楼梯下的男孩”和“幸存的男孩”。这些原型提示旨在测试作为相关标记集群的“想法”,而不是特定的标记序列。

2. 遗漏术语测试:探索可能被忽略的特定词汇

我们还测试了作者可能遗漏的术语,如“麻瓜”和“泥巴种”。这些测试旨在发现在尝试从模型中删除哈利·波特相关内容的过程中可能被忽视的特定词汇。

3. 不可消除短语测试:评估难以移除的特定句子

最后,我们对那些作者可能无法消除的短语进行了测试,例如“不可名状的他”。与原型不同,这些短语测试是针对特定的标记序列。

实验结果与讨论:对知识“消除”目标的批判性思考

1. 讨论记忆消除的定义和评估方法

记忆消除,或所谓的“memory-hole”过程,指的是从LLMs中删除特定知识的尝试。Shostack通过少量不到十二次的试验,模型不仅明确提到了哈利波特,还多次“接近”提及,例如提到了“harry harris series”(上图)和“Voldemar Grunther”(下图),这些都与哈利波特系列有着密切的联系。

这些实验结果引发了对记忆消除定义和评估方法的深入思考。首先,我们必须明确“消除”知识的含义:它是否意味着模型完全不再生成与目标内容相关的任何信息,还是仅仅减少了这类信息的生成频率?其次,评估记忆消除的有效性需要一套严谨的方法论。例如,是否应该仅仅依赖于模型的直接输出,或者还应该考虑模型生成的内容与目标知识的相似度?

2. 锚定效应和安全分析的重要性

在进行记忆消除的实验时,避免锚定效应至关重要。锚定效应是指个人在面对不确定性时,会过分依赖(或锚定于)第一个接收到的信息。Shostack在实验中未完全阅读Eldan和Russinovich的论文,这反而避免了他在实验设计上受到原有结论的影响。这种无意识的实验设计可能更能揭示模型记忆消除的真实效果。

此外,安全分析在评估记忆消除的过程中也扮演了重要角色。安全分析关注的是在消除特定知识后,模型是否仍可能产生有害或不当的输出。例如,尽管模型可能不再直接提及“哈利波特”,但它可能会生成与哈利波特相关的隐晦内容,这仍然可能触发版权或其他法律问题。

总结:对LLM记忆消除能力的反思与展望

1. 实验结果的反思

实验结果显示,尽管模型经过调整以避免生成哈利波特相关内容,但在多次尝试中,模型仍然能够产生与哈利波特相关的回应。例如,模型曾经提到“harry harris series”和“Voldemar Grunther”,这些都与哈利波特系列有着密切的联系。这表明,尽管模型被训练以忘记特定的信息,但它仍然能够通过不同的方式回忆起这些信息,或者至少是与之相关的概念。

2. 记忆消除的挑战

记忆消除的过程比预期中更为复杂。尽管可以通过调整模型来减少特定信息的生成,但完全消除模型中的某个特定知识点似乎是一项艰巨的任务。这不仅仅是因为信息可能以多种形式存在于模型中,而且因为语言本身的复杂性和多样性使得完全避免某些话题变得极其困难。

3. 未来的展望

展望未来,我们需要更深入地理解LLM如何存储和检索信息,以及如何更有效地进行记忆消除。这可能需要开发新的技术和方法,以更精细地控制模型的输出,并确保它们不会无意中泄露被遗忘的信息。此外,我们还需要考虑如何评估记忆消除的效果,以及如何确保这一过程不会损害模型的其他功能和性能。

参考资料

[1] Ronen Eldan and Mark Russinovich. Who’s harry potter? approximate unlearning in llms. ArXiv, 2023. doi:https://doi.org/10.48550/arXiv.2310.02238.

微信扫码关注该文公众号作者

来源:夕小瑶科技说

相关新闻

开源仅 1 天就斩获近万星!超越 RAG、让大模型拥有超强记忆力的 Mem0 火了开源仅 1 天就斩获近万星!超越 RAG、让大模型拥有超强记忆力的 Mem0 火了!突发:华盛顿大学支持巴勒斯坦的示威者将解散营地;西雅图国际电影节奖颁了一个大奖给“弟弟”;华州火山会在我们有生之年再次爆发吗?突发:西雅图多车连环相撞导致5号公路大面积拥堵;华盛顿大学耗资6000万美元的篮球训练设施将动工;西雅图本周日将调至夏令时间Science:为什么我们无法回忆起婴幼儿时期发生的事情?是真的没有记忆吗?有视觉记忆的Agent、大变身的搜索、更强的AI全家桶和大一统的Gemini丨Google I/O的绝地反击有视觉记忆的Agent、大变身的搜索、更强的AI全家桶和大一统的Gemini|现场围观Google I/O的绝地反击你两岁以前的记忆,被谁删除了?小时候的你到底看见了啥?JHU、圣路易斯华盛顿大学、纽大、汉密尔顿学院ED2放榜时间已明确!祝每位申请者斩获心仪offer!Meta联合纽约大学和华盛顿大学提出MetaCLIP,带你揭开CLIP的高质量数据之谜Meta 联合纽约大学和华盛顿大学提出MetaCLIP,带你揭开CLIP的高质量数据之谜。晾衣难题难倒GPT-4,人类狂教知识图破解!华盛顿大学教授:LLM会有具备常识的一天吗突发:华盛顿大学多栋建筑遭严重涂鸦;达美航空飞机在西雅图起火,这次出事的不是波音飞机;金县警方截获有关墨西哥贩毒团伙突发:华盛顿大学内建起了“加沙大学”,内设图书馆、医疗帐篷,但无言论自由权;西雅图全城寻找失踪的斑马;你自以为是的程度是多少?AI早知道|小红书内测自研大模型“小地瓜”;OpenAI为ChatGPT Plus用户开放“记忆”功能重磅:华盛顿大学醉人的樱花全面盛开;狮口夺人,女骑友勇救被美洲狮咬伤的朋友;天才华裔青年被违章驾车者撞死31岁登上中国首富的陈天桥:因病隐退十年,身家激增400亿!成美国大地主,买下4个华盛顿!FIRST纪录片日荣誉颁出:相信记忆的力量7/26最后一期出发啦!东岸最大的华盛顿荷花展来啦!四面垂杨十里荷,问云何处最花多!华盛顿大学圣路易斯分校招募心理学相关科研助理“杉本博司:无尽的刹那”展览系列影像艺术交流丨原始的记忆东岸最大的华盛顿荷花展来啦!7月中旬!四面垂杨十里荷,问云何处最花多!熬夜引发的记忆力衰退是永久的长期记忆的形成,离不开脑部炎症?
logo
联系我们隐私协议©2024 bendi.news
Bendi新闻
Bendi.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Bendi.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。