记忆存储-应用大语言模型的长期记忆
论文标题:MemoryBank: Enhancing Large Language Models with Long-Term Memory
论文地址:https://arxiv.org/pdf/2305.10250.pdf
概要
- 大语言模型的革命性进步彻底重塑了我们与人工智能系统的交互,在广泛的任务中展示令人印象深刻表现。尽管如此,仍然存在一个明显的问题,长期记忆机制的缺失。在持续互动的需求下,这个缺点变得越来越明显,比如个人伴侣制度、心理咨询和秘书协助等领域。
- 了解了长期记忆的必要性,我们提出创建记忆存储,为大模型定制的一种新的存储机制。记忆存储使模型能够召回相关的记忆,通过不断的记忆更新、理解来变化,随着时间的变化,通过综合历史互动信息来使用用户的个性化特征。
- 为了模拟拟人化的行为并选择性的保存记忆,MemoryBank结合了一个记忆更新机制,灵感来自灵感来自艾宾浩斯遗忘曲线理论,这个机制允许AI随着时间流逝和记忆的相关重要性,来忘记和强化记忆。从而提供更像人类的存储机制和丰富用户体验。MemoryBank在像ChatGPT这样的闭源模型和像ChatGLM这样的开源模型中都适用。
- 为了验证MemoryBank的有效性,我们通过在长期AI伴侣场景中创建一个名为SiliconFriend的基于大模型的聊天机器人来举例说明其应用。进一步基于心理学对话数据,SiliconFriend在互动中表现出更高的同理心和洞察力。实验包括对真实用户对话的定性分析和对模拟对话的定量分析。在后者中,ChatGPT充当具有不同特征的多个用户,并生成涵盖广泛主题的长期对话上下文。我们的分析结果显示,搭载记忆库SiliconFriend的表现出了较强的长期陪伴能力,因为它可以提供强烈的响应,回忆相关记忆,了解用户个性。这凸显了MemoryBank的有效性。
1、介绍
ChatGPT、GPT-4等大模型的出现,导致部门的影响越来越大,从教育和医疗保健到客户服务和娱乐。这些强大的人工智能系统已经展示了一种非凡的能力,可以理解并产生类似人类的反应。基于大模型有着非凡的能力,关键限制是他们没有长期记忆,这是类似类似人类交流的一个重要层面,尤其是在需要持续互动的情况下,比如个人陪伴,心理咨询,人工智能的长期记忆对于维持上下文理解至关重要,确保有意义的交互并理解用户的行为。例如,个人AI同伴需要回忆过去的对话以建立关系。在心理咨询方面,人工智能可以通过了解用户的历史和过去的情绪状态来提供更有效的支持。类似的,AI秘书也需要记忆来进行任务管理和偏好识别。大模型缺乏长期记忆,影响了其性能和用户体验。因此,开发具有改进记忆能力的人工智能系统以实现更加无缝和个性化的交互至关重要。
因此,我们引入记忆存储器,这是一种新颖的机制,旨在为大模型提供保留长期记忆和绘制用户画像的能力。记忆存储器使大模型回忆起历史交互内容,不断训练对环境的理解,根据历史交互来适应用户的个性,从而提高它们在长期交互场景中的性能。灵感来自艾宾浩斯遗忘曲线理论,一个公认的心理学原理,描述了记忆的强度是如何随着时间的推移而下降的,MemoryBank进一步整合了一个动态记忆机制,密切反映了人类的认知过程。这种机制使人工智能能够记住,有选择地忘记,并根据时间的流逝加强记忆,提供更自然、更吸引人的用户体验。MemoryBank是建立在记忆存储的基础上,具有记忆检索和更新机制,能够总结过去的事件和用户的个性。
MemoryBank是通用的,因为它既可以容纳像ChatGPT这样的闭源模型,也可以容纳像ChatGLM或BELLE这样的开源模型。为了举例说明MemoryBank的实际意义,我们开发了SiliconFriend,这是一个基于llm的AI伴侣聊天机器人,集成了这种创新的记忆机制。SiliconFriend旨在保留和参考过去的互动,加强MemoryBank在打造更有个性的人工智能伴侣方面的变革影响力。SiliconFriend的一个显著特点是,它对从各种在线资源中收集的38k个心理对话进行了调整,这使它能够表现出同理心、细心,并提供有用的指导,使其擅长处理充满情感的对话。此外,SiliconFriend的一个突出功能是通过总结过去的互动来了解用户的个性,使它能够根据用户的个人特征定制响应,从而增强用户体验。此外,SiliconFriend支持双语功能,以满足使用英语和中文交流的用户。这种多语言支持扩大了它在不同用户组中的可访问性和可用性。SiliconFriend是用两个开源模型实现的,ChatGLM和BELLE,同时还用了一个闭源模型,ChatGPT,展示记忆库的多功能性,以适应不同的大模型。
为了评估MemoryBank的有效性,我们进行了定性和定量分析的评估,前者涉及真实世界的用户对话,后者使用模拟对话。在定量分析中,我们创建了一个由10天的对话组成的记忆存储,涵盖了各种各样的话题。这些对话涉及15个具有不同个性的虚拟用户。其中,ChatGPT扮演用户的角色,并根据用户的个性生成对话上下文。基于这种记忆存储,我们设计了194个探索性问题来评估该模型是否能够成功地回忆相关记忆并提供适当的回应。实验结果显示了SiliconFriend在记忆回忆、提供共情陪伴和理解用户画像方面的能力。这些发现证实了MemoryBank在长期互动场景中显著提高大模型表现的潜力。我们介绍了一种新的类人长期记忆机制MemoryBank,它使llm能够存储、回忆、更新记忆和绘制用户画像。我们通过SiliconFriend展示了MemoryBank的实际适用性,SiliconFriend是一个基于llm的人工智能伴侣,配备了MemoryBank并调整了心理对话。它可以回忆过去的记忆,提供感同身受的陪伴,并理解用户的行为。我们在三个关键方面展示了MemoryBank的通用性:(1)兼容开源和闭源llm;(2)具备中英文双语能力;(3)有无记忆遗忘机制的适用性。
Figure 1: Overview of MemoryBank. The memory storage (§ 2.1) stores past conversations, summarized events and user portraits, while the memory updating mechanism (§ 2.3) updates the memory storage. Memory retrieval (§ 2.2) recall relevant memory. SiliconFriend (§ 3) serves as an
2、MemoryBank:一种专为大模型设计的新型内存机制
在本节中,我们将详细介绍MemoryBank,这是我们为llm设计的新型内存机制。如图1所示,MemoryBank是一个围绕三个中心支柱构建的统一机制:(1)作为主要数据存储库的记忆存储(§2.1),(2)用于特定情境记忆回忆的记忆检索器(§2.2),以及(3)从艾宾浩斯遗忘曲线理论:一个经过时间考验的关于记忆保留和遗忘的心理学原理)中汲取灵感的记忆更新器(§2.3)。
2.1 记忆存储:记忆的仓库
内存存储: 即MemoryBank的仓库,是一个强大的数据存储库,包含了大量的信息。如图1所示,它存储日常对话记录、过去事件的摘要以及对用户个性的演变评估,从而构建一个动态的、多层次的记忆景观。
深度记忆存储: MemoryBank的存储系统通过以详细的时间顺序记录多回合对话来捕捉AI用户交互的丰富性。每段对话都带有时间戳,创建了过去交互的有序叙述。这种详细的记录不仅有助于精确的记忆检索,而且有助于之后的记忆更新过程,提供了对话历史的详细索引。
层次事件总结:反映了人类记忆的复杂性,MemoryBank不仅仅是详细的存储,它将对话处理并提炼成对日常事件的高级总结,就像人类如何记住他们经历的关键方面一样。我们将冗长的对话压缩为简明的日常事件摘要,该摘要进一步合成为全局摘要。这一过程形成了一种分层记忆结构,提供了对过去互动和重要事件的鸟瞰图。具体来说,以之前的日常对话或日常事件为输入,我们要求大模型总结日常事件或全球事件,并提示“总结内容中的事件和关键信息”
动态个性理解: MemoryBank专注于用户个性理解。它通过长期的互动不断评估和更新这些理解,并创造日常的个性洞察。这些见解进一步汇总,形成对用户个性的整体理解。这种多层次的方法使人工智能伴侣能够根据每个用户的独特特征学习、适应和定制其响应,从而增强用户体验。特别地,通过日常对话或性格分析,我们要求LLM用提示进行推断:“请根据以下对话,总结出用户的性格特征和情绪。或“以下3个是用户在几天内表现出的个性特征和情绪。请提供一个高度简洁和一般的用户个性的总结[日常个性]”。
2.2 记忆提取
建立在强健的记忆存储基础设施上,我们的记忆检索机制类似于知识检索任务。在这种情况下,我们采用了类似于密集通道检索的双塔密集检索模型(Karpukhin et al., 2020)。在这个范例中,每一轮对话和事件摘要都被视为一个记忆片段m,使用编码器模型E(·)将其预编码为上下文表示hm。因此,整个内存M被预编码为M = {h 0 M, h 1 M,…h |M| M},其中每个hm是一个内存块的向量表示。然后使用FAISS对这些向量表示进行索引(Johnson et al., 2019),以便有效检索。与此同时,对话c的当前上下文被E(·)编码到hc中,hc作为查询在M中搜索最相关的内存。在实际应用中,编码器E(·)可以互换为任何合适的模型。
2.3 记忆更新机制
通过2.1节和2.2节中讨论的持久内存存储和内存检索机制,可以大大增强llm的记忆能力。然而,对于期望更多的拟人记忆行为的场景,需要记忆更新。这些场景包括AI伴侣、虚拟IP等。忘记那些不太重要的记忆片段,这些片段是很久以前的事情了,而且很少被回忆起来,这可以让AI伴侣更自然。
我们的记忆遗忘机制受到艾宾浩斯遗忘曲线理论的启发,遵循以下原则两个规则:
遗忘率。
艾宾浩斯发现,记忆力会随着时间的推移而下降。他在他的遗忘曲线中量化了这一点,表明除非有意识地复习,否则学习后的信息很快就会丢失。 时间和记忆衰退。曲线开始时很陡,这表明在学习后的最初几个小时或几天内,大量的学习信息被遗忘了。在最初的一段时间之后,记忆丧失的速度减慢。
间距的效果。
艾宾浩斯发现,重新学习信息比第一次学习更容易。经常复习和重复学过的材料可以重置遗忘曲线,使其不那么陡峭,从而提高记忆力。
艾宾浩斯遗忘曲线是用指数衰减模型来表示的:R = e – t S,其中R是记忆保留,或者是信息可以保留的比例。T是学习信息后经过的时间。E大约等于2.71828。S是记忆强度,它根据学习深度和重复次数等因素而变化。为了简化内存更新过程,我们将S建模为一个离散值,并在对话中第一次提到它时将其初始化为1。当在谈话中回忆起一个记忆项目时,它会在记忆中停留更长时间。我们将S增加1,将t重置为0,因此忽略它的概率更低。
需要注意的是,这是一个探索性的、高度简化的内存更新模型。现实生活中的记忆过程更为复杂,会受到多种因素的影响。对于不同的人和不同类型的信息,遗忘曲线看起来是不同的。总之,MemoryBank将这些关键组件编织在一起,形成了一个更全面的llm内存管理系统。它增强了它们在长时间内提供有意义和个性化交互的能力,为人工智能应用开辟了新的可能性。
3、SiliconFriend:一个由MemoryBank驱动的AI聊天机器人伴侣
为了展示MemoryBank在长期个人AI陪伴领域的实用性,我们创建了一个名为SiliconFriend的AI聊天机器人。它的目的是作为用户的情感伴侣,唤起用户相关的记忆,了解用户的个性和情绪状态。
我们的实现通过整合三个强大的llm来展示适应性,这些llm最初缺乏长期记忆和对心理学领域的特定适应。1) ChatGPT (OpenAI, 2022);一个由OpenAI构建的闭源对话模型,是一个专有的会话AI模型,以其促进动态和交互式对话的能力而闻名。这个模型是在大量数据上训练的,并通过人类反馈的强化学习进一步微调。这种方法使ChatGPT生成的响应不仅适合上下文,而且与人类会话期望密切相关。2) ChatGLM (Zeng et al., 2022): ChatGLM是建立在语言模型基础上的开源模型。该模型的特点是具有62亿个参数,并对中文对话数据进行了专门的优化。该模型的训练包括处理大约1万亿个中文和英文文本标记,辅以监督微调、反馈引导和人类反馈的强化学习。3) BELLE (Yunjie Ji & Li, 2023):BELLE是一个开源的双语语言模型,从7B LLaMA不断微调 (Touvron et al., 2023)。BELLE的特点是使用ChatGPT自动合成指令数据,增强了它的中文会话能力。
SiliconFriend的开发分为两个阶段,第一阶段(仅适用于开源LLM)涉及使用心理对话数据对LLM进行参数高效调优。这一步至关重要,因为它允许SiliconFriend为用户提供有用的、感同身受的情感支持,反映出人们期望从人类伴侣那里得到的理解和富有同情心的回应。第二阶段是将MemoryBank集成到SiliconFriend中,从而为其灌输一个强大的存储系统。MemoryBank允许聊天机器人保留、回忆和利用过去的交互和用户画像,提供更丰富、更个性化的用户体验。
基于心理学对话数据的参数高效调优:SiliconFriend的初始阶段,使用了38k个心理对话的数据集来调优LLM,这些数据是从在线资源中解析出来的,包括涵盖一系列情绪状态和反应的对话。这一调整过程使SiliconFriend能够有效地理解和回应情绪暗示,模仿人类伴侣的同理心、理解和支持。它使人工智能具备利用心理学知识进行情感引导对话的能力,并根据用户的情绪状态为其提供有意义的情感支持。
为了使llm适应计算资源有限的场景,我们使用了一种计算效率高的调优方法,称为低秩适应(LoRA)方法(Hu et al., 2021)。LoRA通过学习秩分解矩阵对来显著减少可训练参数的数量,同时保持原始权重不变。形式上,考虑一个定义为y = W x,权值为W的线性层,LoRA将其修改为y = W x BAx,其中W∈Rd×k, B∈Rd×r, a∈Rr×k, r min(d, k)。该方法大大减少了需要学习的参数数量,这对于资源有限的情况下提高效率至关重要。我们将LoRA的rank r设为16,并在A100 GPU上对模型进行了3次epoch的训练。从本质上讲,这一阶段为SiliconFriend作为一个有同理心的人工智能伴侣的角色奠定了基础,确保它能够对用户的情感需求做出适当而有益的反应。
MemoryBank的集成:
SiliconFriend开发的第二阶段是和MemoryBank的融合。这个阶段至关重要,因为它使SiliconFriend能够存储、检索过去的交互并理解用户画像,从而提供更加个性化和引人入胜的用户体验。当涉及到内存存储时,SiliconFriend和用户之间的对话在内存存储中被记录和更新,这一过程适用于各种模型主干。记忆更新机制的运作原理受到艾宾浩斯遗忘曲线理论的启发,允许一个现实的、类似人类的记忆回忆过程。
在实时会话中,用户的会话作为检索内存的查询。在实践中,我们使用LangChain (LangChain Inc., 2022)进行记忆检索。LangChain支持开源嵌入模型和FAISS索引,使其成为一个通用的选择。在开源版本SiliconFriend的特定语言实现中,我们使用MiniLM (Wang et al., 2020)作为英语的嵌入模型,使用Text2vec (Ming, 2022)作为中文的嵌入模型。值得注意的是,嵌入模型可以灵活地互换以适应不同的需求,甚至可以容纳多语言模型。在检索记忆时,将一系列信息组织到对话提示中,包括相关记忆、全局用户画像和全局事件摘要。
因此,SiliconFriend可以生成参考过去记忆的响应,并根据用户的画像提供量身定制的交互。综上所述,这些阶段将SiliconFriend从一个标准的AI聊天机器人转变为一个长期的AI伴侣,能够从过去的交互中记忆和学习,提供个性化和同理心的用户体验。
4、实验
我们实验的主要目标是在LLM框架内评估MemoryBank的有效性,特别是其作为AI伴侣的能力。我们特别感兴趣的是确定嵌入长期记忆模块是否可以增强人工智能在回忆历史交互和加深对用户个性的理解方面的熟练程度。此外,我们的目标是证明基于心理数据的调整是否可以增强人工智能提供更有效情感支持的能力。
定性分析主要集中在三个方面:
(1)对SiliconFriend和基线llm提供共情和有益心理陪伴的能力进行比较研究;
(2)对SiliconFriend记忆回忆能力的调查;
(3)分析模型对用户资料的理解如何影响响应。
此外,为了在更广泛的范围内证明该模型在记忆回忆方面的熟练程度,我们设计了一个定性分析,使用模拟的长期对话历史和194个记忆探究问题。这个模拟的对话历史,跨越了10天的时间,涵盖了广泛的话题,是由ChatGPT通过15个不同的虚拟用户的角色扮演产生的,每个用户都体现了用户的个性。
4.1 定性分析
通过展示SiliconFriend功能的实际示例进行定性分析。为了收集这些例子,我们为SiliconFriend开发了一个在线平台,收集了实际用户的实时对话
在对话中表现出同理心的能力是一个有效的人工智能伴侣的关键属性。为了评估模型为用户提供心理安慰的能力,我们将SiliconFriend显示的响应与现实世界对话中的基线llm的响应进行了比较。如图2所示,当用户表达情感困难并向SiliconFriend寻求帮助时,该模型能够提供同理心的回应以及建设性的建议。SiliconFriend的回应因其情感支持而脱颖而出,与它的基线ChatGLM形成鲜明的对比
记忆回忆分析
为了评估SiliconFriend在记忆回忆方面的能力,我们将记忆探究式的问题整合到对话中。这些问题旨在提示SiliconFriend从聊天记录中检索特定的细节。如图3所示,用户与SiliconFriend就编程学习建议进行了讨论。几天后,用户提出了几个记忆探索性问题。SiliconFriend成功召回了之前推荐的书籍和算法。此外,它正确地识别了以前没有讨论过的事件(即堆排序算法)。这些例子强调了SiliconFriend成功的记忆回忆和识别能力。
个性化互动分析
如图4所示,我们检验了SiliconFriend对不同个性用户的能力。我们观察到,它可以根据用户的性格特征有效地推荐适合用户兴趣的活动。这一分析表明,SiliconFriend能够与不同的用户个性进行有效的互动。
4.2 定量分析
定量分析了SiliconFriend在更大范围内的记忆回忆能力。我们要求人类注释者对从模型中检索到的记忆和响应进行评分:(1) SiliconFriend ChatGPT; (2) SiliconFriend ChatGLM; (3) SiliconFriend BELLE.
记忆存储结构:
我们最初建立了一个评估基础,存储了15个虚拟用户10天的对话。这些用户个性各异,每天的对话至少包含两个主题。使用ChatGPT生成用户元信息,包括姓名、个性和感兴趣的主题。由ChatGPT操作的用户根据预定义的主题和用户个性合成对话。我们创建中英文记忆存储。在构建记忆存储后,我们手动编写194个探究性问题(97个英文问题和97个中文问题),以评估模型是否能够准确地回忆相关记忆并适当地制定答案。表1给出了一个用户元信息、生成的对话和试探性问题的示例。
ChatGLM:
- 我建议你试着做一些适度的运动,听音乐,阅读,和朋友聊天,或者在日常生活中加入更多的娱乐和休闲活动 减少生活工作压力和负面影响。你也可以尝试添加更多的这些把事情适度地带入你的生活,因为平衡事情而不是过度是很重要的它。如果你仍然感到压力,我建议你寻求专业人士的帮助,可以提供进一步指导和支持的咨询师或治疗师。
BELLE
- 我推荐了一些缓解压力的方法,比如做适度的运动,听音乐、读书、和朋友聊天等等。你可以尝试添加更多的娱乐和休闲活动融入你的日常生活,减少工作压力和负面影响。
ChatGPT
- 根据我们过去的谈话,我建议做适度的运动,听音乐,读书,和朋友聊天,在你的日常生活中增加更多的休闲活动也是有益的缓解压力的方法。运动可以帮助释放内啡肽,改善你的情绪,同时音乐和阅读可以让精神逃离压力。和朋友聊天也可以通过提供社会支持系统来帮助缓解压力。最后,增加休闲活动你的日常生活可以是一个有趣和有效的方式来减少压力水平。
[========]
评估指标模型的性能基于以下指标进行评估。(1) Memory Retrieval Accuracy(记忆检索准确性):判断相关内存是否能够被检索成功(标签:{0:no, 1: yes})。(2)响应正确性:评估响应是否包含探测问题的正确答案(标签:{0:错误,0.5:部分,1:正确})(3)上下文连贯:评估回答是否自然连贯,连接对话上下文和检索到的记忆(标签:0:不连贯,0.5:部分连贯,1:连贯)。(4)模型排名得分:对三个SiliconFriend变体的输出进行排名(ChatCLM,ChatGPT,BELLE)对于同样的问题和背景。模型的得分采用s = 1/r计算,其中r = 1,2,3表示其相对排名。
结果分析:我们使用英文和中文测试集评估3个SiliconFriend变体。表2给出了以下结果:(1)我们的整体最佳变体SiliconFriend ChatGPT在所有指标上都具有高性能,显示了我们整体框架的有效性。SiliconFriend BELLE和SiliconFriend ChatGLM在检索准确性方面也有很高的性能。BELLE和ChatGLM基本模型的整体能力比ChatGPT较差。(3)模型的表现因语言不同而不同。SiliconFriend ChatGLM 和SiliconFriend ChatGPT在英语上效果更好,SiliconFriend BELLE 擅长中文
5、相关工作
LLM:
GPT-3 (Brown et al., 2020)、OPT (Zhang et al., 2022) 和 FLAN-T5 (Chung et al., 2022) 等LLM在广泛的自然语言处理任务中取得了显着的进步最近几年。 最近PaLM (Chowdhery et al., 2022)、GPT-4 (OpenAI, 2023) 和 ChatGPT (OpenAI, 2022) 等尖端闭源语言模型继续展现出巨大的灵活性,能够适应各种不同的场景域。 它们越来越成为许多人的日常决策辅助工具。 然而,这些模型的闭源性质阻碍了研究人员和公司研究LLM的内部机制并构建适应领域的应用程序。 因此,社区中出现了许多开源LLM,如LLaMa(Touvron et al., 2023)、ChatGLM(Zeng et al., 2022)和Alpaca(Taori et al., 2023)。 如需了解更多详细信息,我们建议读者参阅这篇综合评论:Zhao 等人。 (2023)。 尽管如此,这些模型仍然存在缺陷。 一个明显的差距在于它们缺乏强大的长期记忆功能。 这种限制阻碍了他们长期维护上下文并从过去的交互中检索相关信息的能力。 我们的研究就在此展开,主要目标是为LLM开发长期记忆机制。
长期记忆机制:
人们已经进行了许多尝试来增强记忆神经模型的能力。 记忆增强网络(MANN)(Meng & Huang,2018;Graves et al., 2014)像神经图灵机(NTMs)(Graves et al., 2014)就是一个例子,旨在增加神经网络的记忆容量。 这些模型的结构是为了交互具有外部存储器矩阵,使它们能够处理需要维护和维护的任务长时间操纵存储的信息。 尽管显示出潜力,但这些方法尚未完全解决LLM对可靠且适应性强的长期记忆功能的需求。也有一些研究关注远程对话(Xu et al., 2021, 2022)。 为了例如徐等人。 (2021) 引入了一个新的英语数据集,由多会话人类-人类组成众工聊天进行长期对话。 然而,这些对话通常受到限制几轮对话,不符合长期人工智能的应用场景同伴。 此外,这些模型往往无法创建详细的用户画像,缺乏类人的特征。记忆更新机制,这对于促进更自然的交互至关重要。 这个概念记忆更新的研究在心理学领域得到了广泛的研究。 遗忘曲线理论艾宾浩斯(Ebbinghaus,1964)对记忆保留和遗忘模式提供了宝贵的见解随着时间的推移。 从这一理论中获得灵感,我们将记忆更新机制整合到MemoryBank中,以增强其长期记忆功能。
综上所述,虽然大模型领域已经取得了重大进展,但仍然需要长期记忆机制来增强LLM在需要个性化和持久交互的场景中的能力。我们的工作表明,记忆库是解决这一挑战的一种新方法。
6、结论
我们提出MemoryBank,一种新的长期记忆机制,旨在解决llm的记忆限制。MemoryBank增强了随着时间的推移保持上下文、回忆相关信息和理解用户个性的能力。此外,MemoryBank的记忆更新机制的灵感来自艾宾浩斯遗忘曲线理论,这是一个描述记忆保留和遗忘随时间变化的本质的心理学原理。该设计提高了AI在长期交互场景中的拟人化。MemoryBank的多功能性通过它对两个开源模型如ChatGLM and BELLE,和闭源的模型如ChatGPT.
我们通过开发SiliconFriend进一步说明MemoryBank的实际应用,SiliconFriend是一个基于LLM的聊天机器人,旨在作为长期的人工智能伴侣。搭载MemoryBank, SiliconFriend可以更深入地了解用户,提供更个性化、更有意义的交互,强调MemoryBank将人工智能交互人性化的潜力。SiliconFriend对心理对话数据的调整使其能够提供同理心的情感支持。包括定性和定量方法在内的大量实验验证了该方法的有效性。