赞
踩
大语言模型(LLMs)在处理特定领域或知识密集型任务时仍存在显著的局限性。RAG 通过从外部知识库中检索相关文档块,显著提高了生成内容的准确性和可信度。
Naive RAG 是最早的方法,包括索引(Indexing)、检索(Retrieval)和生成(Generation)三个步骤,即“检索-阅读”框架。
缺陷:
Advanced RAG 针对 Naive RAG 的不足进行了改进,通过预检索和后检索策略提升检索质量,并优化索引技术。
技术细节:
Modular RAG 提供了更高的适应性和灵活性,通过添加搜索模块、细化检索器等多种策略改进其组件。
特点:
RAG 提供了实时知识更新和高解释性的外部知识利用,但存在更高的延迟和数据检索的伦理问题。相比之下,微调需要重新训练来更新,但能够深度定制模型行为和风格。
RAG依赖外部知识来增强LLMs,而检索源的类型和检索单元的粒度都会影响最终的生成结果。
在索引阶段,文档会被处理、分割并转化为嵌入存储在向量数据库中。索引构建的质量决定了在检索阶段是否能够获取正确的上下文。
Naive RAG的一个主要挑战是直接依赖用户的原始查询进行检索。提出了多种查询优化方法以提升检索效果。
选择合适的嵌入模型和优化嵌入表示是提升检索效果的关键。
在RAG系统中,适配器可以用于调整模型的行为和性能,以适应不同的任务需求。
第三章通过详细探讨检索部分在RAG系统中的应用,提出了多种优化策略来提高检索质量和效率。这些方法不仅提升了检索的准确性和一致性,还为处理复杂的检索任务提供了新的思路。
在检索到的内容进行处理后,不建议直接将所有检索到的信息输入到LLM中回答问题。冗余信息会干扰LLM的最终生成,过长的上下文也会导致LLM出现“中间丢失”的问题。像人类一样,LLM往往只关注长文本的开头和结尾部分,而忽略中间部分。因此,在RAG系统中,我们通常需要进一步处理检索到的内容。
针对特定场景和数据特征进行LLM的微调,可以显著提升生成效果。这是使用本地LLM的一个重要优势。当LLM在特定领域缺乏数据时,可以通过微调为LLM提供额外知识。
第四章通过详细探讨生成部分在RAG系统中的应用,提出了多种生成策略和评估方法来提高生成内容的质量。这些方法不仅提高了生成的准确性和一致性,还为处理复杂的生成任务提供了新的思路。
在传统的RAG系统中,单次检索和生成的方法存在一定的局限性,特别是在处理复杂问题时。为了解决这些问题,提出了增强技术,包括迭代检索、递归检索和自适应检索。
迭代检索是一种基于初始查询和当前生成文本反复检索知识库的方法。该过程通过多次检索迭代提供更丰富的上下文,提高生成回答的鲁棒性和准确性。
递归检索通过反复细化用户查询并将问题分解为子问题来改进检索结果。此方法对于复杂搜索场景特别有效。
自适应检索方法使得RAG系统能够自主决定何时需要进行外部知识检索,以及何时停止检索和生成。通常利用LLM生成的特定控制符来实现。
第五章通过详细探讨增强技术在RAG中的应用,提出了多种优化方案来应对传统RAG方法的局限性。这些增强技术不仅提高了检索和生成的质量,还为处理复杂问题和多样化的任务提供了新的方法和思路。
RAG的核心任务仍然是问答(QA),包括传统的单跳/多跳问答、多项选择题、领域特定的QA以及适合RAG的长形式场景。除了QA,RAG还在不断扩展到多个下游任务,如信息抽取(IE)、对话生成、代码搜索等。RAG的主要下游任务及其对应的数据集总结如下表II所示。
传统上,RAG模型的评估主要集中在其在特定下游任务中的执行情况。这些评估使用适合任务的既定指标。例如,问答评估可能依赖于EM和F1得分,而事实核查任务通常依赖于准确性作为主要指标。常用的指标还包括BLEU和ROUGE。
当代RAG模型的评估实践强调三个主要质量得分和四个必要能力,这些共同为RAG模型的两大主要目标(检索和生成)的评估提供信息。
提出了一系列基准测试和工具来促进RAG的评估。这些工具提供定量指标,不仅评估RAG模型的性能,还提高对模型在各种评估方面能力的理解。突出的基准测试包括RGB、RECALL和CRUD。
第六章通过详细探讨任务和评估部分在RAG系统中的应用,提出了多种评估策略来提高评估的质量和效率。这些方法不仅提升了评估的准确性和一致性,还为处理复杂的评估任务提供了新的思路。
随着研究的深入,LLM的上下文处理能力不断增强。目前,LLM可以轻松处理超过200,000个token的上下文。这一能力表明,以前依赖于RAG的长文档问答,现在可以直接将整个文档纳入提示中。这也引发了关于在LLM不受上下文限制时,RAG是否仍然必要的讨论。实际上,RAG依然不可替代。一方面,提供大量上下文会显著影响LLM的推理速度,而分块检索和按需输入可以显著提高操作效率。另一方面,基于RAG的生成可以快速定位LLM的原始参考资料,帮助用户验证生成的答案。上下文的扩展为RAG的发展提供了新机遇,使其能够解决更复杂的问题和需要大量阅读材料的综合性或总结性问题。
检索过程中存在的噪声或矛盾信息会对RAG的输出质量产生不利影响。提高RAG对这些对抗性或反事实输入的抵抗能力正在成为一个重要的研究方向。研究发现,包含无关文档有时会意外地提高准确性,这强调了开发专门的策略来将检索与语言生成模型集成的重要性。
将RAG与微调相结合正在成为一种领先的策略。确定RAG和微调的最佳集成方式——无论是顺序、交替还是通过端到端联合训练——以及如何利用参数化和非参数化优势是值得探索的领域。另一种趋势是引入具有特定功能的小型语言模型(SLM)到RAG中,并通过RAG系统的结果进行微调。
端到端RAG模型和基于RAG的预训练模型仍然是当前研究的重点。这些模型的参数是关键因素。虽然缩放法则已为LLM建立,但其对RAG的适用性仍不确定。一些初步研究表明,在某些情况下,小模型可能优于大模型,这需要进一步的研究。
RAG的实用性和与工程需求的一致性促进了其采用。然而,提高检索效率、改进大知识库中的文档召回以及确保数据安全(如防止LLM无意中泄露文档源或元数据)仍是需要解决的关键工程挑战。
RAG已经超越了其初始的基于文本的问答范围,拥抱了多种模态数据。这种扩展催生了创新的多模态模型,这些模型在各个领域整合了RAG概念。
第七章通过详细探讨RAG技术的现状、面临的挑战以及未来的发展方向,提出了多种策略来提高RAG的性能和应用范围。这些方法不仅提升了RAG的鲁棒性和效率,还为处理复杂任务提供了新的思路和方法。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。