赞
踩
当GPT-4无法正确回答一个问题时,依靠RAG和检索得到的正确知识,一定就能生成正确的回答吗?如果RAG知识库中的知识是错的、或者RAG知识库中的知识与大模型内部的知识相矛盾,会出现什么结果?
围绕这些问题,斯坦福大学近期的一篇论文[1]介绍了作者们的有关实验以及实验的结果。
实验的主要结果如下。
一、当大模型使用检索出的正确知识回答问题时,能够正确回答94%的测试问题。相比之下,当大模型不使用检索、单独回答测试问题时,只能正确回答35%的测试问题。这表明RAG能够提高、但是不能确保大模型回答问题的准确性。
二、检索得到的知识是否会被大模型采用,与大模型对于其内部知识的确信程度有关:
三、当RAG知识库中的知识与正确的知识相矛盾时,矛盾的程度越大,生成的回答就越倾向于使用大模型内部的知识。这表明了知识库中存储正确知识的重要性。
四、当检索得到的知识与大模型内部的知识相矛盾时,矛盾的程度越大,生成的回答就越倾向于使用大模型内部的知识。这表明了大模型内部知识的正确性同样非常重要。
五、提示语的倾向性会影响生成的回答:
上述的实验结果可以总结为:
论文的作者们指出了实验的一些局限,包括:
作者们在实验中使用了1200多道问答题。提问问题的类型包括:
作者们在模拟产生不同错误程度的错误知识时,使用了以下的方法:
参考文献:
[1] How Faithful are RAG Models? Quantifying the Tug-of-War between RAG and LLMs' Internal Prior. https://arxiv.org/pdf/2404.10198
[2] RAGged Edges: The Double-Edged Sword of Retrieval-Augmented Chatbots. https://arxiv.org/pdf/2403.01193
封面图:Phillip Glickman、Unsplash
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。