赞
踩
统一大语言模型和知识图谱综述
Unifying Large Language Models and Knowledeg Graphs: A Roadmap
githb:https://github.com/zjukg/KG-LLM-Papers
介绍了大语言模型的知识图谱结合的一些东西。
LLM在一些NLP任务上发展很好。最近,模型参数规模的大幅度增加进一步增强LLM能力,为LLM作为人工通用智能(Artificial General Intelligence, AGI)的应用铺平了道路。
幻觉问题相关文章:【Survey of Hallucination in Natural Language Generation】【A Multitask, Multilingual, Multimodal Evaluation of ChatGPT on Reasoning, Hallucination, and Interactivity】
【Self-Consistency Improves Chain of Thought Reasoning in Language Models】
这个文章设计了一种改善 思维链+LLM 的方法
解决上述问题的一种方法是引入知识图谱Knowledge Graphs(KGs)。然而KGs具有难构建、不足以处理真实世界知识、文本信息被忽略、知识不够普遍等问题,因此也需要LLMs来解决KGs面临的问题。
预训练阶段引入知识需要重新训练LLM
动态知识融合将知识储存在参数中,而该方法采用两个模块①检索模块(无参数)②融合模块(有参数)
利用LLMs对文本进行编码或生成事实,以提高KGC的性能
对于不开源代码的LLM(chatGPT 、GPT-4)使用prompt engineering去做
知识图构建涉及在特定领域内创建知识的结构化表示。这包括识别实体及其彼此之间的关系。
目标是生成准确、一致地描述输入知识图信息的高质量文本
knowledge representation
文本语料和知识图谱都包含大量的知识,然而文本预料中的知识是隐性和无结构的;知识图谱中的是显性和结构性的。
reasoning
利用知识图谱解决LLMs面临的幻觉问题
进一步的研究将LLM和KGs结合起来,实现了一个通用的事实核查模型(generalized fact-checking model),可以跨领域检测幻觉。
用知识图谱更新LLMs中的知识
LLM无法像现实世界一样快速更新存储的知识。有些人研究了不重新训练LLM的情况下去更新其知识,但是表现不好并且开销大。用人研究的用KGs更新LLM知识,但仅限于处理KGs中基于元组的简单知识
挑战:灾难性遗忘和错误的知识编辑(catastrophic forgetting and incorrect knowledge editing )
知识图谱注入黑盒LLM
上述方法需要更新网络结构和模型参数从而更新LLM,然而有一些LLM(ChatGPT)无法这样。因此要转化知识为不同的文本prompt,问题在于不清楚这些prompt能否推广到新LLM中,并且受到LLM输入的tokens数量的限制。
探索如何为black-box LLM实施有效的知识注入。
多模态LLM强化知识图谱
利用多模态LLM对模态对齐(modality alignment)
理解图结构的大模型
LLM由文本数据训练,不理解知识图谱中的结构数据。简单解决方法是将结构化数据转化为LLM可以理解的句子。然而KG结构不一定能全部转化为句子,并且转化过程会损失一部分信息。
开发能够直接理解KG结构的LLM
用于二元推理的协同LLM和知识图谱(Synergized LLMs and KGs for Birectional Reasoning)
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。