赞
踩
综述《Unifying Large Language Models and Knowledge Graphs: A Roadmap》思路的粗略笔记
大语言模型LLM和知识图谱KG各有优劣,希望能够找到一种互补的方式来统一LLM和KG。作者们对LLM和KG的优劣概述如下图:
作者们提出的Roadmap包括三个框架来统一LLM和KG,如下图所示:
作者进一步对三个框架进行了归类,如下图所示
KG-enhanced LLMs 是用KG来增强LLM,使得LLM可以减少幻觉和增加可解释性,将其分为三类:
LLM-augmented KGs 是应用LLM来增强KG相关的任务,将其分为五类:
Synergized LLMs + KGs 志在将LLM和KG组合成一个统一的框架来互相增强,分为两类:知识表示和推理。作者还针对Synergized LLMs + KG提出了一个如下图的四层框架。
这部分主要相关研究工作如下图
将KG与LLM的预训练结合可被归类为三个部分:
一般在QA任务应用LLM时,在LLM推理阶段结合KG来补充最新的知识,被分为两类:
LLM可解释性是指理解和解释LLM的内部工作机制和决策过程。使用KG来提升LLM的可解释性分为两类:
这部分主要相关研究工作如下图
考虑到传统KG向量表征一般只使用KG的节点和关系等结构信息,利用LLM对文本理解的优势,来丰富KG向量表征,分为将LLMs as Text Encoders(如下图)和 LLMs for Joint Text and KG Embedding两类。
KG completion是对给定的知识图谱推理出缺失的信息,与LLM-augmented KG embedding 类似,LLM的文本理解优势也被用来进行KG completion,现有方法主要分为 LLM as Encoders (PaE)和LLM as Generators (PaG)
KG构建过程包括实体发现、指代消解、关系抽取等多个阶段,在知识图谱构建中使用LLM的整体示意如下图。除此之外现在研究也关注端到端的知识图谱构建和从LLM中蒸馏知识图谱。
KG-to-text Generation的目标是为了生成能够准确地描述知识图谱信息的高质量文本,研究主要分为leverage knowledge from LLMs 和 construct large-scale weakly-supervised KG-text corpus
LLM用于Knowledge graph question answering (KGQA)的框架如下图,LLM被用作entity/relation extractors, 和 answer reasoners
这部分的相关代表研究如下图:
Knowledge Representation一般框架如下图
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。