论文日常阅读笔记—Graph CoT

Graph CoT [提示工程]


前言:
博主摆烂一年多了,主要是日常各种大作业太忙了,一直没时间整理好笔记发博客,但实际上博客草稿其实已经攒了一大堆了。现在好不容易闲下来了,该好好沉淀沉淀了,这里立一个flag,至少保持一周一更qwq。


论文来源:Graph Chain-of-Thought: Augmenting Large Language Models by Reasoning on Graphs

对应开源代码库: https://github.com/PeterGriffinJin/Graph-CoT

主要贡献:

创造了一种新的图结构数据集,同时提出了一种类似于agent的框架,同样是并没有修改大模型本身结构,创新点在提示工程+外部图数据检索方式上。

本文提出的Graph CoT主要包含3个主要步骤:

1.Reasoning with LLMs

2.Interaction between LLMs and Graphs

3.Execution on Graphs

示意图:

Graph_CoT论文结构示意图

实验结果

作者实验发现上图作为基础的LLM如果它的instruction following abilityreasoning ability越强,最后效果也越好。

同时作者还将该方法和常见的Text RAG 和Graph RAG进行了比较,结果显示:

Graph CoT > Graph RAG > Text RAG

这里有必要去补一下相关RAG的论文:

Text RAGYunfan Gao, Yun Xiong, Xinyu Gao, Kangxiang Jia, Jinliu Pan, Yuxi Bi, Yi Dai, Jiawei Sun, and Haofen Wang. 2023. Retrieval-augmented generation for large language models: A survey. arXiv preprint arXiv:2312.10997

Graph RAGRuosong Ye, Caiqi Zhang, Runhui Wang, Shuyuan Xu, and Yongfeng Zhang. 2023. Natural language is all a graph needs. arXiv preprint arXiv:2308.07134.

文末附加内容
暂无评论

发送评论 编辑评论


				
|´・ω・)ノ
ヾ(≧∇≦*)ゝ
(☆ω☆)
(╯‵□′)╯︵┴─┴
 ̄﹃ ̄
(/ω\)
∠( ᐛ 」∠)_
(๑•̀ㅁ•́ฅ)
→_→
୧(๑•̀⌄•́๑)૭
٩(ˊᗜˋ*)و
(ノ°ο°)ノ
(´இ皿இ`)
⌇●﹏●⌇
(ฅ´ω`ฅ)
(╯°A°)╯︵○○○
φ( ̄∇ ̄o)
ヾ(´・ ・`。)ノ"
( ง ᵒ̌皿ᵒ̌)ง⁼³₌₃
(ó﹏ò。)
Σ(っ °Д °;)っ
( ,,´・ω・)ノ"(´っω・`。)
╮(╯▽╰)╭
o(*////▽////*)q
>﹏<
( ๑´•ω•) "(ㆆᴗㆆ)
😂
😀
😅
😊
🙂
🙃
😌
😍
😘
😜
😝
😏
😒
🙄
😳
😡
😔
😫
😱
😭
💩
👻
🙌
🖕
👍
👫
👬
👭
🌚
🌝
🙈
💊
😶
🙏
🍦
🍉
😣
Source: github.com/k4yt3x/flowerhd
颜文字
Emoji
小恐龙
花!
上一篇
下一篇