告別傳統(tǒng) RAG,迎接 GraphRAG:知識圖譜+本體=更強(qiáng) AI 精華
現(xiàn)代 AI 聊天機(jī)器人常常依賴 Retrieval-Augmented Generation (RAG),也就是檢索增強(qiáng)生成技術(shù)。這種技術(shù)讓機(jī)器人能從外部數(shù)據(jù)中提取真實(shí)信息來支撐回答。如果你用過“與你的文檔聊天”之類的工具,你就見過 RAG 的實(shí)際應(yīng)用:系統(tǒng)會從文檔中找到相關(guān)片段,喂給大語言模型(LLM),讓它能用準(zhǔn)確的信息回答你的問題。
RAG 大大提升了 LLM 回答的事實(shí)準(zhǔn)確性。不過,傳統(tǒng) RAG 系統(tǒng)大多把知識看成一堆互不關(guān)聯(lián)的文本片段。LLM 拿到幾段相關(guān)內(nèi)容后,得自己把它們拼湊起來回答。這種方式對簡單問題還行,但遇到需要跨多個(gè)來源串聯(lián)信息的復(fù)雜查詢,效果就不理想了。
這篇文章會深入淺出地解釋兩個(gè)能讓聊天機(jī)器人更上一層樓的概念:ontologies(本體論) 和 knowledge graphs(知識圖譜),以及它們?nèi)绾闻c RAG 結(jié)合,形成 GraphRAG(基于圖的檢索增強(qiáng)生成)。我們會用簡單的語言說明它們是什么,為什么重要。
為什么這很重要?你可能會問。因?yàn)?GraphRAG 能讓聊天機(jī)器人的回答更準(zhǔn)確、更貼合上下文、更有洞察力,比傳統(tǒng) RAG 強(qiáng)多了。企業(yè)在探索 AI 解決方案時(shí)很看重這些特質(zhì)——一個(gè)真正理解上下文、避免錯(cuò)誤、能處理復(fù)雜問題的 AI 可以徹底改變游戲規(guī)則。(不過,這需要完美的實(shí)現(xiàn),實(shí)際中往往沒那么理想。)
通過把非結(jié)構(gòu)化文本和結(jié)構(gòu)化的知識圖譜結(jié)合起來,GraphRAG 系統(tǒng)能提供感覺上更“有學(xué)問”的回答。把知識圖譜和 LLM 結(jié)合起來,是讓 AI 不僅能檢索信息,還能真正理解信息的關(guān)鍵一步。
什么是 RAG?
Retrieval-Augmented Generation,簡稱 RAG,是一種通過外部知識來增強(qiáng)語言模型回答的技術(shù)。RAG 系統(tǒng)不是僅靠模型記憶里的東西(可能過時(shí)或不完整)來回答,而是會從外部來源(比如文檔、數(shù)據(jù)庫或網(wǎng)絡(luò))抓取相關(guān)信息,喂給模型來幫助生成答案。
簡單來說,RAG = LLM + 搜索引擎:模型先檢索支持?jǐn)?shù)據(jù),增強(qiáng)對主題的理解,然后結(jié)合內(nèi)置知識和檢索到的信息生成回答。

如上圖所示,典型的 RAG 流程包含幾個(gè)步驟,就像一個(gè)智能查找過程:
1.索引知識:系統(tǒng)先把知識來源(比如一堆文檔)分成小塊文本,為每塊生成vector embeddings(向量嵌入)。這些嵌入是文本含義的數(shù)字表示,存進(jìn)一個(gè)向量數(shù)據(jù)庫或索引中。
2.查詢嵌入:用戶提出問題時(shí),查詢也會用同樣的技術(shù)轉(zhuǎn)成向量嵌入。
3.相似性搜索:系統(tǒng)把查詢向量和存儲的向量對比,找出與問題最“相似”或相關(guān)的文本塊。
4.結(jié)合上下文生成:最后,語言模型拿到用戶問題和檢索到的文本片段作為上下文,生成包含這些信息的回答。
RAG 讓 LLM 在現(xiàn)實(shí)場景中變得更實(shí)用。像 Bing Chat 或各種文檔問答機(jī)器人就是靠 RAG 提供最新、具體的答案,還能附上參考資料。通過用檢索到的文本來“錨定”回答,RAG 減少了 hallucinations(模型瞎編),還能訪問超出 AI 訓(xùn)練截止日期的信息。不過,傳統(tǒng) RAG 也有一些明顯的局限:
? 它把檢索到的文檔基本上當(dāng)作獨(dú)立的、非結(jié)構(gòu)化的文本塊。如果回答需要綜合多個(gè)文檔的信息或理解它們之間的關(guān)系,模型得在生成時(shí)自己完成這個(gè)重活。
? RAG 的檢索通常基于semantic similarity(語義相似性)。它能找到相關(guān)段落,但不一定理解內(nèi)容的真正含義,或者一個(gè)事實(shí)如何與另一個(gè)事實(shí)關(guān)聯(lián)。
? 沒有內(nèi)置機(jī)制來推理或確保檢索數(shù)據(jù)的一致性;LLM 只是拿到一堆文本,盡力把它們串起來。
在實(shí)際中,對于簡單的事實(shí)查詢,比如“這家公司什么時(shí)候成立的?”,傳統(tǒng) RAG 表現(xiàn)很好。但對于復(fù)雜問題,比如“比較第一季度銷售和營銷支出的趨勢,并找出相關(guān)性”,傳統(tǒng) RAG 就可能掉鏈子。它可能返回一段關(guān)于銷售的文本,另一段關(guān)于營銷的,但邏輯整合得靠 LLM 自己來,可能不一定能連貫成功。
這些局限性指向一個(gè)機(jī)會。如果我們不只是給 AI 一堆文檔,而是再給它一個(gè) knowledge graph(知識圖譜),也就是實(shí)體和它們關(guān)系的網(wǎng)絡(luò),作為推理的框架呢?如果 RAG 檢索不只是基于相似性返回文本,而是返回一組相互關(guān)聯(lián)的事實(shí),AI 就能順著這些聯(lián)系生成更有洞察力的回答。
GraphRAG 就是把基于圖的知識整合進(jìn) RAG 流程。通過這樣做,我們希望解決上面提到的多來源、歧義和推理問題。
在深入 GraphRAG 的工作原理之前,我們先搞清楚 knowledge graphs(知識圖譜) 和 ontologies(本體論) 是什么——它們是這種方法的基礎(chǔ)。
知識圖譜(Knowledge Graphs)
知識圖譜 是一種對現(xiàn)實(shí)世界知識的網(wǎng)絡(luò)化表示,圖中的每個(gè) node(節(jié)點(diǎn)) 代表一個(gè)實(shí)體,每條 edge(邊) 代表實(shí)體間的關(guān)系。

如上圖所示,知識圖譜以圖的形式組織數(shù)據(jù),而不是表格或孤立的文檔。這意味著信息天然就捕捉了聯(lián)系。一些關(guān)鍵特點(diǎn):
?靈活性:你可以隨時(shí)添加新的關(guān)系類型或?qū)嶓w的屬性,不會搞亂整個(gè)系統(tǒng)。圖可以輕松擴(kuò)展以適應(yīng)新知識。
?語義化:每條邊都有含義,這讓沿著圖遍歷并提取有意義的推理鏈成為可能。圖不僅能表示內(nèi)容,還能表示上下文。
?支持多跳查詢:如果你想知道兩個(gè)實(shí)體如何關(guān)聯(lián),圖數(shù)據(jù)庫可以遍歷鄰居、鄰居的鄰居,依此類推。
知識圖譜通常存儲在專門的 graph databases(圖數(shù)據(jù)庫) 或 triplestores(三元存儲) 中。這些系統(tǒng)專為存儲節(jié)點(diǎn)和邊、運(yùn)行圖查詢而優(yōu)化。
知識圖譜的結(jié)構(gòu)對 AI 系統(tǒng)(尤其在 RAG 場景中)是個(gè)大加分項(xiàng)。因?yàn)槭聦?shí)是相互關(guān)聯(lián)的,LLM 能拿到一整個(gè)相關(guān)信息的網(wǎng)絡(luò),而不是孤立的片段。這意味著:
? AI 系統(tǒng)能更好地消除歧義。比如,如果問題提到“Jaguar”,圖可以通過關(guān)系明確是汽車還是動物,提供文本單獨(dú)無法給出的上下文。
? AI 系統(tǒng)可以通過“連接”或遍歷收集相關(guān)事實(shí)。圖查詢可以提供一個(gè)全相關(guān)的子圖,而不是零散的段落,為模型提供一個(gè)預(yù)先拼好的拼圖,而不是單個(gè)碎片。
? 知識圖譜保證一致性。比如,如果圖知道產(chǎn)品 X 包含部件 A 和 B,它就能可靠地只列出這些部件,不像文本模型可能會瞎編或漏掉信息。圖的結(jié)構(gòu)化特性讓事實(shí)的聚合更完整、更準(zhǔn)確。
? 圖通過追蹤推理鏈的節(jié)點(diǎn)和邊提供explainability(可解釋性),讓推理過程清晰,增加答案的可信度。
總結(jié)來說,知識圖譜為 AI 的上下文注入了意義。它不是把數(shù)據(jù)當(dāng)一堆詞袋處理,而是當(dāng)作一個(gè)知識網(wǎng)絡(luò)。這正是我們希望 AI 在回答復(fù)雜問題時(shí)擁有的:一個(gè)可以導(dǎo)航的、豐富的關(guān)聯(lián)上下文,而不是每次都要硬解析一堆文檔。
現(xiàn)在我們了解了知識圖譜是什么,以及它如何助力 AI 系統(tǒng),接下來看看 ontologies(本體論) 是什么,以及它們?nèi)绾螏椭鷺?gòu)建更好的知識圖譜。
本體論(Ontologies)
在知識系統(tǒng)的語境中,ontology(本體論) 是一個(gè)特定領(lǐng)域的知識的正式規(guī)范。它定義了該領(lǐng)域中存在的實(shí)體(或概念)以及這些實(shí)體之間的關(guān)系。

本體論通常將概念組織成層級或分類體系,但也可能包含邏輯約束或規(guī)則。比如,可以聲明“每個(gè)訂單必須至少包含一個(gè)產(chǎn)品項(xiàng)目”。
為什么本體論重要?你可能會問。本體論為一個(gè)領(lǐng)域提供了共享的理解,這在整合多個(gè)來源的數(shù)據(jù)或構(gòu)建需要推理該領(lǐng)域的 AI 系統(tǒng)時(shí)特別有用。通過定義一組通用的實(shí)體類型和關(guān)系,本體論確保不同團(tuán)隊(duì)或系統(tǒng)用一致的方式指代事物。比如,如果一個(gè)數(shù)據(jù)集把人叫“Client”,另一個(gè)叫“Customer”,通過映射到同一個(gè)本體論類(比如 Customer 作為 Person 的子類),就能無縫合并這些數(shù)據(jù)。
在 AI 和 GraphRAG 的語境中,本體論是知識圖譜的藍(lán)圖——它決定了圖中會有哪些節(jié)點(diǎn)和鏈接。這對復(fù)雜推理至關(guān)重要。如果你的聊天機(jī)器人知道在你的應(yīng)用中“Amazon”是一個(gè) Company(公司)(而不是河流),而 Company 在本體論中有定義(包含 headquarters、CEO 等屬性,以及 hasSubsidiary 等關(guān)系),它就能更精確地錨定答案。
現(xiàn)在我們了解了知識圖譜和本體論,來看看如何把它們整合進(jìn)類似 RAG 的流程中。
GraphRAG
GraphRAG 是傳統(tǒng) RAG 的進(jìn)化版,它明確將知識圖譜納入檢索過程。在 GraphRAG 中,用戶提問時(shí),系統(tǒng)不只是對文本做向量相似性搜索,還會查詢知識圖譜中相關(guān)的實(shí)體和關(guān)系。

1.索引知識:輸入包括結(jié)構(gòu)化數(shù)據(jù)(比如數(shù)據(jù)庫、CSV 文件)和非結(jié)構(gòu)化數(shù)據(jù)(比如文檔)。結(jié)構(gòu)化數(shù)據(jù)通過數(shù)據(jù)轉(zhuǎn)換,將表格行轉(zhuǎn)為三元組。非結(jié)構(gòu)化數(shù)據(jù)被拆成可管理的文本塊,從中提取實(shí)體和關(guān)系,同時(shí)計(jì)算embeddings(嵌入),生成帶嵌入的三元組。
2.問題分析與嵌入:分析用戶查詢,識別關(guān)鍵術(shù)語或?qū)嶓w,用相同的嵌入模型將這些元素轉(zhuǎn)為嵌入。
3.圖搜索:系統(tǒng)查詢知識圖譜,找到與關(guān)鍵術(shù)語相關(guān)的節(jié)點(diǎn),不只是檢索語義相似的項(xiàng)目,還利用關(guān)系。
4.結(jié)合圖上下文生成:生成模型使用用戶查詢和檢索到的圖增強(qiáng)上下文生成答案。
在底層,GraphRAG 可以用多種策略整合圖查詢。系統(tǒng)可能先做常規(guī)的語義搜索,找 top-K 文本塊,然后遍歷這些塊的圖鄰居以收集額外上下文,再生成答案。這確保了即使相關(guān)信息分散在不同文檔中,圖也能把它們拉到一起。在實(shí)際中,GraphRAG 可能涉及額外步驟,比如 entity disambiguation(實(shí)體消歧)(確保問題中的“Apple”鏈接到正確的節(jié)點(diǎn),可能是公司或水果)和圖遍歷算法來擴(kuò)展上下文。但總體思路如上:搜索 + 圖查詢,而不只是搜索。
對非技術(shù)讀者來說,你可以把 GraphRAG 想象成給 AI 增加了一個(gè)“類腦”知識網(wǎng)絡(luò),除了文檔庫之外。AI 不再孤立地讀每本書(文檔),而是有一本事實(shí)及其關(guān)聯(lián)的百科全書。對技術(shù)讀者來說,你可以想象一個(gè)架構(gòu),里面既有向量索引又有圖數(shù)據(jù)庫,兩者協(xié)同工作——一個(gè)檢索原始段落,另一個(gè)檢索結(jié)構(gòu)化事實(shí),都喂進(jìn) LLM 的上下文窗口。
構(gòu)建用于 RAG 的知識圖譜:方法
構(gòu)建支持 GraphRAG 系統(tǒng)的知識圖譜有兩種主要方法:Top-Down(自上而下) 和 Bottom-Up(自下而上)。它們不完全互斥(通常會混用),但區(qū)分它們有助于理解。
方法 1:自上而下(優(yōu)先本體論)
自上而下的方法從定義領(lǐng)域的本體論開始,由領(lǐng)域?qū)<一蛐袠I(yè)標(biāo)準(zhǔn)建立類、關(guān)系和規(guī)則。這個(gè)模式加載到圖數(shù)據(jù)庫中作為空的框架,指導(dǎo)數(shù)據(jù)提取和組織,相當(dāng)于一個(gè)藍(lán)圖。
一旦本體論(模式)就位,接下來是用真實(shí)數(shù)據(jù)填充它。有幾種子方法:
?使用結(jié)構(gòu)化來源:如果你有現(xiàn)有的結(jié)構(gòu)化數(shù)據(jù)庫或 CSV 文件,就把它們映射到本體論。如果映射簡單,可以通過自動化ETL 工具將 SQL 表轉(zhuǎn)為圖數(shù)據(jù)。
?通過本體論從文本提取:對于非結(jié)構(gòu)化數(shù)據(jù)(比如文檔、PDF),你會用NLP 技術(shù),但以本體論為指導(dǎo)。這通常涉及編寫提取規(guī)則或用 LLM 配合引用本體論術(shù)語的提示。
?手動或半手動整理:在關(guān)鍵領(lǐng)域,可能需要人工驗(yàn)證每個(gè)提取的三元組,或手動輸入一些數(shù)據(jù)到圖中,特別是一次性設(shè)置的關(guān)鍵知識。比如,公司可能手動輸入組織架構(gòu)或產(chǎn)品層級到圖中,因?yàn)檫@些數(shù)據(jù)相對靜態(tài)且非常重要。
關(guān)鍵在于,自上而下的方法中,本體論在每一步都起到指導(dǎo)作用。它告訴提取算法要找什么,確保輸入的數(shù)據(jù)符合一個(gè)連貫的模型。
使用正式本體論的一大優(yōu)勢是你可以利用 reasoners(推理器) 和 validators(驗(yàn)證器) 保持知識圖譜一致性。本體論推理器可以自動推斷新事實(shí)或檢查邏輯矛盾,而像 SHACL 這樣的工具可以強(qiáng)制執(zhí)行數(shù)據(jù)形狀規(guī)則(類似更豐富的數(shù)據(jù)庫模式)。這些檢查能防止矛盾事實(shí),并通過自動推導(dǎo)關(guān)系豐富圖。在 GraphRAG 中,這意味著即使多跳連接不明確,本體論也能幫助推導(dǎo)出來。
方法 2:自下而上(數(shù)據(jù)優(yōu)先)
自下而上的方法直接從數(shù)據(jù)生成知識圖譜,不依賴預(yù)定義的模式。NLP 和 LLM 的進(jìn)步讓從非結(jié)構(gòu)化文本中提取結(jié)構(gòu)化三元組成為可能,這些三元組隨后被輸入圖數(shù)據(jù)庫,實(shí)體成為節(jié)點(diǎn),關(guān)系成為邊。
在底層,自下而上的提取可以結(jié)合傳統(tǒng) NLP 和現(xiàn)代 LLM:
?Named Entity Recognition (NER,命名實(shí)體識別):識別文本中的人名、組織、地點(diǎn)等。
?Relation Extraction (RE,關(guān)系提取):識別這些實(shí)體之間是否有提到的關(guān)系。
?Coreference Resolution(共指消解):弄清楚段落中代詞的指代對象,以便三元組使用完整名稱。
有像 spaCy 或 Flair 這樣的傳統(tǒng)方法庫,也有整合 LLM 調(diào)用的新庫用于 IE(信息提取)。另外,像 ChatGPT 插件 或 LangChain 代理 這樣的技術(shù)可以設(shè)置來填充圖:代理可以逐個(gè)讀取文檔,找到事實(shí)時(shí)調(diào)用“圖插入”工具。另一個(gè)有趣的策略是用 LLM 通過讀取文檔樣本建議模式(這有點(diǎn)像本體論生成,但自下而上)。
自下而上提取的一個(gè)大問題是,LLM 可能不完美,甚至?xí)皠?chuàng)造性”輸出。它們可能瞎編一個(gè)不存在的關(guān)系,或錯(cuò)誤標(biāo)記一個(gè)實(shí)體。因此,驗(yàn)證很重要:
? 對關(guān)鍵事實(shí)與源文本交叉檢查。
? 使用多輪提取:比如第一輪提取實(shí)體,第二輪驗(yàn)證和填充關(guān)系。
? 人工抽查:讓人審閱一部分提取的三元組,尤其是那些影響大的。
這個(gè)過程通常是迭代的。你運(yùn)行提取,找到錯(cuò)誤或缺失,調(diào)整提示或過濾器,再運(yùn)行一次。久而久之,這能大幅提高知識圖譜的質(zhì)量。好消息是,即使有些錯(cuò)誤,知識圖譜對很多查詢?nèi)匀挥杏谩憧梢詢?yōu)先清理對用例最重要的部分。
最后,記住,發(fā)送文本進(jìn)行提取會將你的數(shù)據(jù)暴露給 LLM/服務(wù),所以要確保符合隱私和保留要求。
GraphRAG 生態(tài)中的工具和框架
構(gòu)建 GraphRAG 系統(tǒng)聽起來可能有點(diǎn)復(fù)雜,你得管理向量數(shù)據(jù)庫、圖數(shù)據(jù)庫、運(yùn)行 LLM 提取流程等。好消息是,社區(qū)正在開發(fā)工具讓這事變得更簡單。我們來簡單提一些工具和框架,以及它們的作用。
圖存儲
首先,你需要一個(gè)地方存儲和查詢知識圖譜。傳統(tǒng)的圖數(shù)據(jù)庫如 Neo4j、Amazon Neptune、TigerGraph 或 RDF triplestores(如 GraphDB 或 Stardog)是常見選擇。
這些數(shù)據(jù)庫專為我們討論的操作優(yōu)化:
? 遍歷關(guān)系
? 查找鄰居
? 執(zhí)行圖查詢
在 GraphRAG 設(shè)置中,檢索流程可以用這些查詢來獲取相關(guān)的子圖。一些向量數(shù)據(jù)庫(像 Milvus 或帶 Graph 插件的 Elasticsearch)也開始整合類圖查詢,但通常專用圖數(shù)據(jù)庫提供最豐富的功能。重要的是,你的圖存儲要能高效檢索直接鄰居和多跳鄰居,因?yàn)閺?fù)雜問題可能需要抓取整個(gè)事實(shí)網(wǎng)絡(luò)。
新興工具
一些新工具正在將圖與 LLM 結(jié)合:
?Cognee:一個(gè)開源的“AI 記憶引擎”,為 LLM 構(gòu)建和使用知識圖譜。它作為代理或聊天機(jī)器人的語義記憶層,將非結(jié)構(gòu)化數(shù)據(jù)轉(zhuǎn)為結(jié)構(gòu)化的概念和關(guān)系圖。LLM 能查詢這些圖以獲得精確答案。Cognee 隱藏了圖的復(fù)雜性:開發(fā)者只需提供數(shù)據(jù),它就生成可查詢的圖。它與圖數(shù)據(jù)庫整合,提供數(shù)據(jù)攝取、圖構(gòu)建和 LLM 查詢的流程。
?Graphiti(由 Zep AI 提供):一個(gè)為需要實(shí)時(shí)、動態(tài)記憶的 AI 代理設(shè)計(jì)的框架。與許多靜態(tài)數(shù)據(jù)的 RAG 系統(tǒng)不同,Graphiti 能在新信息到達(dá)時(shí)增量更新知識圖譜。它存儲事實(shí)及其時(shí)間上下文,使用Neo4j存儲,提供面向代理的 API。與早期基于批處理的 GraphRAG 系統(tǒng)不同,Graphiti 能高效處理流式數(shù)據(jù),適合持續(xù)學(xué)習(xí)的長期運(yùn)行代理,確保答案始終反映最新數(shù)據(jù)。
?其他框架:像LlamaIndex和Haystack這樣的工具添加了圖模塊,盡管不是以圖優(yōu)先。LlamaIndex 能從文檔提取三元組并支持基于圖的查詢。Haystack 實(shí)驗(yàn)了整合圖數(shù)據(jù)庫來擴(kuò)展問答功能,超越向量搜索。云服務(wù)商也在增加圖功能:AWS Bedrock Knowledge Bases支持 GraphRAG,通過托管攝取到Neptune;Azure Cognitive Search也與圖整合。生態(tài)系統(tǒng)發(fā)展很快。
無需從頭開始
重點(diǎn)是,如果你想嘗試 GraphRAG,不用從零開始。你可以:
? 用Cognee處理知識提取和圖構(gòu)建,省去自己寫提示和解析邏輯的麻煩。
? 如果需要即插即用的記憶圖,尤其是對話或時(shí)間相關(guān)數(shù)據(jù)的代理,用Graphiti。
? 用LlamaIndex或其他工具,只需幾行代碼就能獲得基本的知識圖譜提取功能。
? 依靠成熟的圖數(shù)據(jù)庫,省去寫自定義圖遍歷引擎的麻煩。
總之,雖然 GraphRAG 處于前沿,但周邊生態(tài)正在快速成長。你可以利用這些庫和服務(wù)快速搭建原型,然后迭代優(yōu)化知識圖譜和提示。
結(jié)論
傳統(tǒng) RAG 適合簡單的事實(shí)查詢,但在需要深入推理、準(zhǔn)確性或多步回答的查詢上會吃力。這時(shí) GraphRAG 就大顯身手了。通過結(jié)合文檔和知識圖譜,它用結(jié)構(gòu)化事實(shí)錨定回答,減少 hallucinations(瞎編),支持多跳推理,讓 AI 能以標(biāo)準(zhǔn) RAG 無法做到的方式連接和綜合信息。
當(dāng)然,這種能力也有代價(jià)。構(gòu)建和維護(hù)知識圖譜需要模式設(shè)計(jì)、提取、更新和基礎(chǔ)設(shè)施開銷。對于簡單用例,傳統(tǒng) RAG 仍是更簡單高效的選擇。但當(dāng)需要更豐富的回答、一致性或 explainability(可解釋性) 時(shí),GraphRAG 的優(yōu)勢顯而易見。
展望未來,知識增強(qiáng)的 AI 正在快速發(fā)展。未來平臺可能直接從文檔自動生成圖,LLM 直接在圖上推理。對于像 GoodData 這樣的公司,GraphRAG 將 AI 與分析結(jié)合,帶來超越“發(fā)生了什么”到“為什么發(fā)生”的洞察。
最終,GraphRAG 讓我們更接近于不僅能檢索事實(shí),還能真正理解和推理事實(shí)的 AI,就像人類分析師,但規(guī)模和速度更大。雖然這條路有復(fù)雜性,但目標(biāo)(更準(zhǔn)確、可解釋、更有洞察力的 AI)絕對值得投資。關(guān)鍵不僅在于收集事實(shí),而在于連接它們。
本文轉(zhuǎn)載自??PyTorch研習(xí)社??,作者:AI研究生

















