12張動圖全面剖析 MCP/RAG/Agent/Cache/Fine-tuning/Prompt/GraphRAG 等核心技術 原創
本文通過 12 張動圖全面剖析 MCP、RAG、Agent、Cache、Fine-tuning、Prompt、GraphRAG 等 AI 大模型應用核心技術。

下文我們詳細剖析之。
一、12張動圖全面剖析 AI 大模型應用核心技術
1、函數調用和 MCP 在 LLM 中的應用
在 MCP 流行之前,AI 大模型應用工作流程依賴于傳統的函數調用來訪問工具。
現在,MCP(模型上下文協議)正在改變開發者為 AI 智能體構建工具訪問和編排的方式。

2、從頭開始訓練 LLM 的四個階段
這張圖涵蓋了從零開始構建 LLM 并將其應用于現實世界的四個階段。
這些階段包括:
- 預訓練
- 指令微調
- 偏好微調
- 推理微調

3、LLM 中的三種推理提示詞技巧
使 LLM 應用如此強大的不僅僅是它們準確預測下一個 token 的能力,還有它們通過推理得出答案的能力。
這張圖涵蓋了三種流行的提示詞技巧,幫助 LLM 在回答之前更清晰地思考。

4、使用其他 LLM 訓練 LLM(蒸餾)
LLM 不僅從原始文本中學習;它們也相互學習:
- Llama 4 Scout 和 Maverick 是使用 Llama 4 Behemoth 訓練的。
- Gemma 2 和 3 是使用谷歌專有的 Gemini 訓練的。
- 蒸餾幫助我們做到這一點,下面的圖描繪了三種流行的技術。

5、LLM 中的監督與強化微調
RFT 讓我們可以將任何開源 LLM 轉變為推理強國,而無需任何標記數據。
這張圖涵蓋了監督微調和強化微調之間的區別。

6、Transformer 與專家混合模型
專家混合模型(MoE)是一種流行的架構,它使用不同的“專家”來改進 Transformer 模型。
專家就像前饋網絡,但比傳統 Transformer 模型中的網絡小。

7、傳統 RAG 與智能體 RAG
簡單的 RAG 檢索一次并生成一次,它不能動態搜索更多信息,也不能通過復雜查詢進行推理。
此外,適應性很小。LLM 無法根據手頭的問題修改其策略。
智能體 RAG 解決了這個問題。

8、5 種 AI 智能體設計模式
AI 智能體行為允許 LLM 通過自我評估、規劃和協作來完善其輸出!
這張圖描繪了構建 AI 智能體時采用的 5 種最流行設計模式。

9、AI 智能體系統的 5 個級別
AI 智能體系統不僅僅是生成文本;它們做出決策、調用函數,甚至運行自治工作流程。
這張圖解釋了 AI 智能體的 5 個級別——從簡單的響應者到完全自治的 AI 智能體。

10、傳統 RAG 與 HyDE
傳統 RAG 系統的一個關鍵問題是,問題與答案在語義上不相似。因此,在檢索過程中,由于余弦相似度高于實際包含答案的文檔,會檢索到幾個不相關的塊。
HyDE (Hypothetical Document Embeddings)假設文檔嵌入技術通過首先生成一個假設性的回答來解決這個問題。

11、RAG 與圖 RAG
回答需要全局上下文的問題對于傳統 RAG 來說很困難,因為它只檢索最相關的前 k 塊。
圖 RAG 通過圖結構使其更加健壯,這有助于它構建長距離依賴關系,而不是 RAG 中發生的局部文本分組。

12、KV 緩存
KV 緩存是一種用于加速 LLM 推理的技術。
簡而言之,我們不是冗余地計算所有上下文 tokens 的 KV 向量,而是緩存它們。這在推理過程中節省了時間。

好了,這就是我今天想分享的內容。
本文轉載自??玄姐聊AGI?? 作者:玄姐

















