怎樣為你的 RAG 應(yīng)用選擇合適的嵌入模型? 原創(chuàng)
編者按: 在構(gòu)建檢索增強生成(RAG)系統(tǒng)時,為何有些應(yīng)用能精準回答用戶問題,而另一些卻頻頻“答非所問”?問題的關(guān)鍵,往往不在于大語言模型本身,而在于你是否選對了嵌入模型。
我們今天為大家?guī)淼倪@篇文章明確指出:選擇合適的嵌入模型,是提升 RAG 系統(tǒng)回答質(zhì)量與運行效率的關(guān)鍵所在。
文章從嵌入的基本原理講起,系統(tǒng)解析了詞嵌入、句嵌入、文檔嵌入等不同類型及其適用場景,并深入探討了上下文窗口、分詞方式、維度、訓(xùn)練數(shù)據(jù)、成本等關(guān)鍵參數(shù)的影響。作者還通過醫(yī)療論文檢索的實例,演示了如何逐步篩選嵌入模型。
作者 | Vivedha Elango
編譯 | 岳揚
檢索增強生成(RAG)是當(dāng)前構(gòu)建生成式 AI 應(yīng)用最熱門的框架。企業(yè)機構(gòu)青睞它,因為它能利用專有數(shù)據(jù)來回答用戶問題,使大語言模型能夠為用戶提供精準、及時且與問題高度相關(guān)的答案。
根據(jù)我近兩年構(gòu)建 RAG 應(yīng)用的經(jīng)驗,回答質(zhì)量很大程度上取決于檢索到的上下文信息。
而提升 RAG 檢索效果的關(guān)鍵在于:將數(shù)據(jù)分割至合適大小的文本塊、選擇合適的嵌入模型,并采用高效的檢索機制。
嵌入模型是大語言模型的支柱。當(dāng)你要求大語言模型協(xié)助調(diào)試代碼時,你輸入的文字和詞元會通過嵌入模型轉(zhuǎn)換成一系列高維空間中的坐標(biāo)(即向量)。在這個數(shù)學(xué)空間里,詞語之間含義上的遠近、相似關(guān)系,就變成了向量之間距離和角度的計算關(guān)系。如果選用了不當(dāng)?shù)那度肽P停愕?RAG 應(yīng)用可能會檢索到不相關(guān)的或混亂的數(shù)據(jù),從而導(dǎo)致回答質(zhì)量下降、成本增加,并引發(fā)用戶不滿。
本文將闡述嵌入模型的原理、重要性以及選型時應(yīng)考量的因素。我們還將分析不同嵌入模型的特性及其適用場景。閱讀完畢后,期望各位讀者能夠明確如何選擇最合適的嵌入模型,從而提升回答的準確性,并保障 RAG 應(yīng)用平穩(wěn)運行。
01 什么是嵌入?
嵌入是一種能夠捕捉語言含義與規(guī)律的數(shù)字表征。這些數(shù)字能幫助你的系統(tǒng)找到與問題或主題密切相關(guān)的信息。
這類嵌入是通過嵌入模型生成的。嵌入模型可以接收文字、圖像、文檔甚至聲音,并將其轉(zhuǎn)化為一系列稱為“向量”的數(shù)字。

什么是嵌入? — 該圖片由原文作者提供
你可能是在了解大語言模型時接觸到“嵌入”這一概念的,但實際上,嵌入的歷史要悠久得多。
02 這些嵌入是如何被計算出來的?
目前,嵌入主要通過語言模型來生成。
與使用靜態(tài)向量表示每個詞元或單詞不同,語言模型會動態(tài)地生成上下文關(guān)聯(lián)的詞嵌入 —— 即根據(jù)不同的語境,用不同的向量來表征單詞/句子/文本塊。這些向量隨后可被其他系統(tǒng)用于各類任務(wù)。
生成文本嵌入向量的方法有多種。最常見的一種是對模型生成的所有詞元嵌入值取平均值。但高質(zhì)量的文本嵌入模型往往是專門針對文本嵌入任務(wù)訓(xùn)練的。
我們可以使用 sentence-transformers[1](一個被廣泛使用的預(yù)訓(xùn)練嵌入模型工具包)來生成文本嵌入。
from sentence_transformers import SentenceTransformer
# Load model
model = SentenceTransformer("sentence-transformers/all-mpnet-base-v2")
# Convert text to text embeddings
vector = model.encode("Best movie ever!")嵌入向量所含的數(shù)值數(shù)量(即維度)取決于底層嵌入模型。可通過 vector.shape 方法獲取嵌入向量的維度信息。
03 為何在 RAG 系統(tǒng)中嵌入非常重要?
嵌入在檢索增強生成(RAG)系統(tǒng)中發(fā)揮著非常關(guān)鍵的作用,原因如下:
語義理解:嵌入將詞語、句子或文檔轉(zhuǎn)化為向量(數(shù)字序列),并使語義相近的內(nèi)容在向量空間中彼此靠近。這使系統(tǒng)能夠理解上下文和語義,而非僅僅進行字面匹配。
高效檢索:RAG 需要快速定位最相關(guān)的文本段落或文檔。嵌入能通過 k 近鄰(k-NN)等算法實現(xiàn)高效檢索,讓檢索過程更快速便捷。
讓回答更精準且切題:借助嵌入技術(shù),模型能夠識別與問題語義相關(guān)的信息,即使表述用語完全不同。這意味著用戶能獲得更精準且切題的回答。
04 嵌入的類型
嵌入具有多種形式,具體取決于系統(tǒng)需要處理的信息類型。

嵌入的類型 —— 由原文作者供圖
1. 基于系統(tǒng)需理解的信息類型劃分:
1.1 詞嵌入
詞嵌入將每個詞語表示為多維空間中的一個點。含義相近的詞語(如“dog”和“cat”)在空間中的位置會彼此靠近。這有助于計算機理解詞語之間的語義關(guān)聯(lián),而不僅是拼寫形式。
流行的詞嵌入模型包括:
- Word2Vec:從大量文本中學(xué)習(xí)詞語關(guān)系。
- GloVe:重點關(guān)注詞語共同出現(xiàn)的頻率。
- FastText:將詞語分解為更小的組成部分,能更有效處理生僻詞或拼寫錯誤的詞語。

向量嵌入空間 —— 由原文作者供圖
1.2 句嵌入
有時,需要從整個句子而不僅是單個單詞來理解完整語義。句嵌入將一個句子的整體語義捕獲為一個向量。
知名的生成句嵌入的模型有:
- Universal Sentence Encoder(USE):適用于各種類型的句子,包括疑問句和陳述句。
- SkipThought:通過學(xué)習(xí)預(yù)測前面和后面可能出現(xiàn)的句子,來理解語境和用戶意圖。
1.3 文檔嵌入
文檔可以是一個段落乃至整本書。文檔嵌入將所有文本轉(zhuǎn)化為單個向量,便于在大型文檔庫中進行搜索,并查找與查詢相關(guān)的內(nèi)容。
主流的文檔嵌入模型包括:
- Doc2Vec:基于 Word2Vec 構(gòu)建,但專為較長文本設(shè)計。
- Paragraph Vectors:與 Doc2Vec 類似,但側(cè)重于段落等較短文本。
1.4 圖像嵌入
RAG 系統(tǒng)不僅能處理文本,也能處理圖像。圖像嵌入將圖片轉(zhuǎn)換為描述顏色、形狀和圖案的數(shù)字序列。
常用的生成圖像嵌入的模型是卷積神經(jīng)網(wǎng)絡(luò)(CNNs),它特別擅長識別圖像中的模式。
2. 基于嵌入的特性劃分:
嵌入可以具有不同的特性,這些特性會影響其工作方式和適用場景。以下通過簡單示例說明這些特性:
2.1 稠密嵌入
稠密嵌入使用的向量中,幾乎每個位置都填充了有效數(shù)值。每個數(shù)值都承載著關(guān)于詞語、句子、圖像或文檔的一點信息。稠密向量緊湊且高效,能在較小空間內(nèi)存儲大量細節(jié)內(nèi)容,使計算機能更輕松地進行比對并快速發(fā)現(xiàn)相似性。
2.2 稀疏嵌入
稀疏嵌入與稠密嵌入相反。向量中大多數(shù)數(shù)值為零,僅有少數(shù)位置有實際數(shù)值。零值不攜帶任何信息。稀疏嵌入有助于突出最關(guān)鍵的特征,易于識別事物的獨特之處。

稠密嵌入與稀疏嵌入 —— 由原文作者供圖
2.3 長上下文嵌入
有時需要理解整個文檔或長對話,而不僅僅是短句。長上下文嵌入就是專為一次性處理大量文本而設(shè)計的。
舊模型只能處理短文本。如若輸入長文章,需將它們先切分成小塊,這可能導(dǎo)致舊模型遺漏重要的上下文關(guān)聯(lián),或者偏離文章的核心主旨。新模型(如 BGE-M3)可一次性處理數(shù)千詞(最高達 8,192 個詞元),有助于計算機把握整體語境。
2.4 多向量嵌入
通常,一個項目(如一個單詞或一篇文檔)僅對應(yīng)一個向量。而多向量嵌入則為每個項目使用多個向量,每個向量可捕獲不同的特征。
通過多個向量,計算機能識別更多的細節(jié)和更復(fù)雜的關(guān)系,從而產(chǎn)生更豐富、更準確的結(jié)果。
05 選擇最佳文本嵌入模型需要了解的參數(shù)
在選擇模型之前,您需要明確評估標(biāo)準。以下是幾個關(guān)鍵的參數(shù):

如何選擇最佳的文本嵌入模型? —— 該圖片由原文作者提供,使用 ??Napkin.ai?? 制作
5.1 上下文窗口
上下文窗口是指模型單次能處理的最大文本長度。 例如,若某模型的上下文窗口為 512 個詞元,意味著它一次只能讀取 512 個詞語或詞語片段。更長的文本必須被切分。有些模型(如 OpenAI 的 text-embedding-ada-002,支持一次讀取 8192 個詞元)和 Cohere 的嵌入模型(支持一次讀取 4096 個詞元)則能處理更長的文本。
更大的上下文窗口允許處理更長的文檔而避免信息丟失。這對于檢索長篇文章、研究論文或報告等任務(wù)非常有利。
5.2 分詞單元
分詞是模型將文本切分為更小單元(稱為詞元)的方式。 不同模型采用不同的方法:
- Subword Tokenization(例如字節(jié)對編碼 BPE):將詞語拆分成更小的部分。例如,“unhappiness”會被拆為“un”和“happiness”。這有助于處理生僻詞或新詞。
- WordPiece:與 BPE 類似,但常用于 BERT 等模型。
- Word-Level Tokenization:將文本按完整單詞進行切分。對生僻詞處理效果不佳。
模型的分詞方式影響其理解不同詞語(尤其是非常用詞)的能力。大多數(shù)現(xiàn)代模型為了提升靈活性而采用 subword tokenization 方法。
5.3 向量維度
向量維度是指模型為每段文本生成的數(shù)字序列(向量)的長度。 例如,有些模型生成 768 維的向量,有些則生成 1024 維甚至 3072 維的向量。
更高維度的向量能存儲更詳細的信息,但需要更強的計算能力。較低維度的向量處理速度更快,但可能丟失部分細節(jié)信息。
5.4 詞表大小
這是模型所能識別的唯一詞元的數(shù)量。 更大的詞表能處理更多詞匯和語言,但會占用更多內(nèi)存。較小的詞表處理速度更快,但可能無法理解生僻詞或?qū)I(yè)術(shù)語。
例如:大多數(shù)現(xiàn)代模型的詞表大小在 3 萬到 5 萬個詞元之間。
5.5 訓(xùn)練數(shù)據(jù)
訓(xùn)練數(shù)據(jù)是模型學(xué)習(xí)時所使用的數(shù)據(jù)源。
- 通用型訓(xùn)練數(shù)據(jù):當(dāng)模型基于多種類型文本(如網(wǎng)頁、書籍)訓(xùn)練時,它適用于通用場景。這類模型廣泛適用于多種任務(wù)。
- 特定領(lǐng)域型訓(xùn)練數(shù)據(jù):當(dāng)模型使用專業(yè)文本(如醫(yī)學(xué)或法律文檔)訓(xùn)練時,它會成為特定領(lǐng)域的專家。這類模型非常適合特定垂直領(lǐng)域的任務(wù)。
基于特定領(lǐng)域數(shù)據(jù)訓(xùn)練的模型在其專業(yè)領(lǐng)域表現(xiàn)更佳,但在通用任務(wù)上可能表現(xiàn)平平。
5.6 成本
成本包括使用模型所需的經(jīng)濟支出和計算資源。 根據(jù)我們訪問 LLM 模型方式的不同,成本結(jié)構(gòu)也會有所差異。
- 基于 API 的模型:按使用量付費,例如 OpenAI 或 Cohere 的模型。
- 開源模型:可免費使用,但需要自有硬件(如 GPU)和相關(guān)技術(shù)能力來部署運行。
API 易于使用,但處理大量數(shù)據(jù)時可能成本高昂。開源模型能節(jié)省費用,但需要更多的部署工作和專業(yè)技術(shù)知識。
06 選擇嵌入模型的關(guān)鍵考量因素
1. 明確數(shù)據(jù)領(lǐng)域特性
根據(jù)實戰(zhàn)經(jīng)驗,設(shè)計 RAG 系統(tǒng)時我首先會思考: “系統(tǒng)需要處理什么類型的數(shù)據(jù)?”
若涉及通用知識或常見問題,OpenAI 的 text-embedding-3-small 這類通用嵌入模型通常足夠勝任。但在醫(yī)療、法律、金融等專業(yè)領(lǐng)域,BioBERT、SciBERT 或 Legal-BERT 等專用領(lǐng)域模型表現(xiàn)更佳,這些模型經(jīng)過特定領(lǐng)域語料訓(xùn)練,能精準理解專業(yè)語境。
若需處理商品圖片或語音查詢,則應(yīng)選擇多模態(tài)嵌入方案。CLIP 模型能同時處理文本與圖像,是可靠選擇。
2. 嵌入維度與模型復(fù)雜度
接著需要評估查詢與文檔的特征:篇幅長短、結(jié)構(gòu)是否規(guī)整。 某些模型擅長處理簡短片段,另一些則專精于非結(jié)構(gòu)化的長文本內(nèi)容。
選擇一個合適的嵌入維度非常重要。高維向量(1536 或 4096 維)能捕捉更細微的差異和上下文信息,它們通常能提升檢索精度,但會消耗更多計算資源與存儲空間。
低維向量(384 或 768 維)響應(yīng)更快、資源消耗更少,特別適合處理百萬級文檔的場景。權(quán)衡標(biāo)準很明確:高維意味著精度優(yōu)先但成本更高,低維則側(cè)重效率但可能犧牲部分準確性。
建議從 384-768 維起步,能在性能與資源消耗間取得最佳平衡。
Pinecone、Weaviate、FAISS 等現(xiàn)代向量數(shù)據(jù)庫支持通過量化或降維技術(shù)壓縮嵌入,可在控制成本的前提下使用高維嵌入。
3. 計算效率
響應(yīng)速度是實時應(yīng)用中的一個關(guān)鍵考量指標(biāo)。
若應(yīng)用對延遲極度敏感,應(yīng)選擇推理時長較短的模型。DistilBERT 或 MiniLM 等輕量模型在保證多數(shù)任務(wù)精度的同時,能提供極速響應(yīng)。
4. 上下文理解能力
需要系統(tǒng)評估 RAG 系統(tǒng)待處理的查詢類型,以及知識庫文檔的結(jié)構(gòu)特征與篇幅長度。 文檔必須根據(jù)應(yīng)用場景進行智能分塊,確定最佳片段尺寸。
影響答案準確性的關(guān)鍵因素在于模型的上下文窗口 —— 即單次能處理的文本總量。面對冗長復(fù)雜的文檔時,更大的上下文窗口能顯著提升效果。單次處理文本量越大的模型,針對長查詢的應(yīng)答精準度越高。
5. 系統(tǒng)兼容性
優(yōu)先選擇能與現(xiàn)有技術(shù)設(shè)施無縫集成的模型。
TensorFlow、PyTorch 及 Hugging Face 提供的預(yù)訓(xùn)練模型通常具備更便捷的部署流程,并擁有完善的文檔體系與活躍的社區(qū)支持。
6. 成本控制
項目評估時需統(tǒng)籌考慮訓(xùn)練與部署成本(若計劃微調(diào)模型并自主部署)。 不過多數(shù) RAG 應(yīng)用可直接使用現(xiàn)成模型。
大型模型的訓(xùn)練與運行成本更為高昂。開源方案通常經(jīng)濟性更佳,但可能需要額外的配置與運維;商用方案性能更優(yōu)、支持更完善,但價格較高。
07 示例場景:為醫(yī)療科研論文選擇嵌入模型
假設(shè)你需要構(gòu)建一個醫(yī)療科研論文的語義檢索系統(tǒng),要求用戶能快速精準定位相關(guān)研究。該系統(tǒng)的數(shù)據(jù)集規(guī)模龐大,單篇文檔長度在 2000 至 8000 詞之間。所需模型需能處理長文本、保證檢索質(zhì)量,且月預(yù)算控制在 300-500 美元。
如何選擇最合適的嵌入模型?我們將逐步拆解決策流程。
第一步:重點關(guān)注領(lǐng)域相關(guān)性
醫(yī)療科研論文包含復(fù)雜醫(yī)學(xué)術(shù)語與技術(shù)表述。所選模型需經(jīng)過科研類或?qū)W術(shù)類文本訓(xùn)練,而非僅適用于法律或通用領(lǐng)域。
因此,主要為法律或生物醫(yī)學(xué)設(shè)計的模型并不適用于更廣泛的科研場景。
第二步:驗證上下文窗口尺寸
科研論文篇幅較長,需要具備大上下文窗口的模型。大多數(shù)論文含 2000-8000 詞(約 2660-10640 個 token,按 1 詞 ≈ 1.33 token 計算)。
擁有 8192 token 上下文窗口的模型可一次性覆蓋約 6156 詞。
若模型僅支持 512 token,將無法完整處理整篇論文。
因此,建議此處跳過以下模型:
- Stella 400M v5
- Stella 1.5B v5
- ModernBERT Embed Base
- ModernBERT Embed Large
- BAAI/bge-base-en-v1.5
- allenai/specter
- m3e-base
第三步:評估成本與部署方案
預(yù)算有限時,按 token 計費可能導(dǎo)致費用激增(尤其針對長文檔的高頻檢索場景)。
對比以下模型:
- OpenAI text-embedding-3-large:0.00013 美元/千 token
- OpenAI text-embedding-3-small:0.00002 美元/千 token
- Jina Embeddings v3:開源,可自托管,不按 token 計費
成本測算(按每月處理 1 萬篇 8000 token 的文檔計算):
- OpenAI text-embedding-3-large:10.4 美元/月(符合預(yù)算)
- OpenAI text-embedding-3-small:1.6 美元/月(遠低于預(yù)算)
- Jina Embeddings v3:沒有按 token 計費的費用,但需承擔(dān)模型部署成本(根據(jù)服務(wù)器配置以及是否混合部署其他模型而異)
第四步:比對性能指標(biāo)(MTEB)
接下來評估候選模型的實際性能,通過 Massive Text Embedding Benchmark (MTEB) 的評估分數(shù)量化模型性能:
- OpenAI text-embedding-3-large:性能強勁(MTEB 評分約為 71.6),支持一次讀取 8191 個 token,成本效益佳
- OpenAI text-embedding-3-small:性能良好(MTEB 評分約為 69.42),支持一次讀取 8191 個 token,成本效益突出
- Voyage-3-large:MTEB 評分約為 60.5,支持一次讀取 32000 個 token,性價比較高
- NVIDIA NV-Embed-v2:MTEB 評分約為 72.31,支持一次性讀取 32768 個 token,開源可自托管
最終候選名單:
經(jīng)過多輪篩選,入圍模型包括:OpenAI text-embedding-3-small/large、Voyage-3-large、NVIDIA NV-Embed-v2。
這些模型均能處理長篇醫(yī)療論文,精度可靠且符合預(yù)算要求。其中 NVIDIA NV-Embed-v2 憑借最高的 MTEB 評分和超大上下文窗口,成為醫(yī)療科研內(nèi)容語義檢索的優(yōu)選方案。
選擇嵌入模型需綜合考量:明確需求邊界、橫向?qū)Ρ取⑦x出與項目目標(biāo)最匹配的模型。
08 幫助選擇正確嵌入模型的基準測試
新的嵌入模型不斷涌現(xiàn),如何持續(xù)追蹤它們的性能?幸運的是,現(xiàn)在有一些大規(guī)模基準測試,可以幫助我們及時了解各模型的表現(xiàn)。
8.1 Massive Text Embedding Benchmark (MTEB)
MTEB 是一個由社區(qū)運營的排行榜。它比較了超過 100 個文本和圖像嵌入模型在 1000 多種語言上的性能。該平臺整合了模型評估指標(biāo)、測試模型能力的各種場景和各種跨領(lǐng)域的數(shù)據(jù),是一種高效且可靠的初步篩選方法。
鏈接:MTEB Dashboard(??https://huggingface.co/spaces/mteb/leaderboard)??

Massive Text Embedding Benchmark (MTEB) Dashboard
8.2 Massive Multilingual Text Embedding Benchmark (MMTEB)
傳統(tǒng)基準測試通常僅覆蓋少數(shù)語言或垂直領(lǐng)域,而 MMTEB 作為 MTEB 的擴展版本,涵蓋了 250 多種語言中的 500 多項評估任務(wù),同時還包含指令遵循、長文檔檢索、代碼檢索等高難度挑戰(zhàn),是當(dāng)前最全面的多語言嵌入基準測試。
鏈接:研究論文(??https://arxiv.org/abs/2502.13595)??
09 應(yīng)該在什么時候使用 MTEB 基準測試?以及如何使用它?
MTEB 能直觀展示各模型在不同任務(wù)中的表現(xiàn)差異,幫助我們根據(jù)具體需求縮小選擇范圍。
但請注意:切勿盲目迷信 MTEB 的評分。
MTEB 分數(shù)并不能反映全貌。頂級模型間的分數(shù)差往往十分微小,MTEB 總分來自于許多不同任務(wù)的得分匯總,但你無法看出模型在不同任務(wù)之間的表現(xiàn)波動有多大。有時榜首模型僅具微弱優(yōu)勢,統(tǒng)計層面多個頂級模型可能實際表現(xiàn)相當(dāng)。研究者發(fā)現(xiàn),當(dāng)模型差距極小時,平均分數(shù)往往失去參考意義。
更務(wù)實的做法是:重點關(guān)注與您應(yīng)用場景相似任務(wù)的模型表現(xiàn)。這比追逐總分排名更有意義。無需深究每個數(shù)據(jù)集,但了解其文本類型(如新聞、科研論文或社交媒體內(nèi)容)很有幫助,通過數(shù)據(jù)集描述或瀏覽樣例即可獲取此類信息。
MTEB 雖有用,但需批判性使用。不要盲目選擇最高分模型,而應(yīng)深入挖掘最適合您任務(wù)的方案。
核心原則:沒有萬能的模型。MTEB 的存在正是為了幫我們找到某一場景的最優(yōu)解。瀏覽排行榜時請思考以下問題:
- 目標(biāo)語言是否被支持?
- 是否涉及金融/法律等專業(yè)術(shù)語?
- 模型體積是否適配您的硬件(如筆記本電腦)?
- 硬件內(nèi)存能否承載模型?
- 輸入長度限制是否匹配文本特征?
明確核心需求后,即可在 MTEB 排行榜中按特征篩選模型,從而找出既性能優(yōu)異又符合實際條件的模型。
10 總結(jié)建議
為 RAG 應(yīng)用選擇合適的嵌入模型時,不應(yīng)僅以基準測試分數(shù)為唯一標(biāo)準。MTEB等工具固然能提供參考,但無法展現(xiàn)全貌。關(guān)鍵在于要超越數(shù)字評分的表象,綜合考慮語言支持度、專業(yè)詞匯處理能力、內(nèi)存限制及文本長度等實際需求。
建議深入分析自身應(yīng)用場景,基于最相關(guān)的任務(wù)來對比模型表現(xiàn)。需注意,適用于他人使用場景的模型未必符合您的特定需求。
歸根結(jié)底,通過深思熟慮平衡模型性能與實際需求,才能找到最合適的模型。通過充分調(diào)研與審慎評估,您終將找到最契合的模型,為 RAG 應(yīng)用的成功奠定堅實基礎(chǔ)。
END
本期互動內(nèi)容 ??
?在您過去的 RAG 項目實踐中,在“嵌入模型選擇”這一步,踩過最大的坑是什么?
文中鏈接
[2]??https://huggingface.co/spaces/mteb/leaderboard??
[3]??https://arxiv.org/abs/2502.13595??
本文經(jīng)原作者授權(quán),由 Baihai IDP 編譯。如需轉(zhuǎn)載譯文,請聯(lián)系獲取授權(quán)。
原文鏈接:

















