阿里: 開源Qwen3-Embedding Qwen3-Reranker系列模型
一、Qwen3-Embedding 系列模型介紹
二、Qwen3-Reranker 系列模型介紹
三、Qwen3-Embedding 和 Qwen3-Reranker 的優(yōu)勢
6 月 6 日凌晨,阿里巴巴開源了 Qwen3-Embedding 系列模型,包括 Embedding(文本表征)和 Reranker(排序)兩個模塊,旨在為文本檢索、語義匹配等任務提供強大支持。該系列模型基于 Qwen3 基礎模型進行訓練,在多項基準測試中展現(xiàn)出卓越性能,尤其在多語言支持方面達到行業(yè)領先水平。
官方數(shù)據(jù)顯示,Qwen3-Embedding 系列在多語言文本表征任務中表現(xiàn)出色:其中,8B 參數(shù)版本在權(quán)威評測 MTEB(Massive Text Embedding Benchmark)多語言榜單中位居榜首,得分高達 70.58,超越了多家商業(yè) API 服務。而 Reranker 排序模型則在文本檢索任務中顯著提升了結(jié)果的相關性,特別適用于搜索、推薦等實際場景。
這一系列模型提供了 0.6B、4B、8B 三種不同參數(shù)規(guī)模的選擇,開發(fā)者可以根據(jù)自身算力需求進行靈活配置。此次開源延續(xù)了阿里通義千問(Qwen)系列的技術路線。
目前,該系列模型已在 Hugging Face、ModelScope 和 GitHub 平臺開源,用戶也可以直接使用阿里云百煉平臺提供的最新文本向量模型服務。

一、Qwen3-Embedding 系列模型介紹
Qwen3-Embedding 系列專為文本向量化(Embedding)任務設計,能夠?qū)⑽谋荆òㄗ匀徽Z言和編程語言)轉(zhuǎn)化為高維向量,從而捕捉其中的語義信息。該系列包含以下三個不同參數(shù)規(guī)模的模型,以適應不同的應用場景:
- Qwen3-Embedding-0.6B:輕量級模型,適用于資源受限的場景,如移動設備或邊緣計算。
- Qwen3-Embedding-4B:在性能與效率之間取得良好平衡,適合大多數(shù)企業(yè)級應用。
- Qwen3-Embedding-8B:高性能版本,針對復雜任務表現(xiàn)最佳。
這些模型基于 Qwen3 的 Transformer 架構(gòu),支持最大 8192 個 token 的輸入長度,非常適合長文本處理。根據(jù) Hugging Face 的介紹,該模型在文本檢索、代碼檢索、分類、聚類和雙文本挖掘等任務中表現(xiàn)出色,尤其是在多語言場景下優(yōu)勢明顯。
具體而言,該系列模型具備以下特性:
- 跨語言檢索:通過統(tǒng)一的向量空間,模型能夠?qū)崿F(xiàn)跨語言語義匹配。
- 代碼檢索:在 MTEB-Code 評測中,Qwen3-Embedding 表現(xiàn)優(yōu)異,能夠根據(jù)自然語言描述檢索代碼片段,特別適合開發(fā)者在代碼補全、搜索等場景中使用。
- 靈活性:支持用戶自定義指令(Instruction),開發(fā)者可以根據(jù)具體任務調(diào)整輸入格式,從而提升 1%-5% 的檢索性能。
- 高效推理:支持 Flash Attention 2 技術,能夠降低內(nèi)存占用,提升推理速度,適合大規(guī)模部署。
Hugging Face 數(shù)據(jù)顯示,截至 2025 年 6 月 5 日,Qwen3-Embedding-8B 在 MTEB 多語言排行榜上以 70.58 分的成績位居第一,超越了 BGE 等競爭對手。
二、Qwen3-Reranker 系列模型介紹
Qwen3-Reranker 系列是與 Qwen3-Embedding 配套的排序模型,主要用于優(yōu)化初次檢索結(jié)果的相關性。該系列模型采用跨編碼器(Cross-Encoder)架構(gòu),輸入查詢和文檔對,并輸出相關性得分。其具備以下優(yōu)勢:
- 高精度排序:通過深度語義分析,Qwen3-Reranker 能夠捕捉查詢和文檔之間的細微相關性,顯著提升排序質(zhì)量。
- 高效推理:優(yōu)化后的推理速度,結(jié)合阿里云 DashVector 服務,能夠?qū)崿F(xiàn)低延遲、高吞吐量。
- 用戶自定義:同樣支持自定義指令,開發(fā)者可以根據(jù)任務調(diào)整輸入格式,提升排序效果。
Hugging Face 數(shù)據(jù)表明,Qwen3-Reranker 在 MTEB-R、CMTEB-R、MMTEB-R 和 MTEB-Code 等檢索子集評測中表現(xiàn)出色。基于 Qwen3-Embedding-0.6B 召回的 Top-100 候選結(jié)果進行排序,能夠顯著提高結(jié)果的相關性。
三、Qwen3-Embedding 和 Qwen3-Reranker 的優(yōu)勢
與 BGE(智源)、Sentence-BERT 等模型相比,Qwen3-Embedding 和 Qwen3-Reranker 具備以下優(yōu)勢:
- 性能優(yōu)勢:Qwen3-Embedding-8B 在 MTEB 多語言排行榜上得分 70.58,領先于 BGE。此外,阿里還開源了 GTE 系列模型(如 gte-multilingual-reranker-base),該系列采用更輕量的 ModernBERT 架構(gòu),支持 70 + 語言,推理速度提升 10 倍,但由于參數(shù)規(guī)模較小,性能稍遜于 Qwen3 系列。
- 應用優(yōu)勢:在檢索增強生成(RAG)場景中,Qwen3-Embedding 負責生成查詢和文檔的向量表示,Qwen3-Reranker 則用于優(yōu)化排序結(jié)果。此外,Qwen3-Embedding 生成的向量表示還可以用于分析用戶評論的情感傾向,幫助企業(yè)優(yōu)化客戶服務。
Qwen3-Embedding 和 Qwen3-Reranker 模型在文本檢索和語義匹配任務中展現(xiàn)出了卓越的性能和多語言支持能力,為開發(fā)者和企業(yè)提供了有力的支持。
本文轉(zhuǎn)載自??鴻煊的學習筆記??,作者:乘風破浪jxj

















