幾乎零代碼!像搭樂高一樣做AI應(yīng)用,LazyLLM真的有點(diǎn)東西啊!
每次寫完一段得意的 Python 代碼,你是不是也幻想著在客戶或老板面前來一場(chǎng)完美的產(chǎn)品 demo?但現(xiàn)實(shí)往往是,要么在 Jupyter Notebook 里翻來覆去地展示 cell,要么在命令行里敲一堆指令,顯得有點(diǎn)……不夠高級(jí),對(duì)吧?我最開始也這么想,于是腦子里冒出了一堆計(jì)劃:要不學(xué)學(xué) Streamlit 或 Gradio,搭個(gè)漂亮的前端頁面?后端再用 FastAPI 撐起來?聽起來不錯(cuò),但一想到學(xué)習(xí)成本和開發(fā)時(shí)間……有沒有更輕松的辦法呢?
直到我昨天看到了 LazyLLM,我用不到 10 行 Python 代碼實(shí)現(xiàn)了一個(gè)帶有兩個(gè)并行檢索方法和一個(gè)重排方法的 RAG 系統(tǒng)。
我用 Qwen3 官方技術(shù)博客作為知識(shí)庫,然后開始詢問 RAG 系統(tǒng)有關(guān) Qwen3 的知識(shí),毫無疑問,系統(tǒng)全部答對(duì)了。
圖片
?
你認(rèn)為構(gòu)建一個(gè)像上面一樣帶有交互頁面的 RAG 系統(tǒng) demo 要寫多少代碼? 如果用 LangChain 或者 LangGraph + Gradio 的話,我感覺至少需要 100 行代碼!
但是你看我的代碼:
圖片
帶上格式化自動(dòng)換行和空行也就 63 行代碼!而且我還實(shí)現(xiàn)了兩個(gè)檢索器(retriever)和一個(gè)重排器(reranker)!
所有核心邏輯都位于 build_rag_pipeline 函數(shù)中,顧名思義,這是一個(gè)構(gòu)造 RAG 工作流的函數(shù)。
我首先將與代碼文件同級(jí)的 docs 目錄下的所有文檔作為知識(shí)庫,并借助于阿里云提供的 text-embedding-v3 嵌入模型生成嵌入向量。
然后按照句子維度切分原始文檔。
圖片
現(xiàn)在我分 4 步開始構(gòu)建檢索與生成流水線:
1. 設(shè)立兩個(gè)并行檢索器
2. 設(shè)立一個(gè)重排機(jī)制
3. 將檢索到的內(nèi)容格式化
4. 利用阿里云提供的 qwen-max 大模型根據(jù)用戶查詢和檢索到的結(jié)果生成回復(fù)
圖片
最后僅需一行代碼啟動(dòng)圖像交互頁面:
lazyllm.WebModule(rag_ppl, port=23456).start().wait()在瀏覽器中輸入 http://127.0.0.1:23456/ 即可開啟會(huì)話。

我就問你簡(jiǎn)單不簡(jiǎn)單?
這一切得益于商湯 LazyAGI 團(tuán)隊(duì)開發(fā)的開源低代碼開發(fā)框架:LazyLLM。專為構(gòu)建和優(yōu)化多智能體(Multi-Agent)大語言模型(LLM)應(yīng)用而設(shè)計(jì)。它提供從應(yīng)用搭建、數(shù)據(jù)準(zhǔn)備、模型部署、微調(diào)到評(píng)測(cè)的一站式工具支持,幫助開發(fā)者以極低的成本快速構(gòu)建 AI 應(yīng)用,并持續(xù)迭代優(yōu)化效果。
圖片
LazyLLM 的核心特性
- 模塊化與數(shù)據(jù)流管理:通過 Pipeline、Parallel 等預(yù)定義流程,輕松組織復(fù)雜應(yīng)用邏輯。
- 多智能體支持:快速構(gòu)建包含多個(gè) AI 智能體的應(yīng)用,適配大模型任務(wù)。
- 一鍵部署與跨平臺(tái)兼容性:支持從原型驗(yàn)證到生產(chǎn)發(fā)布的完整流程,自動(dòng)配置子模塊服務(wù),兼容裸金屬服務(wù)器、開發(fā)機(jī)、Slurm 集群和公有云。
- 高效的模型微調(diào):支持應(yīng)用內(nèi)模型微調(diào),持續(xù)提升應(yīng)用性能。
- 輕量級(jí)網(wǎng)關(guān)機(jī)制:簡(jiǎn)化服務(wù)啟動(dòng)和 URL 配置,提升開發(fā)效率。
感興趣的小伙伴可以去官方 GitHub 倉庫查看:https://github.com/LazyAGI/LazyLLM/tree/main































