首次綜述「邊-云協同計算」,分布式智能與模型優化的最新進展
隨著物聯網(IoT)設備的激增和實時應用需求的增長,傳統云計算面臨延遲高、帶寬受限等問題,促使邊緣計算的興起。
邊緣-云協同計算(Edge-Cloud Collaborative Computing, ECCC)通過整合邊緣節點和云端資源,構建了一個分布式計算范式,旨在實現高效、低延遲的智能處理。
人工智能(AI),特別是深度學習和大語言模型(LLMs)的快速發展,進一步推動了ECCC在分布式智能和模型優化領域的應用。
通過將云計算的強大算力與邊緣設備的低延遲處理能力相結合,ECCC在自動駕駛、智慧醫療、工業自動化和智慧城市等領域展現出巨大潛力。
然而,邊緣設備計算能力有限、能耗受限、異構性強等特性,以及動態工作負載和隱私安全需求,為ECCC帶來了諸多挑戰。

圖1 邊緣-云協同計算、分布式智能與模型優化的研究熱度與趨勢(2021-2025)
近日,由不列顛哥倫比亞大學、多倫多大學、復旦大學和昆山杜克大學等海內外知名機構研究者聯合撰寫的綜述論文,系統梳理了ECCC的最新進展,為研究者和從業者提供了全面的技術框架與未來發展路線圖。

論文鏈接:https://arxiv.org/abs/2505.01821
該綜述從架構設計、模型優化、資源管理、隱私安全到實際應用,系統分析了ECCC的關鍵技術,首次提出了統一的分布式智能與模型優化框架,涵蓋了從理論基礎到實際部署的完整研究體系。
文章不僅總結了當前技術進展,還指出了關鍵挑戰和未來方向,為學術界和工業界提供了重要參考。

圖2 綜述組織架構,涵蓋邊緣-云協同計算的基礎架構、模型優化、資源管理、隱私安全以及應用實踐的技術體系
邊緣-云協同計算基礎
ECCC通過三層架構(云端、邊緣、終端設備)實現計算與存儲資源的分布式協同。
云端提供大規模計算和存儲能力,適合模型訓練和大數據處理;邊緣層通過邊緣服務器和網關實現本地化處理,降低延遲;終端設備(如智能手機、物聯網傳感器)負責數據生成與消費。
分布式智能是ECCC的核心特性,通過任務并行、數據并行和模型并行三種原則實現。
任務并行:將復雜AI任務拆分為子任務,分配到不同設備并行執行,數學上表示為任務集合
的并行調度。
數據并行:在多個設備上對數據集
的子集進行模型訓練,提升訓練效率。
模型并行:將大型模型
分割到不同設備,優化資源利用。
ECCC的目標是優化資源分配函數
,以最大化效用函數U(P, C, L),其中包括性能P、成本C和延遲L。
通過將計算靠近數據源,ECCC顯著降低了延遲和帶寬消耗,同時提升了系統的可擴展性和容錯能力。
模型優化技術
邊緣設備資源受限(如計算能力、內存、能耗)對AI模型部署提出了挑戰。模型優化技術通過壓縮、適配和架構搜索,平衡模型性能與效率。
特別是在大語言模型時代,傳統的邊緣部署方法面臨前所未有的挑戰。大模型通常具有數十億參數,單個模型文件可達數GB甚至數十GB,遠超邊緣設備的存儲和計算能力。
因此,如何通過創新的模型優化技術實現大模型的高效邊緣部署,已成為當前研究的熱點和難點。
模型壓縮
模型壓縮通過減少模型大小和計算需求,適應邊緣設備的資源限制,主要包括以下三類方法:
剪枝(Pruning):通過移除不重要的參數(如神經元或權重),降低模型復雜度和推理延遲。
例如,Hybrid SD 方法對 Stable Diffusion 模型的 U-Net 進行結構化剪枝,在保持圖像質量的同時適配邊緣設備。
量化(Quantization):將模型參數從32位浮點數轉換為8位整數等低精度格式,降低內存占用和計算成本。
例如,QuAsyncFL 結合量化與異步聯邦學習,優化了AIoT場景中的通信效率。
知識蒸餾(Knowledge Distillation, KD):通過訓練小型「學生」模型模仿大型「教師」模型的行為,實現性能與效率的平衡。
GKT 方法利用大語言模型生成引導提示,提升邊緣設備上的推理效率。

圖3 邊緣-云協同計算架構概念示意圖,展示了研究的整體技術范圍,包括集中的云資源、去中心化的邊緣節點以及多樣化的移動/邊緣設備
模型適配
模型適配通過遷移學習(Transfer Learning, TL)、聯邦學習(Federated Learning, FL)和持續學習(Continual Learning, CL)實現模型對新任務或動態環境的適配:
遷移學習:利用預訓練模型的知識,快速適配到新任務。例如,在表面缺陷檢測中,通過微調預訓練模型實現高效部署。
聯邦學習:通過分布式訓練保護數據隱私,客戶端在本地訓練模型并上傳梯度更新。例如,FedCAE 框架優化了機器故障診斷中的聯邦學習效率。
持續學習:通過正則化、重放和動態架構等策略,避免災難性遺忘,適應動態數據流。例如,EdgeC3 框架通過動態卸載優化持續學習性能。

圖4 模型適配范式示意圖,展示遷移學習、聯邦學習和持續學習在邊緣-云環境中的作用
神經架構搜索(NAS)
NAS通過自動化設計神經網絡架構,提升模型性能與效率,分為以下三類:
基于強化學習的NAS:通過強化學習代理探索架構空間,優化邊緣-云部署的性能。例如,RL-NAS 針對邊緣設備資源約束優化模型精度與延遲。
基于進化算法的NAS:通過選擇、變異和交叉操作,演化出適應邊緣-云環境的架構。例如,GA-DPSO 算法優化了科學工作流的數據傳輸時間。
基于梯度的NAS:通過梯度下降直接搜索架構空間,快速生成高效模型。例如,DARTS 框架通過可微搜索空間實現高效架構優化。
AI驅動的資源管理
資源管理是ECCC的核心,涉及任務卸載、資源分配和能效優化。
任務卸載機制
任務卸載通過將計算任務分配到邊緣或云端,優化系統性能,核心策略包括:
延遲感知卸載:優先考慮低延遲任務,如 iGATS 和 DRLIS 框架通過智能放置決策減少處理延遲。
能效卸載:平衡計算與通信能耗,適用于電池驅動的邊緣設備。例如,PDCO 和 ETCRA 方法顯著降低了能耗。
依賴感知卸載:考慮任務依賴關系,通過有向無環圖(DAG)優化調度。例如,PRAISE 算法通過重構任務調用圖提升資源利用率。

圖5 任務卸載機制示意圖,展示延遲感知、能效和依賴感知策略
資源分配策略
資源分配通過動態調整計算、帶寬和存儲資源,提升系統效率:
動態資源分配:根據實時工作負載調整資源分配。例如,基于聯邦強化學習的協作策略優化了無人機通信網絡的資源調度。
協作資源管理:通過邊緣-云和邊緣-邊緣協作優化資源利用。例如,OTFAC 框架結合最優傳輸和聯邦學習提升分配效率。
基于強化學習的資源管理:通過強化學習優化資源分配策略。例如,MADDPG 算法在車輛邊緣-云環境中最小化延遲。
隱私與安全增強
ECCC的分布式特性使其面臨隱私泄露和安全攻擊的風險,需通過以下機制增強保護:
隱私保護:聯邦學習通過本地化數據處理保護隱私,例如 FedCAE 框架在故障診斷中實現隱私保護。差分隱私通過添加噪聲進一步增強數據安全性。
模型安全:通過加密哈希、信任執行環境(TEE)和運行時監控保護模型完整性。例如,FlexibleFL 框架通過參數評估防御模型毒化攻擊。
通信安全:通過對稱和非對稱加密、區塊鏈技術保護數據傳輸。例如,CP-ABE 方案通過屬性基加密實現細粒度訪問控制。
實際應用場景
ECCC在多個領域展現了廣泛應用潛力:
自動駕駛:邊緣設備處理實時感知任務(如 Edge YOLO),云端支持復雜計算(如動態地圖生成)。例如,EC-Drive 利用大語言模型優化運動規劃。
智慧醫療:聯邦學習支持隱私保護的診斷模型訓練,邊緣-云平臺實現遠程患者監控。例如,IoMT 設備通過邊緣處理提供實時健康反饋。
工業自動化:邊緣智能實現實時故障診斷,云端優化生產調度。例如,AIoT 設備通過異常檢測提升系統可靠性。
智慧城市:邊緣設備支持實時交通管理和環境監測,云端分析數據優化城市規劃。例如,聯邦學習支持隱私保護的公共安全模型訓練。
挑戰與未來方向
盡管ECCC取得顯著進展,仍面臨以下挑戰:
模型優化問題:邊緣設備資源受限,需平衡模型精度與效率。大語言模型在邊緣部署的推理效率是關鍵瓶頸。
系統集成挑戰:異構硬件和軟件的集成需標準化協議和高效調度算法。
性能瓶頸:通信開銷、計算和存儲限制影響實時應用性能。
未來研究方向包括:
高級AI技術:探索神經架構搜索、AutoML、大語言模型、AI代理、具身AI、神經形態計算和量子邊緣計算。
系統改進:開發動態資源管理、自適應優化和容錯機制。
6G網絡整合:利用6G的超低延遲和高帶寬優化邊緣-云系統。

圖6 邊緣-云協同計算的未來研究方向
總結與展望
研究人員首次系統梳理了邊緣-云協同計算在分布式智能與模型優化領域的最新進展,構建了統一的架構框架,涵蓋模型壓縮、適配、資源管理、隱私安全和多領域應用。
文章客觀分析了技術瓶頸,如計算效率、異構性管理和實時處理需求,并提出了未來研究方向,包括大語言模型部署、6G整合和量子計算的探索。
歡迎研究者和從業者閱讀和引用改論文,共同推動邊緣-云協同計算的創新發展!
@misc{liu2025edgecloud,
title = {Edge-Cloud Collaborative Computing on Distributed Intelligence and Model Optimization: A Survey},
},
author = {Liu, Jing and Du, Yao and Yang, Kun and Wang, Yan and Hu, Xiping and Wang, Zehua and Liu, Yang and Sun, Peng and Boukerche, Azzedine and Leung, Victor C. M.},
year = {2025},
primaryclass = {cs},
eprint = {2505.01821},
doi = {10.48550/arXiv.2505.01821},
url = {https://arxiv.org/abs/2505.01821},
}


























