大模型,大安全:一場關乎產業未來的“底座”之戰
日前,在世界互聯網大會烏鎮峰會上,360數字安全集團(以下簡稱“360”)正式發布《大模型安全白皮書》(以下簡稱“白皮書”)。
該白皮書以2025年國內外多起典型大模型安全事件為切入點,系統性歸納了威脅大模型安全的五大關鍵風險:包括基礎設施安全風險、內容安全風險、數據與知識庫安全風險、智能體安全風險、用戶端安全風險。
這一舉措再次讓全行業引起了對大模型安全的重視。
自大模型在國內爆火后,安全事件頻發。回顧過去,2023年的大模型安全問題大多是 “初級攻防” 。例如,用戶通過巧妙的提示詞工程繞過模型的安全護欄,使其生成不當內容;或是利用“幻覺”特性,誘使模型泄露訓練數據中的敏感信息。這些事件提醒業界大模型的安全問題并非危言聳聽,而是真實、緊迫的伴生風險。
然而,進入2024年,隨著大模型技術的迭代演進,并加速滲透到政務、金融、能源、醫療等關乎國計民生的核心領域,其安全內涵與外延發生了根本性的演變。風險已從單純的內容安全,急速擴展為一個覆蓋基礎設施、數據隱私、智能體、用戶端的系統性工程風險。
安全事件頻發,從“初級攻防”到“體系性風險”
隨著大模型深入產業核心,其安全風險圖譜正變得日益復雜和立體:
? 基礎設施安全風險,包括設備控制、供應鏈漏洞、拒絕服務攻擊以及算力資源濫用等問題;
? 數據與知識庫安全風險,數據泄露、越權訪問、隱私濫用和知識產權問題日益突出;
? 智能體安全風險,隨著智能體自主性增強,插件調用、算力調度、數據流轉等環節的安全邊界更加模糊;
? 用戶端安全風險,包括權限控制、API調用監控、惡意腳本執行以及MCP執行安全等。
而如今,隨著安全事件的頻發,國內廠商對大模型安全的重視程度雖然有了很大的提升,但有業界分析認為,相較于國際上的大模型,部分國產大模型在安全架構設計和漏洞檢測與修復機制上仍存在一定短板。
長亭科技聯合創始人龔杰介紹,國際上許多領先企業已逐步引入零信任理念,對內部網絡、接口和數據傳輸實施嚴格驗證。但在國產大模型系統中,往往依賴傳統基于外圍防護的模式,內部訪問控制和細粒度權限管理不夠嚴格,存在內外部威脅共存的風險。
奇安信董事長齊向東曾表示,安全能力評估體系的不完善進一步加劇了風險。國內缺乏統一的安全指標和實時風險評估標準,許多模型上線前僅關注性能測試,忽視對抗攻擊、數據中毒等專項檢測。“這無疑給安全埋下了隱患”。
分析對比國際案例,啟明星辰集團技術副總裁張忠杰認為,微軟通過MSRC為AI相關漏洞提供最高3萬美元的獎勵,并明確漏洞類型和危害等級;OpenAI則通過HackerOne平臺進行漏洞報告,確保流程透明;而國產大模型通常依靠郵件溝通,且缺少激勵機制,漏洞處理方式較為被動。
此外,大模型上線前安全測試環節的風險也暗藏風險。多數模型上線前只測性能,不測極端場景。
多維推進,構建“縱深防御”安全體系
迫于大模型安全的發展態勢,越來越多廠商開始將大模型安全作為重點業務來推進。
“外掛+原生”雙軌驅動
360不僅發布了《白皮書》,還給出了應對策略,諸如,“外掛式安全 + 平臺原生安全”雙軌安全體系,前者側重于側重模型外部防護,通過“以模治模”實現對算力主機、軟件生態、輸入輸出內容及模型幻覺的主動監測與防御;后者則聚焦于大模型數據、知識庫、智能體及客戶端等環節,將安全能力嵌入核心組件,強化配套組件安全與全流程合規管控。
此外基于 “外防風險、內固架構”的大模型安全核心理念,360提出覆蓋大模型安全全鏈路解決方案。該方案通過七大核心產品能力,共同組成“外掛式”與“平臺原生”相結合的縱深防御體系。
“原生安全”與大模型測試
永信至誠強調建立AI大模型的“原生安全”,在設計、開發、運營等各階段保障大模型的安全性。這一模式依賴于「數字風洞」產品體系構建出多維風險管控機制。
在構建期,重點確保AI大模型及相關系統上線的安全。包括為數據、算法和開發環境提供足夠的安全保障,以防止數據篡改和結構性漏洞;在部署期,確保系統的穩定性和防護措施,特別是保護模型參數和數據接口的安全,以避免未經授權的訪問;運營階段則側重保障業務的健康穩定。
為此,永信至誠還開發了一系列針對AI大模型的測試評估方案,包括數據安全檢查、內容安全測試和供應鏈安全檢查服務,同時基于「數字風洞」系統搭載的風洞時光機系統,可實時監控AI大模型的健康狀態。通過這一功能,企業可以定期對大模型進行健康檢查,確保安全需求得到滿足。同時,基于多源威脅情報的“家庭醫生”安全服務,可以有效預警與處置潛在的安全威脅。
此外,永信至誠基于春秋AI「數字風洞」打造的內容合規和數據隱私的“安全圍欄”,可在用戶和AI之間提供二次過濾,以減少惡意輸入和不當內容的風險。這一全面的安全管理措施,使得AI智能系統在高效運營的同時,具備了必要的安全防護能力。
內生安全與AI賦能立體防御
奇安信強調的是“實戰化內生安全體系”與“AI驅動的安全能力升級”。其首創的內生安全框架通過物理層、虛擬化層、業務層與安全措施層的解構,將安全能力深度融入數字化建設。目前,該框架已支撐30余個省級政務云平臺的安全運營,通過構建態勢感知與資產管理核心平臺,實現安全事件自動化處置。
針對AI大模型應用的安全痛點,奇安信推出了“大模型安全空間防護方案”。該方案將大模型涉及的數據、算力、平臺等劃歸‘紅域’進行專屬防護,覆蓋訓練、微調、部署等全場景。
具體實施中,奇安信依托“星海諾亞”數據治理平臺,將數百PB原始數據提純為200TB高價值訓練資產,形成40GB安全知識庫;通過千億參數級AI算力集群支持模型訓練全流程管控,并采用零信任架構與動態沙箱技術確保數據加密。
產品方面覆蓋數據安全全生命周期。其中,數據安全管控平臺以“六全框架”為核心,實現數據資產發現、分類分級與流動監測,已在政務、金融、電信、央企、醫療等領域廣泛應用。
安全網關支持顯式/透明/反向三種代理模式,單設備最大帶寬達10Gbps,具備200+網絡協議識別能力,可與云訪問安全代理系統集成,有效阻斷違規外聯行為。數據庫審計與防護系統通過深度報文解析技術,識別200+文件類型與多層解壓縮操作,攔截異常數據庫操作并提升日志追溯效率。
結語
大模型技術的發展一日千里,其安全挑戰也隨之進入深水區。從2023年“提示詞攻防”的初露鋒芒,到如今覆蓋基礎設施、數據、智能體與用戶端的系統性風險,安全已從技術保障層面,躍升為決定大模型產業能否健康、可持續發展的核心前提。
當前,國內廠商在安全理念與實踐上正奮起直追,“原生安全”、“縱深防御”、“實戰化體系”等思路逐漸成為行業共識。然而,正如業界專家所警示,我們在零信任架構的深度落地、統一安全評估標準的建立以及漏洞響應機制的完善等方面,仍與國際領先水平存在差距。這不僅是技術短板,更是生態與體系化能力的考驗。
未來,大模型的安全建設將不再是與性能、功能并列的選項,而是融入其生命周期的“底座”與“基因”。它需要廠商、用戶與監管機構的協同努力。只有這樣,我們才能真正駕馭AI這股顛覆性力量,在數字時代的浪潮中行穩致遠。























