OpenAI重磅發布gpt-oss系列開源大模型:媲美 GPT-4o

不論你是獨立開發者、企業還是研究機構,現在都可以免費擁有一款與 GPT-4o 接近實力的語言模型。
開源但不“閹割”:媲美 GPT-4o,運行成本極低
OpenAI 在這次發布中非常有誠意:
- gpt-oss-120b:在核心推理任務上已接近 GPT-4o-mini,支持 128k 上下文,單卡 80GB GPU 可跑。
- gpt-oss-20b:性能對標 GPT-3.5(o3-mini),僅需 16GB 顯存,可部署于消費級設備、本地推理、離線使用等場景。
它們在以下任務中表現優異:
- Chain-of-Thought(CoT)推理
- 工具使用(如 Web 搜索、代碼執行)
- 醫療問答(在 HealthBench 上甚至超過 GPT-4o)
- 數學與編碼任務(勝過 o3-mini)
適用于本地部署與個性化定制
相比閉源模型,gpt-oss 的一大亮點是:
- 權重完全開放(支持 Hugging Face 下載)
- 支持推理量化(MXFP4),大幅降低運行門檻
- 提供 Harmony 格式工具鏈,支持 Python / Rust 渲染器
- 官方支持 Apple Metal、PyTorch、ONNX、VS Code 工具包
安全性不打折:對抗性微調也扛得住
OpenAI 對安全的投入一如既往:
- 預訓練階段剔除了危險內容(CBRN 等)
- 微調階段采用了 deliberative alignment 技術
- 評估階段進行了“惡意微調攻擊模擬”,測試模型是否容易被改造成高危能力體
結論是:即使在攻擊者“最大努力”的前提下,這些模型仍未展現出高風險能力。
此外,OpenAI 啟動了 50 萬美元的 紅隊挑戰賽(Red Teaming Challenge),鼓勵全球開發者參與模型安全性測試,推動整個開源生態的安全進步。
技術細節亮點:MoE 架構 + 大上下文 + 靈活推理
gpt-oss 系列采用了先進的 Transformer 架構,并引入以下關鍵技術:
模型 | 層數 | 總參數 | 每 Token 激活參數 | 上下文長度 |
gpt-oss-120b | 36 | 117B | 5.1B | 128k |
gpt-oss-20b | 24 | 21B | 3.6B | 128k |
技術要點:
- MoE(Mixture-of-Experts)架構:降低推理時活躍參數,提高效率
- 支持 Grouped Multi-Query Attention,RoPE 位置編碼
- 使用全新 o200k_harmony 分詞器(今日也一同開源)
- 推理可設置不同“努力等級”:低延遲 vs 高準確靈活切換
為什么這次發布意義重大?
OpenAI 這次發布的 gpt-oss 系列,具有以下歷史性意義:
- 打破壁壘:為中小型開發者、教育機構、非營利組織提供強大工具。
- 推動安全研究:開放非監督 CoT,支持更多“可解釋性”、“思維鏈監控”等研究方向。
- 補齊生態拼圖:API 模型 + 本地開源模型并行發展,滿足不同場景選擇。
- 降低 AI 不平等:開源模型的普及有助于民主化 AI 發展,尤其是在資源受限地區。
怎么用?
gpt-oss 模型現已開放:
- 下載地址:https://huggingface.co/openai/gpt-oss-120b
- 官方支持平臺:Azure、AWS、vLLM、Ollama、LM Studio、Cloudflare 等
- 本地運行參考項目:PyTorch、Metal、Harmony Renderer、量化模型等
寫在最后
gpt-oss 不僅是一套開源大模型,更是 OpenAI 向整個 AI 開源社區發出的誠意之作。它代表了高性能、安全、易用三者的結合,也讓“每個人都能擁有自己的 GPT”成為現實。
我們正站在 AI 開源生態的重要轉折點上。現在,是時候將這項技術真正握在自己手中。
參考資料
- https://openai.com/index/introducing-gpt-oss/
- https://huggingface.co/openai/gpt-oss-120b





































