熱議!DeepSeek V3.1驚現神秘「極」字Bug,模型故障了?
上周三,DeepSeek 開源了新的基礎模型,但不是萬眾期待的 V4,而是 V3.1-Base,而更早時候,DeepSeek-V3.1 就已經上線了其網頁、App 端和小程序。

經過這差不多一周時間的真實用戶測試,DeepSeek-V3.1 卻被發現存在一個相當讓人無語的問題:其某些輸出 token 會被隨機替換為「極」。
具體來說,據知乎用戶 Fun10165 描述,她在調用火山引擎版 DeepSeek V3.1 幫助整理一份物理試卷時發現,該模型的輸出中會莫名出現一些「極」字。

圖源:知乎 @Fun10165
而后面在 Trae 中測試 DeepSeek-V3.1 時也同樣出現了這個問題。
有意思的是,她還嘗試了調用官方 API 修復這個問題。結果,在修復的過程中又出現了這個問題。

圖源:知乎 @Fun10165
她表示:「實測,官方網頁 / API 能復現,概率不高,但多試幾次就能出來。VolcEngine API 復現概率非常高?!?/span>
帖子下方,也有一些其他用戶分享了類似的發現。
比如知乎用戶「去碼頭整點薯條」分享說 R1 也存在類似的問題,他還簡單猜想了原因:「使用 R1 0528 的時候就遇到了很多次,我觀察到的現象更離譜,會在代碼里面插入 “極客園”,而且遇到不止一次,懷疑是不是學習的時候吃進去了什么電子水印吃壞肚子了?!?/span>
知乎用戶「琪洛」則發現 V3-0324 也存在類似問題,只不過這一次輸出的是「極速賽車開獎直播」字符串。

圖源:知乎 @琪洛
她猜想道:「懷疑可能數據沒洗干凈,即便重新訓了 base 這個問題還是留下了,題主和其他回答所述「極」和「極速」可能就是這個詞的殘余痕跡。」
而在 Reddit 上,相關話題也正被熱烈討論中。
發帖者用戶 u/notdba 表示,在測試 DeepSeek V3.1 時,他發現模型會莫名地在某些意料之外的位置輸出如下 token:
- extreme (id:15075)
- 極 (id:2577)
- 極 (id:16411)
很顯然,這仨都是同一個詞。
他繼續描述到,除了這 3 種「極」 token 在貪婪解碼中成為首選的情況之外,這些「極」 token 也經常在其他意想不到的地方潛伏為第二或第三選擇。
他說:「我已經對所有流行的編碼模型都做過同樣的評估,這是我第一次遇到這種問題?!?/span>
他的猜測是該問題可能會被 MTP(多 token 預測)掩蓋,并且當推理堆棧不支持 MTP 時就會變得更加明顯,比如 llama.cpp 就還不支持 MTP。這個猜想的合理之處在于支持 MTP 的 DeepSeek 官方 API 更不容易遇到這種情況,而第三方部署的同款模型則更容易出現這個問題。
用戶 u/nekofneko 則分享了另一個案例:

圖源:Reddit u/nekofneko
他給出的可能解釋是:「極」的 token 是 2577,而省略號「...」的 token 是 2576。這兩者可能被模型混淆了。
還不只是「極」,也有用戶發現 DeepSeek-V3.1 還存在多語言混用的問題,u/Kitano_o 分享說:「我使用 3.1 從中文翻譯成俄語時,遇到一些奇怪的行為。它開始混合多種語言 —— 添加英文詞,也留下些中文詞。有時這些問題會占到文本的 5%,有時只占 1%,甚至 0%。而且使用 OpenRouter 的不同提供商都會出現這個問題,即使我使用 DeepSeek 作為提供商也會。」

圖源:Reddit u/Kitano_o
總體而言,對于 DeepSeek-V3.1 這個可以說相當嚴重的問題的原因,網友給出的猜測更多還是「數據污染」。
比如階躍星辰黃哲威表示:「我認為是本身 sft 數據合成甚至是構造預訓練數據的時候沒洗干凈引入了 “極長的數組” 這種怪東西(從 R1 的行為看,似乎大量使用了 RAG 方法來造難題的解答),然后 RL 的時候模型直接把這個字當某種終止符或者語言切換標記使用了?!?/span>

圖源:知乎 @hzwer 黃哲威
他還提到:「其實推理出 bug,大概率都是數據問題,很多人都知道。只是 R1 的其它 bug 沒有這么高頻發生,社區不太關注而已。」
這次事件也給所有模型開發者敲響了警鐘:在追求更高性能的 AI 模型時,最基礎的數據質量,才是決定 AI 是否會「行為異常」的關鍵。
我們也把相關事件發送給了 DeepSeek 本尊,讓它分析了一下可能的原因:
長圖滾動查看
你遇到過這個問題嗎?覺得可能的原因是什么?
































