LLM的下一戰:從狂卷數據到精算數據
大模型競爭的核心,正從比拼數據規模,轉向比拼數據的使用效率和風險管理。
今天分享2025兩篇最新的論文,剛好把一賽道一次性講透:

- 《A Survey on Efficient Large Language Model Training: From Data-centric Perspectives》
- 《A Survey on Unlearning in Large Language Models》
一個講怎么“吃得更少但更好”,另一個講怎么“消化后還能吐掉有害的”,本質上都是數據管理的精細化。
賽道 | 痛點 | 代表技術 |
高效訓練 | 數據太貴、標注太慢、邊際收益遞減 | 數據價值飛輪 (Data Value Flywheel) |
機器遺忘 | 隱私/版權/惡意知識難刪除、重訓成本爆表 | 機器遺忘 (Machine Unlearning) |

1. 高效訓練:數據價值飛輪 5 大殺器

圖 1:數據價值飛輪——五大模塊形成閉環,越轉越高效
把數據高效 post-training 拆成 5 個互補模塊:
模塊 | 典型技巧 |
① 數據選擇 | MoDS、LESS、Agent 投票 |
② 質量增強 | 語義重寫、毒性控制、分布穩定 |
③ 合成數據 | Magpie、SynPO、HARMONIC |
④ 蒸餾壓縮 | LLMLingua-2、BitDistiller |
⑤ 自進化生態 | Self-Rewarding、LLM-as-a-Judge |


1.1 數據選擇:把“垃圾數據”攔在門外

數據選擇的4個分類
- LESS用低秩梯度相似度搜“高影響力”樣本,只訓 5 % 數據就能打平全量。
- Agent 策略:多模型投票,像“數據陪審團”一樣篩掉低質量樣本。
1.2 合成數據:GPT-4 當“數據印鈔機”

- Magpie:不給任何人工 prompt,讓 GPT-4 自己吐 instruction-response 對,98 % 可直接用于指令微調。
- HARMONIC:在醫療場景用 LLM 合成表格數據,API 成本 ↓ 70 %。
1.3 自進化生態:模型自己當“數據產品經理”

- Self-Rewarding:模型自己生成新指令 → 自己打分 → 再訓自己,三輪后 AlpacaEval 提升 6.7 %。
- LLM-as-a-Judge:讓 GPT-4 給答案打分的誤差 < 2 %,人類幾乎無法區分。

2. 機器遺忘:把“不該記住”的知識精準切除

2.1 遺忘三時段
提出全新 三時段分類法:

時段 | 思路 | 代表工作 |
訓練時 | SISA 切片+checkpoint | FairSISA |
訓練后 | 梯度上升/分布對齊/激活擾動 | NPO、RMU、LUNAR |
推理時 | 輸入提示封裝、logit 偏移 | ICUL、δ-Unlearning |


2.2 遺忘三層次
樣本級 vs 實體級忘卻示例

- 樣本級:刪除某段隱私文本(如“張三的地址”)。
- 實體級:刪除與“哈利·波特”有關的所有知識。
- 能力級:讓模型“忘記”如何生成惡意代碼。
2.3 評價指標全景

評估框架:數據+指標
維度 | 常用指標 | 一句話說明 |
忘卻成功率 | Truth Ratio↓、Exposure↓ | 越低越好 |
模型效用 | MMLU、ARC、GSM8K | 越高越好 |
魯棒性 | Relearning、Jailbreak、MIA | 越難恢復越好 |
效率 | GPU Hours、FLOPs | 越低越好 |


https://arxiv.org/abs/2510.25817
https://arxiv.org/abs/2510.25117
https://github.com/chrisliu298/awesome-llm-unlearning本文轉載自??PaperAgent??
已于2025-11-7 07:44:08修改
贊
收藏
回復
分享
微博
QQ
微信
舉報
回復
相關推薦

















