Grok 3 與 DeepSeek-R1 是怎么學(xué)會(huì)思考的?
你是否思考過(guò):大模型是如何做到既能到出口成章又能演算數(shù)學(xué)題的呢?今天,讓我們用實(shí)例來(lái)揭開大模型中「思維鏈」的神秘面紗。
1、什么是思維鏈技術(shù)?
簡(jiǎn)而言之,思維鏈技術(shù)就是讓大模型在回答問(wèn)題時(shí),不再只給你一個(gè)冰冷的答案,而是會(huì)抽絲剝繭般地一步步展示它是如何找到答案的。
要知道,傳統(tǒng) LLM 的訓(xùn)練目標(biāo)是預(yù)測(cè)下一個(gè) token,而不是系統(tǒng)地推理數(shù)學(xué)問(wèn)題。它們?cè)邶嫶蟮奈谋菊Z(yǔ)料庫(kù)中學(xué)到了各種模式,但「數(shù)學(xué)公式的嚴(yán)謹(jǐn)推演」并非其主要任務(wù)。就好比一個(gè)狂熱的小說(shuō)家,擅長(zhǎng)講故事,卻不能推演平面幾何。
過(guò)去模型常常「一口氣出答案」,讓人不知其所以然;而引入思維鏈后,大模型開始認(rèn)真剖析問(wèn)題,像個(gè)老學(xué)究一樣,慢慢盤點(diǎn)每個(gè)推理步驟、思路和細(xì)節(jié),甚至讓問(wèn)題解決過(guò)程變得豐富多彩。
看問(wèn)題:“9.9 和 9.11 哪個(gè)大?”
這個(gè)問(wèn)題你一定很眼熟,以往的 LLM 模型往往一口氣給出答案:
“9.9 大” 或者 “9.11 大”相信大家都見過(guò)上面這類問(wèn)答。
而有思維鏈加持的大模型會(huì)類似下面這樣回答:
[思維鏈開始]
步驟 1: 比較整數(shù)部分,9.9 和 9.11 的整數(shù)部分均為 9,相等。
步驟 2: 比較小數(shù)部分。將 9.9 補(bǔ)零為 9.90,與 9.11 對(duì)齊小數(shù)位數(shù)。
步驟 3: 比較十分位:9.90 的十分位是 9,9.11 的十分位是 1,9 > 1。
步驟 4: 由于十分位已分出大小,無(wú)需繼續(xù)比較后續(xù)位數(shù)。
[思維鏈結(jié)束]
最終答案: 9.9 更大當(dāng)然,像“步驟 n:” 之類的文字不需要出現(xiàn)在最終的回答中。
我們生活中的很多問(wèn)題都不是簡(jiǎn)單的“一步到位”。大到規(guī)劃一場(chǎng)旅行,小到如何在朋友圈中秀出你的“高情商”,都需要多步驟好好斟酌。大模型也是如此,只有通過(guò)多步推理,才能理解問(wèn)題的復(fù)雜性,給出更準(zhǔn)確、更合理的回復(fù)。
研究者們發(fā)現(xiàn),當(dāng)讓模型生成中間過(guò)程時(shí),它不僅局限于直接回憶知識(shí),而是利用內(nèi)在邏輯「自行推演」出合理的答案。這就像你的大腦:遇到難題時(shí),你會(huì)先喊「冷靜思考」,然后按部就班地分解問(wèn)題。
一個(gè)例子
模型被問(wèn)到:“你覺得豬能飛嗎?”傳統(tǒng)回答:直接回答“不會(huì)”(語(yǔ)氣平淡,仿佛沒(méi)有看過(guò)《哪吒之魔童鬧海》)。
然而,啟用了思維鏈后,模型會(huì)這樣戲劇性地展開思考:
步驟 1: 回顧常識(shí) —— 豬通常不會(huì)飛,畢竟它們天生厚重大氣。(想象一下豬穿著小翅膀在天空飄,滑稽得像動(dòng)畫!)
步驟 2: 考慮例外 —— 有沒(méi)有可能在特定情境下實(shí)現(xiàn)“豬飛”?比如某部科幻電影里,通過(guò)改造、生物工程讓豬擁有了噴氣式翅膀。
步驟 3: 分析科技現(xiàn)實(shí) —— 目前的技術(shù)還沒(méi)能讓豬飛起來(lái),畢竟重力太強(qiáng),哪怕是超級(jí)英雄也得靠電影特效。
最終結(jié)論: 豬會(huì)飛只存在于你的夢(mèng)里或者奇幻小說(shuō)中,而在現(xiàn)實(shí)生活中,我們只能默默哀嘆:“豬還是不飛,老天對(duì)它們太仁慈了。”
這樣的回答不僅邏輯清晰,還充滿幽默感,既讓人啼笑皆非,又能學(xué)到知識(shí)。可以說(shuō),思維鏈?zhǔn)沟媚P突卮饛摹敖┯驳臋C(jī)器式”變得幾乎像個(gè)會(huì)講笑話的談話高手。
更有意思的是,這種方法還可以幫助模型發(fā)現(xiàn)潛在的細(xì)節(jié)錯(cuò)誤。如果中間某一步出錯(cuò)了,那么后續(xù)的流程也會(huì)暴露問(wèn)題,從而促使模型進(jìn)行自我修正!這就好比你在煮咖啡時(shí)突然發(fā)現(xiàn)多加了一勺咖啡粉,結(jié)果導(dǎo)致風(fēng)味失調(diào)。
2、嚴(yán)肅一點(diǎn)講
思維鏈(Chain of Thought, CoT)是一種提示策略,通過(guò)在輸入提示中提供一系列中間推理步驟,引導(dǎo)大型語(yǔ)言模型逐步思考并生成最終答案。與傳統(tǒng)的直接提問(wèn)方式相比,CoT 模仿了人類的思考過(guò)程:在面對(duì)復(fù)雜問(wèn)題時(shí),通常會(huì)將問(wèn)題分解為多個(gè)小步驟,逐一解決,最終得出結(jié)論。
CoT 的核心思想在于:通過(guò)顯式地展示推理過(guò)程,幫助模型更好地理解問(wèn)題的結(jié)構(gòu)和邏輯,從而提升其在需要多步推理的任務(wù)中的表現(xiàn)。
例如,在解決數(shù)學(xué)問(wèn)題時(shí),CoT 不僅要求模型給出答案,還要求其展示演算和推理過(guò)程;在常識(shí)推理中,CoT 幫助模型通過(guò)邏輯鏈條得出更合理的結(jié)論。
首先,CoT 也是在傳統(tǒng) LLM 的任務(wù)框架下行事,即預(yù)測(cè)下一個(gè) token。那么它怎么做到植入推理過(guò)程呢?
下面我們以一個(gè)具體案例,從 LLM 模型的輸入和輸出角度,來(lái)解釋思維鏈在算法層面的工作原理。
這個(gè)例子不僅展示了模型如何從輸入生成中間推理步驟(即思維鏈 tokens),再輸出最終答案,而且也揭示了這些過(guò)程背后的大致算法機(jī)制。
案例 1:計(jì)算表達(dá)式
請(qǐng)計(jì)算:
有思維鏈加持的大模型回答起來(lái)可能輸出如下文本:
[思維鏈開始]
步驟 1:首先計(jì)算括號(hào)內(nèi)的加法,3 + 5 = 8。
步驟 2:然后將結(jié)果乘以 2,8 × 2 = 16。
步驟 3:接著減去 4,16 - 4 = 12。
步驟 4:最后,除以 2,12 ÷ 2 = 6。
[思維鏈結(jié)束]
最終答案:6上面是大致樣子,鏈的具體形式當(dāng)然是靈活的。
下面是算法層面的詳細(xì)解釋:
- 輸入與分詞
- 輸入文本:用戶輸入的文本為?
?請(qǐng)計(jì)算:((3+5) * 2 - 4)/2?? - 分詞與編碼:模型首先將這段文本分解為一系列的單詞或符號(hào)(也稱為“tokens”),例如:[ \text{["請(qǐng)", "計(jì)算", ":", "(", "(", "3", "+", "5", ")", "*", "2", "-", "4", ")", "/", "2"]} ] 接著,每個(gè) token 都被映射成一個(gè)高維向量,輸入到 Transformer 編碼器中。
- 隱藏狀態(tài)與模型推理
- Transformer 編碼器:經(jīng)過(guò)多層自注意力(self-attention)和前饋神經(jīng)網(wǎng)絡(luò),這些 token 的向量得到了上下文敏感的表示(隱藏狀態(tài))。這些隱藏狀態(tài)為之后的生成過(guò)程提供了充分的“記憶”和語(yǔ)境。
- 提示與解碼:當(dāng)模型開始生成回答時(shí),通常會(huì)使用一種解碼器機(jī)制(如貪心搜索或束搜索),它逐步生成文本 tokens。– 在傳統(tǒng)模式下,模型可能直接生成最終答案 “6”。– 而采用鏈?zhǔn)剿季S提示后,模型被引導(dǎo)生成一系列中間推理步驟。這些步驟就是“思維鏈” tokens,例如:
a.“步驟 1:...”
b.“步驟 2:...”… 依次生成,直到完成問(wèn)題求解。
- 輸入與輸出的完整路徑示意
下面用一個(gè)簡(jiǎn)單的 ASCII 流程圖展示整個(gè)過(guò)程:
++
| 用戶輸入文本 |
| "請(qǐng)計(jì)算:((3+5)*2-4)/2" |
++
│
▼
++
| 分詞 & 編碼 |
| Tokenization & Embedding |
++
│
▼
++
| Transformer 編碼器 |
| 生成上下文感知的隱藏狀態(tài) |
++
│
▼
++
| 解碼過(guò)程: |
| 生成中間的 Chain-of-Thought |
|(步驟 1、步驟 2、… 推理過(guò)程) |
++
│
▼
++
| 生成最終答案 Output Tokens |
| “6” |
++從算法角度看,思維鏈相當(dāng)于為 LLM 增加了一個(gè)「推理草稿紙」:
- 輸入階段:用戶問(wèn)題經(jīng)過(guò)分詞和編碼,生成隱藏狀態(tài)。
- 生成階段:模型被引導(dǎo)生成中間「草稿」,描述每一步推理過(guò)程的 tokens 。
- 輸出階段:基于這些中間 tokens,最終匯總出正確答案的 tokens。
這種機(jī)制讓模型不僅能回答「多少」這樣的問(wèn)題,而且能展示「為什么」,使回答過(guò)程邏輯嚴(yán)謹(jǐn),仿佛一個(gè)會(huì)詳細(xì)講解思路的老師在旁輔導(dǎo)。通過(guò)對(duì)內(nèi)部中間 tokens 的采樣和自我校驗(yàn),思維鏈讓復(fù)雜問(wèn)題求解變得既透明又高效,真正打破了以往僅靠模式匹配的黑盒局限。
案例 2:微積分演算
在一些研究中,研究人員發(fā)現(xiàn)在解決復(fù)雜數(shù)學(xué)問(wèn)題時(shí),通過(guò)在提示中展示 3~5 個(gè)帶有詳細(xì)推理過(guò)程的示例,可以大幅度提高模型正確率;而在專門針對(duì)數(shù)學(xué)或邏輯推理問(wèn)題進(jìn)行微調(diào)時(shí),常見的做法是構(gòu)建包含數(shù)千到上萬(wàn)個(gè)示例的數(shù)據(jù)集。這些數(shù)據(jù)集幫助模型建立起「在解題過(guò)程中先明確中間狀態(tài),再得出結(jié)論」的推理習(xí)慣。
舉例來(lái)說(shuō),假設(shè)我們希望模型學(xué)會(huì)解決微積分中的積分問(wèn)題,數(shù)據(jù)集中可能包括了從建立積分公式、變量替換、積分分步計(jì)算、再到最后化簡(jiǎn)的完整過(guò)程。
以一題簡(jiǎn)單的不定積分為例,數(shù)據(jù)集示例可能這樣構(gòu)造:
問(wèn)題:計(jì)算 ∫ (2x * cos(x2)) dx
推理過(guò)程:
步驟1:注意到 x2 的導(dǎo)數(shù)是 2x,因此做變量替換設(shè) u = x2;
步驟2:則 du = 2x dx,故原積分可寫為 ∫ cos(u) du;
步驟3:積分 ∫ cos(u) du = sin(u) + C;
步驟4:將 u = x2 代回,得 sin(x2) + C
最終答案:sin(x2) + C類似的,稍微復(fù)雜一點(diǎn)的例子,如計(jì)算如下定積分。

思維鏈?zhǔn)纠缦拢?/p>
推理過(guò)程:
步驟 1:對(duì)積分采用分部積分法,設(shè) u = ln(1+x),dv = dx。
步驟 2:則有 du = (1/(1+x)) dx,v = x。
步驟 3:應(yīng)用分部積分公式:∫ u dx = u·v - ∫ v du,
得到:∫ ln(1+x) dx = x·ln(1+x) - ∫ [x/(1+x)] dx。
步驟 4:注意到分式可以拆分:x/(1+x) = 1 - 1/(1+x)。
步驟 5:因此 ∫ [x/(1+x)] dx = ∫ 1 dx - ∫ 1/(1+x) dx = x - ln|1+x| + C。
步驟 6:綜合得:∫ ln(1+x) dx = x·ln(1+x) - x + ln|1+x| + C。
步驟 7:將積分區(qū)間 0 到 1 帶入:
當(dāng) x = 1 時(shí):1·ln2 - 1 + ln2 = 2ln2 - 1;
當(dāng) x = 0 時(shí):0 - 0 + ln1 = 0。
步驟 8:定積分結(jié)果為 (2ln2 - 1) - 0 = 2ln2 - 1。
最終答案:2ln2 - 1構(gòu)造像這樣的示例,如果多樣性和覆蓋面足夠,可能需要上千例才能讓模型全面掌握微積分問(wèn)題的鏈?zhǔn)酵评矸椒ǎ珜?duì)于引導(dǎo)大型預(yù)訓(xùn)練語(yǔ)言模型來(lái)說(shuō),再提供幾個(gè)樣例就能顯著激發(fā)它已有的能力。
對(duì)于像微積分這樣的復(fù)雜數(shù)學(xué)任務(wù),若從零開始訓(xùn)練讓模型形成清晰鏈?zhǔn)酵评淼哪芰Γ笠?guī)模的預(yù)訓(xùn)練數(shù)據(jù)集中的「推理示例」可能達(dá)到數(shù)百萬(wàn) tokens,而在專門微調(diào)時(shí)數(shù)百到數(shù)千個(gè)高質(zhì)量推理示例已足矣激發(fā)和穩(wěn)固這項(xiàng)能力。
網(wǎng)絡(luò)規(guī)模與學(xué)習(xí)能力
這里有一點(diǎn)值得提一下,就是網(wǎng)絡(luò)規(guī)模在鏈?zhǔn)酵评碇邪缪萘酥匾巧?/p>
小網(wǎng)絡(luò)的局限性:
- Token 級(jí)別關(guān)系:小型網(wǎng)絡(luò)受制于其參數(shù)數(shù)量和計(jì)算能力,往往只能捕捉到局部的、短程的 token 級(jí)別關(guān)系。它們擅長(zhǎng)完成一些簡(jiǎn)單的任務(wù)(如句子補(bǔ)全、短文本分類等),但在處理需要復(fù)雜邏輯推理和多步推導(dǎo)的問(wèn)題時(shí)顯得力不從心。
- 上下文局限:小網(wǎng)絡(luò)在處理長(zhǎng)文本時(shí),可能會(huì)因?yàn)槟P偷娜萘肯拗疲瑹o(wú)法很好地記住或理解上下文關(guān)系。這導(dǎo)致其在多步驟推理過(guò)程中容易丟失重要信息或產(chǎn)生錯(cuò)誤。
大網(wǎng)絡(luò)的優(yōu)勢(shì):
- 命題級(jí)別關(guān)系:大規(guī)模模型擁有更大的參數(shù)空間和更強(qiáng)的表示能力,可以捕捉到更復(fù)雜、長(zhǎng)程的關(guān)系。這使得它們能夠更好地理解和生成鏈?zhǔn)酵评碇械闹虚g步驟,類似于「命題級(jí)別」的邏輯推導(dǎo)。
- 增強(qiáng)的上下文理解:大網(wǎng)絡(luò)具備更強(qiáng)的上下文捕捉能力,可以在較長(zhǎng)文本中保持一致性和連貫性。它們能在解決復(fù)雜問(wèn)題時(shí),保持對(duì)多步推理過(guò)程的記憶和邏輯鏈條的清晰展示。
具體示例對(duì)比
假設(shè)有一個(gè)復(fù)雜的數(shù)學(xué)問(wèn)題,需要多個(gè)步驟才能求解:
小網(wǎng)絡(luò)可能生成的內(nèi)容:
問(wèn)題:計(jì)算 ∫ (2x * cos(x2)) dx
答案:這是一個(gè)復(fù)雜的積分問(wèn)題,需要做變量替換。- 缺陷:小網(wǎng)絡(luò)可能停留在簡(jiǎn)單的描述上,無(wú)法具體展示變量替換和逐步積分的過(guò)程。
大網(wǎng)絡(luò)生成的內(nèi)容:
問(wèn)題:計(jì)算 ∫ (2x * cos(x2)) dx
步驟1:注意到 x2 的導(dǎo)數(shù)是 2x,因此做變量替換設(shè) u = x2。
步驟2:則 du = 2x dx,故原積分可寫為 ∫ cos(u) du。
步驟3:積分 ∫ cos(u) du = sin(u) + C。
步驟4:將 u = x2 代回,得 sin(x2) + C。
答案:sin(x2) + C- 優(yōu)勢(shì):大網(wǎng)絡(luò)能夠詳細(xì)展示每個(gè)中間步驟,邏輯清晰,確保問(wèn)題求解過(guò)程透明且可驗(yàn)證。
理論支持:在諸多研究中,比如 OpenAI 發(fā)表的關(guān)于 GPT-3 的論文,他們發(fā)現(xiàn)隨著網(wǎng)絡(luò)規(guī)模的增大,模型在復(fù)雜任務(wù)上的表現(xiàn)顯著提升。這不僅包括語(yǔ)言理解和生成,還涵蓋了邏輯推理和數(shù)學(xué)問(wèn)題求解。大規(guī)模模型通過(guò)大量預(yù)訓(xùn)練數(shù)據(jù),學(xué)會(huì)了從簡(jiǎn)單的 token 關(guān)系推導(dǎo)出更高階的邏輯模式,這正是鏈?zhǔn)酵评淼靡詫?shí)現(xiàn)的基礎(chǔ)。
思維鏈的有效訓(xùn)練確實(shí)依賴于足夠大的網(wǎng)絡(luò)規(guī)模。小型網(wǎng)絡(luò)在學(xué)習(xí)和表現(xiàn)復(fù)雜邏輯鏈條方面存在天然的限制,而大規(guī)模網(wǎng)絡(luò)具備更強(qiáng)的表示能力和上下文理解力,可以在多步驟推理中展現(xiàn)出更好的性能。這個(gè)過(guò)程不僅需要龐大的模型參數(shù),還依賴于大量高質(zhì)量、多樣化的數(shù)據(jù)來(lái)強(qiáng)化和檢驗(yàn)?zāi)P偷耐评砟芰Α?/p>
3、總結(jié)
思維鏈技術(shù)正是利用了大模型生成下一個(gè) token 的自回歸機(jī)制,讓模型在每一步輸出時(shí)都顯式地展示其「中間思考過(guò)程」。這意味著,當(dāng)模型面對(duì)一個(gè)復(fù)雜問(wèn)題時(shí),它不再試圖一口氣生成最終答案,而是在生成過(guò)程中逐步展開邏輯步驟,類似于我們?nèi)祟愒谒伎紗?wèn)題時(shí)寫下草稿、一步步推理的過(guò)程。
這種機(jī)制的核心在于:
- 逐步展開:模型按順序生成中間步驟,每個(gè)步驟都為后續(xù)步驟提供了「上下文」,確保最終結(jié)論更具條理性和邏輯性。
- 透明推理:通過(guò)生成中間 tokens,思維鏈不僅提高了答案的準(zhǔn)確性,也讓用戶可以看到模型的推理過(guò)程,從而增強(qiáng)了答案的可信度。
- 自我校驗(yàn):如果某個(gè)步驟出現(xiàn)邏輯漏洞,整個(gè)鏈條可能會(huì)暴露問(wèn)題,使得模型有機(jī)會(huì)在后續(xù)生成中自我糾正。
總之,思維鏈技術(shù)利用 token 生成機(jī)制,讓大模型具備「按步驟解決問(wèn)題」能力,也是為何在當(dāng)前的很多復(fù)雜任務(wù)(比如數(shù)學(xué)題、邏輯推理)中,鏈?zhǔn)剿季S表現(xiàn)出了卓越的效果。
怎么樣,現(xiàn)在再去跟 DeepSeek-R1 之類的 AI 聊天,是不是心里更有底啦。
本文主要通過(guò)舉例子揭開思維鏈的神秘面紗,至于之后發(fā)展出來(lái)的更多衍生技術(shù),如零樣本 CoT、自動(dòng) CoT 以及多模態(tài) CoT 等,不在本文涉及范圍。
4、附錄
最后,為了加深對(duì) LLM 的了解,我們?cè)賮?lái)舉例更多的數(shù)學(xué)相關(guān)的思維鏈數(shù)據(jù)集中的具體例子,結(jié)合了公開數(shù)據(jù)集中的典型問(wèn)題和實(shí)際應(yīng)用場(chǎng)景。
1)數(shù)列推理問(wèn)題
問(wèn)題:給定數(shù)列 1,2,6,24,120,? ,... 問(wèn)號(hào)處的數(shù)字是多少?這個(gè)數(shù)列有什么數(shù)學(xué)意義?思維鏈:
- 步驟1:觀察數(shù)列的遞增規(guī)律:1 → 2(×2),2 → 6(×3),6 → 24(×4),24 → 120(×5)。
- 步驟2:發(fā)現(xiàn)每個(gè)數(shù)字是前一個(gè)數(shù)字乘以遞增的整數(shù)(2, 3, 4, 5…),因此下一個(gè)數(shù)應(yīng)為 120×6 = 720。
- 步驟3:識(shí)別數(shù)列的數(shù)學(xué)意義:這是階乘數(shù)列(n!),即1! = 1, 2! = 2, 3! = 6, 4! = 24, 5! = 120, 6! = 720。答案:720,數(shù)列為階乘數(shù)列。
2)多步驟數(shù)學(xué)應(yīng)用題
問(wèn)題:一個(gè)人有 16 個(gè)球,其中一半是高爾夫球,而高爾夫球中又有一半是藍(lán)色的。問(wèn)有多少個(gè)藍(lán)色高爾夫球?思維鏈:
- 步驟 1:總高爾夫球數(shù) = 16×? = 8 個(gè)。
- 步驟 2:藍(lán)色高爾夫球數(shù) = 8×? = 4 個(gè)。答案:4 個(gè)藍(lán)色高爾夫球。
3)代數(shù)問(wèn)題
問(wèn)題:將 100 根火柴分成 10 堆,每堆數(shù)量為單數(shù),且相鄰兩堆相差 2 根。如何分配?思維鏈:
- 步驟1:?jiǎn)螖?shù)序列可從 1 開始,每次加 2,即 1,3,5,…,19。
- 步驟2:驗(yàn)證總和:1+3+5+…+19 = (10 項(xiàng)等差數(shù)列求和) = 102 = 100。
- 步驟3:分配方案為 1, 3, 5, 7, 9, 11, 13, 15, 17, 19 根。
4)視覺誤導(dǎo)下的數(shù)學(xué)驗(yàn)證
問(wèn)題:下圖中的兩個(gè)怪物看起來(lái)大小不同,但實(shí)際上是否相同?(需結(jié)合圖像)思維鏈:
- 步驟1:使用測(cè)量工具對(duì)比高度和寬度。
- 步驟2:分析視覺錯(cuò)覺來(lái)源(如背景線條或透視效果)。
- 步驟3:確認(rèn)兩者實(shí)際尺寸相同。答案:大小相同,視覺誤差由背景設(shè)計(jì)引起。
5)復(fù)雜數(shù)學(xué)推理(GSM8K 數(shù)據(jù)集示例)
問(wèn)題:簡(jiǎn)給媽媽 2 朵花后剩下 10 朵,接著給爸爸 3 朵,爸爸現(xiàn)在有多少朵花?思維鏈:
- 步驟1:簡(jiǎn)最初有花數(shù) = 10+2 = 12 朵。
- 步驟2:給媽媽后剩余 10 朵,再給爸爸 3 朵,則爸爸有 3 朵。
- 步驟3:注意問(wèn)題中的“給爸爸后他會(huì)有多少朵”,而非簡(jiǎn)剩余多少。答案:3 朵。
6)數(shù)值比較與符號(hào)推理
問(wèn)題:為什么大模型可能錯(cuò)誤認(rèn)為 9.11 大于 9.9?思維鏈:
- 步驟1:模型將 “9.11” 切分為 “9”、“.”、“11”,而 “9.9” 切分為 “9”、“.”、“9”。
- 步驟2:模型誤將 “11” 與 “9” 直接比較,導(dǎo)致錯(cuò)誤結(jié)論。
- 步驟3:通過(guò) CoT 提示,模型需逐步比較小數(shù)點(diǎn)后位數(shù):9.11 = 9 + 0.11,9.9 = 9+0.9→0.9 > 0.11。答案:9.9 更大。
7)字母計(jì)數(shù)任務(wù)
問(wèn)題:?jiǎn)卧~ “strawberrrrry” 中有多少個(gè)字母 “r”?思維鏈:
- 步驟1:逐個(gè)字母拆分:s-t-r-a-w-b-e-r-r-r-r-r-y。
- 步驟2:標(biāo)記每個(gè) “r” 的位置(第 3、7、8、9、10、11 位)。答案:6 個(gè) “r”。
本文轉(zhuǎn)載自機(jī)器學(xué)習(xí)與數(shù)學(xué),作者: 大師兄

















