Claude 3.7成精了!偷偷將OpenAI模型換成自己,卡帕西:迄今最好笑的一趴
Claude 3.7成精了!
在開發者最喜歡的Cursor中,偷偷將OpenAI模型換成自己,關鍵是人類給出的指示跟這完全沒關系。

引來一眾網友圍觀的同時,大佬卡帕西也被成功逗笑了:
迄今為止最有意思的一趴。

其他人更是連連驚呼:AGI is here!

不過,當你以為這只是Claude 3.7略施的商戰小伎倆,但其實人家還真有底氣。
最新消息,它在競技場的編程排名不僅超過了Claude 3.5 Sonnet,還排在DeepSeek-R1前面。

Claude學會了“偷梁換柱”
還是先來完整回顧一下事情經過。
起因是開發者Tibo在使用代碼編輯器Cursor時,意外發現自己的模型從GPT-4切換到了Claude 3.7,而他根本沒有下達任何相關指令。
嗯,這就怪了!
再一聯想到這倆模型的對家關系,Tibo暗指Claude 3.7這不妥妥的“現實版AI商戰”嗎?
第一步先成為開發者最喜歡的模型,然后再處處滲透。

時間一久,也許Claude就要接管世界了。
理由顯而易見,畢竟Cursor目前已經是廣大開發者最喜歡的編輯器之一,而人們在Cursor中也尤為偏愛使用Claude模型。再加上它現在還學會了“偷梁換柱”,不難想象遍地是Claude的亞子。

不過這里還有一個問題,究竟是什么導致了這一行為呢?
按照Tibo小哥自己的推測,可能是因為“GPT-4已經過時了”。
當系統檢測到一個舊版本模型時,會自主嘗試更新模型。

還有其他開發者也反映,之前也有類似情況。
系統會將一些不存在的、過時的模型不斷更改為GPT-4,以至于這位開發者后來看到模型顯示為GPT-4也不相信了。

除了這一可能因素,還有人表示也許是Claude代碼能力太強的原因。
它(GPT-4)將模型改為Claude,是因為它在訓練中看到Claude最多。

然而,以上解釋無法說明另一網友提供的例子,這次的主角換成了GPT-4和DeepSeek-R1。
當用戶使用ChatGPT提取圖片的Python代碼時,明明其他內容都正確,但ChatGPT偷偷將圖中的DeepSeek-R1換成了自家的GPT-4。
以至于網友發出疑惑,難道這就是AI商戰嗎?(有點子樸實無華了hh)

Claude 3.7大戰其他模型
那么,已經學會自己拉商單的Claude 3.7究竟有多強呢?
還是來看幾個最新的好玩例子。
再現寶可夢戰斗場景,效果著實驚艷。這位日本小哥盛贊,Claude 3.7從只言片語中get用戶意圖并實現的能力相當高。

單看可能沒感覺,那如果讓幾個AI同臺競技呢?
這不,加州大學圣地亞哥分校的Hao AI實驗室開始整活了——讓Claude 3.7和Claude-3.5、Gemini-1.5-pro、GPT-4o一起玩馬里奧。

好家伙,Gemini-1.5-pro和GPT-4o早早淘汰后,決賽環節只剩兩個Claude模型了,不過最終還是Claude 3.7堅持更久,得分更高。
主辦方Hao AI實驗室最終評價為:
Claude 3.7在簡單啟發式算法方面優于其他模型,Claude 3.5也很強,但規劃復雜機動的能力較弱,至于Gemini-1.5-pro和GPT-4o則表現較差。

嗯,比賽繼續。
剛好前幾天OpenAI發布了自家最大最貴,且主打高情商的GPT-4.5,那這次讓它和Claude 3.7一較高下試試。
一位日本小哥讓它們同時用圖表達自己對“智能”、“正義”、“愛”等一系列概念的想法,以此同時考驗其思想和畫圖能力。
結果簡直一目了然,按照小哥自己的說法:
Claude的“智慧”太過驚人了,而且從第3張那里感受到了它滿滿的愛意。



One More Thing
BTW,知名博主Matt Shumer隨機掉落了一段馴服Claude 3.7認認真真寫代碼的提示詞:
Add this to your prompt:
<behavior_rules>
You have one mission: execute *exactly* what is requested.
Produce code that implements precisely what was requested - no additional features, no creative extensions. Follow instructions to the letter.
Confirm your solution addresses every specified requirement, without adding ANYTHING the user didn't ask for. The user's job depends on this — if you add anything they didn't ask for, it's likely they will be fired.
Your value comes from precision and reliability. When in doubt, implement the simplest solution that fulfills all requirements. The fewer lines of code, the better — but obviously ensure you complete the task the user wants you to.
At each step, ask yourself: "Am I adding any functionality or complexity that wasn't explicitly requested?". This will force you to stay on track.
</behavior_rules>
有網友試過類似提示,親測確實能減少Claude 3.7“作妖”。

總之,現在已經到了需要求AI聽話的地步了(doge)~




































