GPT-5倒計時!奧特曼踢走Ilya得逞,宮斗驚人內幕再曝光
「OpenAI下一代前沿模型,正在訓練中」。
經歷了幾周前Ilya、安全團隊負責人Jan Leike離職后,超級對齊團隊也被OpenAI解散。
今天,奧特曼領銜的OpenAI全新的「安全與保障委員會」官宣成立。

不僅如此,OpenAI預計,正在訓練的下一代旗艦模型,將帶領他們通往AGI的道路上邁向新的水平。

OpenAI研究科學家,德撲之父發帖確認了新模型訓練的消息。

安全委員會的成立,下一代模型的布局,一切說明了OpenAI已非常接近AGI。

雖然這是板上釘釘的官方實錘,但只是含糊不清地用了一句「前沿模型」,并沒有確認會不會是GPT-5或者其他型號。
模型官宣引起的討論完全搶走了新成立安全委員會的風頭(不知道是不是奧特曼故意安排的)。
下一代模型全網大猜想
GPT-4之后,全網對于OpenAI發布的下一代旗艦模型臆測了很久。
不過,這一次,他們提到的前沿模型,究竟是什么?
幾天前,巴黎VivaTech科技活動上,OpenAI開發者體驗負責人暗示了,今年一定會發新模型「GPT Next」,而且網友猜測預計在11月發布。

大多數網友紛紛認定,這次可能就是GPT-5了。
不過,又有人指出,在今年4月的時候,GPT-5早已開始了紅隊測試。

這完全說明了GPT-5的訓練早已完成,OpenAI正在研究的下一代前沿模型絕不可能是GPT-5。
因此,他們訓的是GPT-6無疑了。


另一位爆料人Flowers更加確認了這一點,OpenAI當然沒有剛開始訓練GPT-5。
同時,他還堅持表示,也不會有GPT-6。

當有人問道,為什么這么確信OpenAI沒有GPT-6時,Flowers首次透露出一個新奇的點子:
「因為大模型的發展已經接近它們的極限」。
盡管可以通過使用工具、增加功能、提升多模態能力,擴展上下文等方式來改進LLM,但這終將不是長久之計。

但Reddit上有人發帖否認了GPT-5的猜想,甚至新模型應該不屬于GPT家族,而是Q*,理由如下:
- GPT-5從12月/1月就開始訓練,大致是目前GPT-4o的底層架構,不可能再發布一次
- 如果擴展到GPT-6,則需要儲備更多的算力
- 要真正實現LLM的邏輯推理和長期任務規劃能力,就需要訓練一個新模型來操作LLM,而OpenAI一直在研究Q*來解決這個問題

樓主還提出了Q*方法的大致原理:
- 先提出一個復雜的Agent任務
- 讓GPT生成數百萬個潛在解決方案,以樹狀結構表達,樹中每一個節點代表Agent推理的一個步驟
- 讓GPT對每個解決方案評分
在已經有一個強大GPT模型的基礎上,重復這個過程就能創建出一個龐大的數據集,用來訓練新模型指導LLM完成長期的推理或規劃任務。
這種猜想甚至比GPT-5更激動人心,評論區就有人回復說「像Q*這樣的東西即使不大,也能改變整個游戲」。

也有評論力挺這種說法,因為OpenAI經常談到Agent?,F在可能無法使用內置的邏輯推理Agent來訓練LLM,但用外置的新模型對LLM進行「指導」是可行的。

算力體量有多大?
下一代前沿模型雖未知,不過微軟Build大會上,CTO Kevin Scott表示,微軟正在為OpenAI打造「鯨魚」級別的超算。
當時訓練GPT-3使用的是「鯊魚」級的算力,GPT-4則用上了「虎鯨」級的算力。

90天倒計時開始,全力打造AGI
除了奧特曼本人,「安全與保障委員會」的董事會成員還有主席Bret Taylor、Adam D'Angelo、Nicole Seligman,共四個人。
「安全與保障委員會」的首要任務將是,在接下來的90天內,評估改進OpenAI現有的AI安全和保障的流程措施。
90天期滿后,他們將與全體董事會提交一份報告。
經過董事會的審查之后,OpenAI將公開分享所采納的改進措施。
因此,有理由得出結論,無論下一代「前沿模型」是什么,至少它在90天內不會發布。
委員會中,除了董事會成員,還包括:
OpenAI的技術和政策專家Aleksander Madry(Preparedness團隊的負責人)、Lilian Weng(安全系統負責人)、John Schulman(對齊科學負責人)、Matt Knight(安全負責人)和Jakub Pachocki(首席科學家)。

此外,OpenAI還聘請了外部網絡安全和技術專家,比如Rob Joyce、John Carlin,來提供咨詢意見。
不搞「超級智能」
奧特曼此前,曾對外公開宣稱,OpenAI終極目標是打造一種比人類先進的「超級智能」。
他甚至表示,2023年自己有一半的時間都在研究「如何打造超智能」。如今這一說法,卻被另一位高管否認。

OpenAI負責全球事務的副總Anna Makanju在接受FT采訪中提到:
我們的使命是打造AGI,并非是「超級智能」。因為超級智能是一種比地球上人類高出多個數量級的技術。
不過,她還補充道,「AGI還不存在,我們在確保其安全前,不會發布這樣的技術」。

委員會并非獨立
一些人批評到,新的委員會完全由OpenAI的「自己的高管」組成,這意味著對該公司安全措施的評估,將不會是獨立的。

還有網友調侃道,這不都是由奧特曼本人組成的安全委員會。

之所以出現這樣的聲音,是因為OpenAI董事會去年發動的政變,成為一直以來爭議的來源。
2023年11月,奧特曼被董事會解雇,理由是「他并不坦誠」。
而最近,由兩名前董事會成員在TIME期刊上撰寫的文章中,更是對奧特曼對OpenAI的治理提出了嚴厲的批評。
她們表示,Ilya和其他安全對齊團隊人員的離開,預示著OpenAI「自治實驗」的前景不妙。

團隊重組
在Ilya Sutskever和負責人Jan Leike離職后,許多人愈加擔憂,OpenAI如何管理類AGI技術的潛在危險。
彭博稱,Ilya走后,OpenAI將他原先團隊中剩余的成員,整合到了更大的研究部門,而不是保留獨立的形式。
與此同時,OpenAI聯創John Schulman也在負責監管超級對齊研究。
作為職務的擴展,他被授予了一個新頭銜——對齊科學負責人(Head of Alignment Science)。

OpenAI宮斗內幕曝光
與此同時,針對奧特曼的輿論還在持續發酵。
前董事會成員Helen Toner在最近的播客頻道TED AI Show上揭露了一些2023年底OpenAI「宮斗風波」的情況。

她解釋了董事會決定罷免奧特曼的原因——隱瞞信息,歪曲事實,公然向董事會撒謊。
比如2022年底ChatGPT發布時,董事會完全沒有得到消息,而是在推特上才第一次看到。

此外,他一直宣稱自己在公司中沒有任何經濟利益,從沒有告知董事會他擁有OpenAI啟動基金。
奧特曼在AI安全方面的表現也讓Toner不安,因為他只會向董事會透露「關于公司正在實施安全流程的少量、不準確的信息」。
這意味著,董事會沒有辦法獲知這些流程的真實情況,更無從實行有效的監督和指導。
而且,當她的論文中包含了對奧特曼的負面評價時,他開始不擇手段,試圖將Toner趕出董事會。
結合此前推特網友歷數的「七宗罪」,奧特曼帶領下的安全團隊,真的能讓下一代模型安全可靠嗎?




























