GPT6會帶來科學革命!奧特曼曝最新AI全景設想:寫出滿分詩歌,房價、看病費會下降,普通本科大學回報率下降 原創
編輯 | 聽雨
出品 | 51CTO技術棧(微信號:blog51cto)
最近OpenAI進行資本重組、與微軟的關系翻開新的篇章,OpenAI CEO 山姆·奧特曼和馬斯克、伊利亞三人的宮斗大劇也鬧得沸沸揚揚,整個AI圈日日鑼鼓喧天,每天都有新瓜吃。
在這節骨眼上,小編也刷到了最新披露的一期經濟學家Tyler Cowen與山姆·奧特曼的訪談。這期訪談錄制于10月17日的Progress Conference(進步大會),也在 OpenAI 資本重組的新聞公布之前。
在這期節目中,奧特曼深度分享了他對未來 AI 的全景設想,包括他如何管理 OpenAI 的爆炸式增長、在招聘硬件人才方面學到的經驗、他們距離用 AI 驅動的 Slack 替代品還有多遠、GPT-6 可能為科學研究帶來哪些突破、何時會出現主要由 AI 運行的公司部門、他在招聘中如何評估一個人對 AI 的“抗性”、OpenAI 如何思考商業化、GPT-6 是否能寫出優秀的詩歌、為什么能源是芯片制造的關鍵瓶頸以及未來能源將來自何處、他重振圣路易斯的新計劃、為何他并不擔心“普通人”學習使用 AI、他對醫療和住房價格的預期、他對言論自由的最新看法,包括他曾向達賴喇嘛提出的關于超級智能的問題等等。
圖片
省流版觀點總結:
1、未來幾年內可能出現兩三個人加上 AI 一起運行的十億美元級公司
2、GPT-6 可能在科學研究上實現真正飛躍,科研機構和公司需要提前思考如何整合 AI
3、GPT在做電商功能,未來可能推廣到旅游領域
4、GPT-6能寫出滿分的詩歌
5、算力瓶頸在于電子,未來主導地位將屬于核聚變和太陽能
6、OpenAI的目標是是發明一種全新的計算設備,一種為 AI 重新設計的人機界面
7、AI會讓普通大學本科的回報率下降,住房和醫療成本也會下降
8、奧特曼強調成人用戶的自主權和心理健康保護
小編為大家整理了整期播客的精華內容,信息量巨大,建議收藏細讀,enjoy!
如何管理 OpenAI 的爆炸式增長
科文:你好,Sam。很高興再次和你對話。
奧特曼:很興奮能再次參加。
科文: 過去這兩個月,OpenAI 牽涉了很多交易——我還不是指你那種“環球奔波”的項目——很多其實是本地的,或者是像 Pulse 這樣的新產品功能。你原本就已經很高產了,那你是怎么做到進一步提升效率,把這些事都完成的?
奧特曼:我覺得沒有什么單一秘訣,但我認為人們幾乎總是高估了自己對時間的分配能力。當你面對更多需求和機會時,你會自然找到更高效的方式去應對。我們能夠招聘和提拔非常出色的人才,而我把大量任務委派給他們,讓他們承擔起更多責任。這是我所知道的唯一可持續的做法。
我確實會努力確保——隨著我們要做的事情越來越清晰,尤其是現在正如你提到的,有大量基礎設施需要建設——我會盡量弄清楚我們最核心的任務是什么。從某種意義上說,這個過程讓事情變得更簡單了,我們需要做的事情非常明確,這對我很有幫助。老實說,我也不太確定,還有一個變化是,現在世界上更多的人想和我們合作,所以談判的速度也快了許多。
OpenAI會招聘怎樣的硬件人才
科文:你們現在在做更多與硬件相關,或者與硬件緊密相連的項目。招聘或管理一個優秀的硬件人才,與招聘優秀的 AI 人才——也就是你最初做的事情——有什么不同?
奧特曼: 你是指消費設備還是芯片?
科文: 兩者都算。
奧特曼: 不同之處之一在于,硬件的開發周期要長得多,資本投入也更密集,試錯成本更高。所以我會花更多時間去了解這些人,在說“好吧,這個項目就交給你,我相信它會成功”之前,會謹慎很多。除此之外,原理其實是一樣的:你要找到那些聰明、高效、行動迅速的人。明確目標之后,讓他們自己去執行。
科文: 我今年早些時候去參觀了英偉達。那兒的人非常棒,也對我很好,他們超級聰明,但整體感覺和走進 OpenAI 辦公室完全不同。我相信你也去過英偉達。那里的員工上 Twitter 較少,表面上看起來也沒那么“古怪”。在硬件世界里,有什么那種無形的“氣質差異”,是你必須理解才能做好的嗎?
奧特曼: 嗯,我不確定這是不是個好兆頭,但我們的芯片團隊更像 OpenAI 的研究團隊,而不像傳統的芯片公司。我覺得這也許會非常奏效。
科文: 所以你其實是在把之前的人才模型延伸到了硬件領域。
奧特曼: 我們確實在延伸它。有一定風險,但我們在這么做。
科文: Twitter 上有個人叫 roon,他現在挺有名。是什么讓你覺得他特別?
奧特曼: 他是個很有“橫向思維”的人。你可以從一個方向開始,突然跳到完全不同的地方,但邏輯上又能保持在同一條軌跡上——只是換了一個非常不同的語境。這種思維方式挺罕見的。他也很擅長用有趣又有啟發性的方式表達觀察,讓對話變得既有趣又有價值。我覺得他身上集合了很多通常不會出現在同一個人身上的能力。
科文:那這會影響你讓他做的事情嗎?比如,你看到他這一特質,就會想:“啊,roon 應該去做 X。”
奧特曼: 老實說,我很少真的去“安排”別人做什么。研究人員嘛,他們最終都會做自己想做的東西,這就是現實。
科文: 有人寫過一篇文章,說他在 OpenAI 工作期間幾乎從沒發過或收過電子郵件,大部分交流都是在 Slack 上完成的。為什么會這樣?在你看來,為什么郵件不好、Slack 對 OpenAI 卻合適?
奧特曼:我同意——電子郵件確實糟糕。但我也不確定 Slack 就“好”,我懷疑它其實也不怎么樣。只是要比電子郵件好,其實門檻并不高,而 Slack 的確比郵件好一點。我們同時進行著很多項目,節奏非常快,這是個高速運轉的組織。Slack 有一些優點,但也帶來煩惱——比如每天早上剛起床的第一個小時、睡前的最后一個小時,都被那堆 Slack 消息“炸”到頭大。我覺得那里面其實有很多“偽工作”。
我懷疑未來會出現一種全新的工具,去取代現在的辦公和生產力套件——包括文檔、幻燈片、郵件、Slack 等。這種新系統將是 AI 驅動版本的,不是那種你點錯地方,它就自動幫你生成整份文檔或亂七八糟總結線程的“外掛式 AI 功能”,而是真正意義上的:你的 AI 助理和我的 AI 助理會自動協作,把事情處理好,只在需要我們決策時才匯報上來。我覺得,現在終于快到了有人能做出這種產品的時刻。
科文: 那你們內部離這個目標有多遠?也許還不是全球產品,但至少能在 OpenAI 自己內部使用的那種?
奧特曼:離得還很遠。不過主要是因為我們還沒有真正嘗試去做,而不是因為模型的能力差距太大。
科文:既然在你們公司里,人才和時間是如此寶貴的資源,為什么這件事不該是個優先級?
奧特曼:可能確實該是。但人總會被自己的工作方式“固化”住。而且現在很多事情進展順利,要啟動一個全新的重大項目,還是需要很高的“激活能量”。
GPT-6 可能會帶來科學革命
科文: GPT-6 對你來說,有什么特別之處?
奧特曼:如果說 GPT-3 是我們第一次看到“靈魂層面的圖靈測試”似乎被突破的那一刻,那么 GPT-5 就是第一次看到 AI 開始做出新的科學發現的曙光。這些例子現在還非常小——比如有人發帖說,“哦,它發現了這個東西”,或者“它提出了一個新想法”,又或者“它在論文中成了一個有用的合作者”。GPT-6 有可能會像 GPT-3 到 GPT-4 的那次跨越一樣,在科學領域實現類似的飛躍——GPT-5 只是零星閃現,而 GPT-6 可能會真正做到。
科文:假設我經營一家科學實驗室,并且我知道 GPT-6 即將發布。那我現在該做些什么來準備?
奧特曼:這是個很難的問題。即使你知道它要來了——如果你調整得太早……
科文:那就假設我現在就已經拿到了 GPT-6。第二天早上我該做什么?
奧特曼:我想你首先會把當前研究中最困擾你的問題輸入進去。也許它會說:“你可以試試這個想法”“運行這個實驗”“或者去做另一件事”。
科文:如果我想重組整個機構,讓 GPT-6、GPT-7 成為核心——而不是讓頂尖研究人員只是把它當作工具來用——那我在組織結構上應該做些什么?
奧特曼:我更多是從公司的角度想過這個問題,因為那是我更熟悉的領域。這確實是個重要問題。我已經見過一些組織在認真說:“好,我們要真正讓 AI 來負責這部分。”我對這個很感興趣——畢竟,如果 OpenAI 不是第一個由 AI CEO 管理的大公司,那我可就失職了,對吧?
科文:只是部分部門,不是整個公司吧?
奧特曼:不,我指的是整個公司。
科文: 那太雄心勃勃了。也許先從財務部之類的小部門開始?
奧特曼:當然,最終目標還是要覆蓋整個公司。我們可以從想象“AI CEO 如何比我更好地運營 OpenAI”開始,倒推看需要哪些條件才能實現、哪些障礙需要清除。這是一個非常有用的思想實驗——能幫助我們設計組織架構,思考未來哪些部分會成為瓶頸。我想科研實驗室也可以用類似的思路去思考,只不過得出結論會不一樣。
科文:你認為多久后,OpenAI 的某個部門(不是很小的那種)會有 85% 的工作由 AI 完成?
奧特曼:任何一個部門?
科文:對,一個有意義的部門。
奧特曼:我覺得是幾年之內,不是很遠的事。
科文:那你什么時候能說:“好了,AI CEO,交給你了”?
奧特曼:CEO 比較特殊,因為它的公共角色越來越重要。
科文:對,你需要在公眾面前露面。
奧特曼:如果我能假裝成一個政治家(雖然這不是我的強項),那 AI 也能做到。我可以繼續負責對外的那部分,而實際的決策、規劃、執行,都由 AI 完成。
科文: 我認為兩三年內就會出現由兩三個人加上 AI 一起運行的十億美元級公司。我原來以為一年內能看到,現在稍微推遲了一點。不是我對 AI 更悲觀,而是我對人類更悲觀。你怎么看?
奧特曼: 我同意這些判斷。我認為 AI 實際上能更早做到。而且我覺得這是社會的好事,是未來的好事,不是壞事。人們往往更信任人類而非 AI——即使這種信任是非理性的。AI 醫生可能更好,但你仍然想見“真人醫生”。社會和組織要真正適應這種變化,可能會花很久。但就實際決策而言,AI 在大多數事情上可能很快就會相當不錯。
科文: 你現在招聘很多聰明人。你會不會想:“這個人對 AI 的抵抗力強不強?”你有沒有一套隱含的“AI 抵抗測試”?還是只是招聰明人,然后聽天由命?
奧特曼: 不,我確實會問相關的問題。
科文: 但他們肯定會撒謊啊,他們知道自己在和 OpenAI 面試。那你實際上看重的是什么?
奧特曼: 我會看他們現在如何使用 AI。如果有人還說:“哦,我只是把它當作比谷歌更好的搜索工具”,這不一定是直接的淘汰信號,但至少是一個黃燈。而那些認真思考“自己三年后的工作日常會是什么樣”的人,是綠燈。很多人還沒有這種思維,他們只是說:“嗯,AI 以后會很聰明吧。”
科文: 科研機構今年會拿到 GPT-6 嗎?
奧特曼: 不會,今年還不會。
政府是否會為 AI 公司“兜底”
科文: 接下來是個很難的問題。你知道,我們倆都是核能的支持者——但我們也清楚,核電站的保險是由政府提供的。雖然這些電站可能非常安全,但人們依然會擔心,畢竟“神經質的擔憂者”總是存在,牽涉的利益方也很多。所以聯邦政府成了保險方。你是否擔心,AI 的未來也會變成這樣?也就是說,政府成了你們的保險人?你會如何應對這種情況?哪怕 AI 基本是安全的,就像核能一樣,人們還是會焦慮。那你打算如何“給一切上保險”?
奧特曼: 某種意義上,當一件事發展得足夠龐大時——無論它在紙面上是否如此——政府事實上都會成為最后的“保險人”。我們已經在各種金融危機和保險公司出問題的事件中看到過這種情況。從我對 AI 經濟影響的預期來看,我確實認為政府最終會成為這種意義上的“最后保險人”。但我說的“保險人”與您指的有點不同——我并不認為政府會像在核能領域那樣,真的去寫保險條款、承保風險。
科文: “最后保險人”(last resort)和“首要保險人”(first resort)之間可是有很大區別。最后兜底是不可避免的,但我擔心政府會變成“首要保險人”——那樣我可不希望看到。
奧特曼: 我也不希望那樣。我也不認為事情會發展成那樣。
科文: 我們現在看到,像英特爾、鋰電、稀土這些產業,政府都在成為股權持有者——不是“最后兜底”,而是“第二層”甚至“第三層”的參與者。我并不是在批評特朗普政府,我認為無論誰執政,這種趨勢都可能出現,或者在他卸任后繼續存在。那你在規劃 OpenAI 的未來時,如何看待這一現實?
奧特曼: 我覺得可以想象很多情形,但我幾乎不認為會出現那種“后 AGI 世界里,沒有任何人類的意義,因為 AI 已經包辦一切”的極端情景。我相信人類非常擅長找到新的事去做、新的游戲去玩、新的方式去互相幫助、競爭、實現自我價值。不過我確實認為,社會契約很可能要經歷重大改變。我不知道那會是什么樣子。政府在那種轉型中會更深地介入——從而對 AI 公司有更多意見和干預——這種情況我完全能想象。但我們不會以那種假設來生活。我們仍然盡量在當下的資本主義體系下運作。我認為,這種轉變應該主要由企業來完成,而不是政府。當然,我們會與政府合作,努力成為一個良好的協作伙伴。但我不希望他們來給我們寫保險單。
ChatGPT未來可能推出電商功能
科恩:我今年夏天和我妻子去了法國和西班牙旅行。除了第一晚之外,我們住的每家酒店都是通過 GPT-5 找到的。雖然我們不是通過 GPT 預訂的,但幾乎每一頓飯都是它推薦的。可你們一分錢都沒賺到。我對我妻子說,“這好像不太對勁吧?”那接下來這個新世界會是什么樣的?你們打算怎么做?
奧特曼:在回答前,先說一點背景。我們很早就注意到一個現象——用戶持續報告說,ChatGPT 是他們最信任的大型科技產品之一。雖然我們并不太把自己當作一家“大科技公司”,但我想我們現在的確是了。
這其實挺反常的,因為 AI 是會“幻覺”的、會出錯的,而那個時候這些問題還更嚴重。問題是,為什么人們仍然信任它?比如 Google 搜索的廣告模式,就依賴于搜索結果“不夠好”——如果 Google 給出了最好的答案,就沒有人需要買廣告位放在上面了。這說明廣告系統本身和用戶利益并不完全一致。
ChatGPT 不一樣。也許它沒給出最好的答案,但至少你(希望)在為它付費,它在盡力幫你。結果是,用戶和 ChatGPT 建立了一種深層、穩定的信任關系。你問 ChatGPT 哪家酒店最好,而不是去問 Google。如果 ChatGPT 收錢來把一個更差的酒店排在更好的前面,那對這種信任關系來說,幾乎是災難性的。
另一方面,如果 ChatGPT 告訴你它推測的最佳酒店——沒有任何金錢干預——但當你點擊預訂時,它像任何其他平臺一樣收取一筆標準的交易費用,那就沒問題。這正是我們最近做的“電商功能”的核心理念。旅行領域,我們未來也會做類似的事情。
科恩:我倒不擔心“收買”問題,但我擔心的是,未來傭金可能被壓得很低。比如,在一個由智能代理主導的世界里,用戶通過 GPT-7 找到最佳酒店,但他們可以讓電腦或語音助手轉而去一個更“笨”的代理那里預訂,只需支付很少的手續費。那 OpenAI 最后只能拿到最低傭金。
奧特曼:我認為總體趨勢是幾乎所有商品和服務的利潤率都會顯著下降,包括酒店預訂。這對我來說是件好事。現在的經濟中有太多“稅負式”的中間環節,能減少這些成本是有利的。我相信,像 OpenAI 這樣的公司,未來會在更低的利潤率下賺到更多的錢。
科恩:但你不擔心一個問題嗎?你們花巨資做出最聰明的模型,而那些低智商的代理只需執行簡單任務就能賺傭金。那你們怎么靠這些傭金繼續資助研發,讓模型變得更聰明?
奧特曼:靠酒店預訂顯然不是讓“全球最聰明模型”盈利的方式。
科恩:但你還是想做這件事?
奧特曼:不,我更想讓它去發現新的科學,去尋找只有最聰明的模型才能做到的盈利方式。很多人問過:“OpenAI 干嘛還做 ChatGPT?為什么不直接去構建 AGI,去發現所有疾病的療法、核聚變、廉價火箭這些東西,然后授權使用?”
這個問題并不無道理——我也認為那才是我們最終能創造最大價值的事情。但我對未來最可能的愿景是:我們把一個非常強大的超級智能交到每個人手中,讓它極易使用、融入生活。我們為它配備漂亮的硬件設備,連接到用戶所有的服務,它陪伴你一生,幫你處理各種事務。
我們會投資基礎設施、芯片、能源,讓這一切變得極度充裕和廉價。然后,全世界的人們會自己探索如何讓生活變得更好。也許有人一輩子只會用它訂酒店,但更多人會用它創造公司、藝術、科學與新思想。
所以,也許酒店預訂或其他功能不是最好的商業模式——事實上,我確信它不是。但這是一件對世界有益、值得做的事。即便它不是經濟回報最大的事,我也樂意讓 OpenAI 去做。
科恩:你們最近和沃爾瑪達成合作,用戶可以在 GPT 里問“我該在沃爾瑪買什么”,然后直接購買。那亞馬遜會不會也加入,還是會對抗?
奧特曼:我不知道。如果我是亞馬遜,我會反擊。
科恩:你會反擊?
奧特曼:是的,我想我會。
科恩:廣告呢?廣告會是 OpenAI 的主要收入來源嗎?
奧特曼:有一種廣告會非常糟糕——就像我們剛說的那種“收買式廣告”。但也有一些廣告形式其實可以接受。我預計我們會在某個階段嘗試廣告,但我不認為那是我們最大的營收機會。
科恩:那廣告在頁面上會是什么樣子?
奧特曼:我不知道。你之前問過我一個關于生產力的問題——我很擅長不做我不想做的事。
科恩:這件事你不想做?
奧特曼:我們現在有世界級的專家在負責產品策略。我以前花很多時間做產品,現在她比我強多了。我還有別的事要想。她會搞定的。
科恩:那你怎么看“AI 泡沫不是泡沫”的最佳論點?是不是因為算力需求無止境?
奧特曼:這個話題我可以舉很多例子,但我認為最有意思的論點是——我們根本不知道“超越人類智能”會帶來多大的增長空間,也不知道它能做什么。人們已經說了很多別的理由,但我最想看到的是,人們去認真思考:“我們該如何理解遠超人類智能的經濟影響?”
GPT-6能寫出滿分詩歌
科恩:OpenAI 現在正在與沙特、阿聯酋談合作。假設最樂觀的情況發生,一切都順利進行,那你覺得 OpenAI 高層最需要了解這些國家的是什么?你們又是如何去學習的?
奧特曼:這其實取決于我們要和他們做什么。比如在當地建設數據中心、接受投資、還是部署商業服務,這三種合作性質完全不同。但總體來說,如果我們要在一個國家建設數據中心,我們需要了解誰來運營它。我們自己并不直接運營數據中心,通常是微軟或甲骨文等合作伙伴。
我們還要決定:在那兒部署什么樣的任務?放哪些模型權重?安全保障如何?我們確實希望能在全球多個國家建設數據中心,而這也是我們與各國政府交流的主要議題。當然,如果有一天我們要為某個國家量身定制模型(目前沒有這樣的計劃),那就會涉及更多復雜問題。
科恩:他們的法律體系、交易文化都和美國不一樣——這不是壞事,只是差異巨大。那你怎么了解這些?你會像賈里德·庫什納那樣讀“25 本指定書單”?還是問 GPT-6?或者請三位專家來講?
奧特曼:我們會請專家來。
科恩:你們請專家來。
奧特曼:對。我們也會和美國政府溝通。比如,如果只是建設一個由可信合作伙伴運營的數據中心,任務明確、建設標準類似美國大使館或軍事基地——那是一套問題。但如果涉及其他類型的合作(目前還沒決定),我們會請更多專家參與。
科恩:可這些知識往往都是“無形的”,文化、語境、信任感。你覺得 GPT-6 能幫你學到這些嗎?還是仍然需要人類專家?你完全可以問你自己的模型啊。
奧特曼:我不認為 GPT-6 會真正掌握這些無形的東西。也許會有意外驚喜,但要我說——那會非常出乎意料。如果有一天我真的說“我們不需要人類專家了”,那才奇怪。
科恩:那你們有沒有針對這種“無形理解力”的評測?
奧特曼:實際上,有的。我們現在確實在做一個非常接近這個方向的評估項目,但我還不能提前公布。不過可以說,這一類能力的評估,我們確實在研究。
科恩:真的嗎?
奧特曼:是的。
科恩:那 GPT-6 在寫詩方面會進步多少?
奧特曼:那你覺得 GPT-5 的詩寫得怎么樣?
科恩:不太行。但我也不指望它寫詩。我猜一年后,你們可能能做出一個模型,它能寫出和巴勃羅·聶魯達中等水平作品差不多的詩,但還達不到他的巔峰之作。
奧特曼:我正想說這個。我不確定是 GPT-6 還是 GPT-7,但我認為我們很快就能做到——讀者會說:“這不是最頂級的詩,但確實是一位真正詩人的作品水準。”
科恩:我覺得從一首“7 分”的聶魯達詩到“10 分”的聶魯達詩,中間差距很大。我不確定你們能到 10 分。你們可能幾年后能做到 8.8 分。
奧特曼:我覺得我們能做到 10 分——但你不會在意。
科恩:我當然會在意!
奧特曼:你會在意技術上的成就,但不會在意那首“詩”本身。人類在面對藝術、情感和創造時,往往更在意“創作者是人”。即使 AI 寫出了一首在技術標準上完美的“10 分詩”,那種感受仍然不同。
我最喜歡拿國際象棋舉例:最頂尖的棋手并不會因為 AI 比他們強就不想下棋。那并不會打擊他們的熱情。他們真正在意的是——擊敗坐在對面的那個人。AI 再強,也不影響他們的執著。看兩個 AI 對弈?看一會兒就沒意思了。
科恩:我擔心的一點是:我們評估 AI 寫作時,都依賴某種“評分標準”。AI 會在這些標準下越來越好,但也許“10 分詩”的精髓,恰恰在于跳脫評分體系。如果訓練方式全是“按標準、按評分”,那可能反而不利于它達到真正的 10 分。
奧特曼:評測可以基于很多東西——包括“何時喚起那個 10 分狀態,何時不喚起”。
科恩:的確。
奧特曼:你可以在寫作過程中讀取大量中間信號,提供實時反饋。
科恩:但假設當下已經沒有人類詩人能寫出 10 分的詩了,那讓這些人來評判 GPT 的詩,也許不太行。我不覺得問題很大,但我認為那樣我們也就只能到 9 分。畢竟你們內部沒有“華茲華斯”級別的詩人。
奧特曼:這其實觸及一個很有意思的問題——也許 AI 自己寫不出 10 分的詩,但它能判斷哪一首是 10 分。那可能就已經足夠了。
科恩:也許人類判斷“什么是 10 分”,是一個群體共識的、帶有歷史感的過程——有點神秘,也不斷變化。
奧特曼:沒錯。但即便如此,我們依然能做到。也許這種判斷不是恒定的,會隨著時代變化;某些作品今天被視為偉大,下一代就不認同了。但無論如何,人類有一套“判斷詩歌偉大”的機制——而 AI 可以利用這種集體信號來學習。當然,如果你知道那是 AI 寫的,可能就不會那么在意了。這種現象我們在 AI 藝術中已經看到。
芯片難題與算力瓶頸
考文: 如果你們最終要自己造芯片,那這件事最難的部分是什么?
奧特曼: 哎呀,這事兒哪兒都難。
考文: 所以每一部分都很難。
奧特曼: 對,沒有哪一部分是容易的。
考文: 喬納森·羅斯(Jonathan Ross)說,最難的是“跟上最新的進展”。
奧特曼: 不,我來告訴你為什么難。人們經常討論 AI 研究中的“遞歸自我改進循環”:AI 能幫助研究者,比如現在就能更快寫代碼,將來可能能自動做研究——這是一個廣為討論的概念。但很少有人談到它在硬件層面的影響:機器人造機器人、數據中心建數據中心、芯片設計下一代芯片。這些都很難,但也許很多部分會變得更容易。也許“芯片設計”本身就是一種非常適合讓上一代芯片來解決的問題。
考文: 這是一個最蠢的問題——為什么我們不干脆多造點 GPU?
奧特曼: 因為我們得先造出更多的電子。
考文: 什么在阻礙這件事?真正的“瓶頸”是什么?
奧特曼: 我們正在非常努力地解決它。
考文: 如果你能擁有更多某一樣東西來換取更多算力,那會是什么?
奧特曼: 電子。
考文: 電子?就是說能量。那在短期內,最可能的緩解方案是什么?
奧特曼: 短期內,是天然氣。
考文: 緩解算力瓶頸,不是徹底解決,但能緩解。
奧特曼: 對,短期是天然氣。
考文: 在美國南部?
奧特曼: 或任何地方。長期來看,我認為主導地位將屬于核聚變和太陽能。比例我不確定,但這兩個肯定是贏家。
考文: 你仍然看好核聚變?
奧特曼: 非常看好,同時也看好太陽能。
考文: 你擔心過一個問題嗎——就算它真的可行,只要名字里帶“核”,人們也會抗拒?就像你之前提到的那種“非理性恐懼”。
奧特曼: 你是經濟學家,不是我。但我認為,當價格和安全性達到某個點時,市場需求會變得壓倒性。如果它和天然氣一樣貴,也許推廣起來仍然困難;但如果便宜十倍,我相信普及速度會非常快。只是我不知道那個“臨界點”具體在哪。
考文: 你有沒有擔心過這樣一種情況:最終“超級智能”其實不需要那么多算力?而在長期投資算力上,你反而是在“押注”一個不會發生的未來?
奧特曼: 有個類似的現象——就像只要能源更便宜,人類就總會想要更多能量一樣,我認為只要算力更便宜,人們也永遠會想要更多算力。即便未來能用更少算力造出更聰明的模型(我相信可以),人們仍然會希望以各種新方式消費智能、創造新東西、做更多事。我每天都愿意下這個賭。我真正擔心的,是我們可能會經歷計算方式的巨大“相變”——而我們所有人都在追逐一個死胡同式的范式。那就糟了。
考文: 那會是什么樣的情形?
奧特曼: 我也不確定。比如我們突然全面轉向光學計算(optical compute)之類的。
考文: 然后就得重新花一大筆錢?
奧特曼: 對。雖然能源部分還在,但其他所有東西都得重來。
考文: 我很喜歡 Pulse。為什么外界聽到的討論這么少?
奧特曼: 用戶很喜歡 Pulse,只是目前只對我們的 Pro 用戶開放,而那群人并不多。而且我們現在每天給的使用量也很有限。這兩個都會改變。我猜當我們把 Pulse 推到 Plus 用戶時,你就會聽到更多討論了。但現在已經收到了很多好評。
考文: 你自己用 Pulse 來干什么?
奧特曼: 我現在生活里只有兩件事:家人和工作。顯然,這也是我和 ChatGPT 聊得最多的內容。偶爾會看到點別的,比如“新超跑發布了”或“推薦的徒步路線”,但主要就是這兩類。而 Pulse 在這兩方面都特別好用。
關于健康、外星生命與陰謀論
考文: 我想插個題外話,了解一下你怎么看世界。加州人總對健康有很多看法,有些在我聽來挺離譜的。那你自己對健康最“離譜”的看法是什么?比如你覺得自己會永生?還是覺得“植物油是毒”?或者其實你并沒有?
奧特曼: 我以前沒這么忙的時候,確實在健康方面更自律一點。我倒也沒什么瘋狂的想法,就是吃得健康,不怎么喝酒,鍛煉挺多,也嘗試過一些東西。有一次我因為嘗試用司美格魯肽(semaglutide)(當時還沒流行)結果進了醫院。現在嘛,基本什么都不做了。
考文: 現在就過家庭生活。
奧特曼: 吃垃圾食品,鍛煉不夠,狀況挺糟的。最近都被“催促”著得重新認真對待健康了。
考文: 但為什么吃垃圾食品?那東西其實不好吃。
奧特曼: 其實挺好吃的。
考文: 可是比好壽司還好吃?你完全吃得起好壽司啊,甚至可以讓機器人送來。
奧特曼: 有時候深夜十一點半,你就是特別想吃塊巧克力曲奇。至少我是這樣。
考文: 哈哈,說得也是。那你覺得在土星的衛星上有沒有外星生命?我自己就這么認為——這是我少數“怪”觀點之一。
奧特曼: 我對此完全沒有看法。
考文: 完全沒有?
奧特曼: 我不知道。
考文: 這回答挺安全的。那你怎么看那些UAP(不明空中現象)?你覺得那是真有其事嗎?
奧特曼: 我覺得那里面確實有點東西。我不知道具體是什么。
考文: 所以你認為確實發生了什么。
奧特曼: 對,我覺得有某種現象,我想知道解釋是什么。但我很懷疑那是“小綠人”。我極度懷疑那是外星人。但我覺得有人知道點什么。
考文: 你信多少陰謀論?我自己在美國基本一個都不信。可能在巴基斯坦的軍事政變里陰謀論更接近事實,但在美國,大多數都不是真的。
奧特曼:你是指真正的“陰謀論”,而不是“不受歡迎的觀點”?
考文: 對。
奧特曼:我以前有件《X檔案》的T恤,上面寫著 “I want to believe”(“我想相信”)。高中時買的,現在還在。我天生有點想相信陰謀論,但實際上我信的幾乎是零。
考文: 我正好相反。我不想相信,而且確實也幾乎不信。也許只有那次“白襪隊操縱世界大賽”那種程度的吧。
奧特曼:對,那種我也不太算陰謀論。真正那種“全球政府掩蓋真相”的大陰謀,得要求人類具備一種我幾乎從不認為他們擁有的“超強組織能力”。
關于振興圣路易斯(St. Louis)
考文: 幾年前,在 GPT-4 還沒出來之前,我問過你:如果你要用一筆資金振興你老家圣路易斯,你會怎么投資?現在世界變了。如果我再問一次:給你十億美元(不算改變世界,但也夠多),你會怎么花?
奧特曼: 十億美元,而且我還可以親自投入時間?
考文: 對,你有無限空閑時間,不會影響你現在做的任何事。你全權負責。
奧特曼: 這可能不是個普適答案,但就我個人而言——我會嘗試在圣路易斯創辦一個類似 Y Combinator 的孵化器,吸引大量創業者(特別是專注于 AI 的)搬去那里創業。
考文: 這跟你上次的回答挺像。
奧特曼:是嗎?我不記得上次怎么說的——那說明這想法是真心的(笑)。
考文:上次你也這么說,只是沒提到 AI。可 AI 產業如今幾乎全集中在灣區,想把它帶去圣路易斯,聽上去像是“逆風操作”。
奧特曼: 所以我說這是“我個人能做”的事。也許聽上去很天真,但我覺得我能做到。
關于監管 AI 智能體
考文: 那應該允許人們隨意放出一個無人控制、無法追蹤的 AI 智能體到網上嗎?要不要另一個 AI 來追蹤、消滅它?或者設定某種“最低資本要求”?你怎么看這個問題?
奧特曼: 我認為關鍵是閾值問題(thresholds)。大多數系統根本不需要監管或法律干預。但如果某個代理有較大概率能自我復制、在互聯網上蔓延、甚至“洗劫銀行賬戶”,那你肯定得說:“這個需要監管。”關鍵就是——劃線劃在哪。
考文: 如果那個代理是在一個“半流氓國家”的云上運行,你無法直接關掉它,那該怎么辦?圍堵它?追蹤它?制裁那個國家?
奧特曼: 那我們現在對這些情況(比如網絡攻擊)是怎么做的?
考文: 很多網絡攻擊都來自朝鮮,但其實我們也無能為力。
奧特曼: 我不知道正確答案是什么,但我樸素的看法是:我們得緊急解決“人類用流氓互聯網資源作惡”的問題,因為AI 只會讓這類問題更糟。
考文: 而且它的防御能力還會更強。
奧特曼: 完全正確。
OpenAI的目標是發明一種全新的計算設備
考文: 我觀察到一個現象——我自己特別愛看 GPT-5 給我生成的答案,但別人把他們的回答發給我,我卻完全提不起興趣。這讓我對“AI + 社交媒體”的結合有點懷疑。你會勸我改變看法嗎?
奧特曼: 不會,我也有同樣的感覺。我也不想看你的 GPT-5 對話。
考文: 但對我自己來說,它們超級有用。
奧特曼: 我相信。而且你也不會想看我的。ChatGPT 是一種“單人體驗”。這不代表沒有全新的“社交產品”可以出現,我反而確信會有,但肯定不是“分享你的 GPT 對話記錄”這種。
考文: 比如視頻?或者你覺得會是什么形式?
奧特曼: 視頻類其實已經不錯。人們喜歡自己制作,也喜歡看別人做的 AI 視頻。但我覺得,這些都不是最有趣的形態。真正值得期待的,是當每個人都有能代表自己行動的個人 AI 智能體時,那時會誕生全新的社交動態。
考文: 那 ChatGPT 的“外形”呢?比如屏幕上的界面、輸入框、手機應用——這些會大體不變,只是功能更強?還是說十幾年后,根本變成一種全新的東西?
奧特曼: 我們的目標,是發明一種全新的計算設備,一種為 AI 重新設計的人機界面。AI 是一種徹底不同的計算范式,它讓過去五十年的電腦假設都值得重新思考。比如我們是否還需要操作系統?是否還需要打開窗口、發出查詢?這一切都在被重新定義。
我知道,說要“發明一種新電腦”的人,成功率歷史上極低。但如果要賭一個能做到的人,Jony Ive 是最靠譜的那一個。我們正嘗試看看能不能實現,我非常興奮。
考文:不過你不覺得很神奇嗎?這么多年過去,人們仍然最愛“在輸入框里打字”!大家還在發短信。這可能是最頑強的互聯網交互方式。也許它永遠不會變。這是不是說明我們自己的局限?要怎么突破?
奧特曼: 我其實很喜歡那種界面——文字、命令行、搜索框,那是我最愛的交互方式。
考文: 我也喜歡。也許我們就該一直用下去。
奧特曼:很多人確實喜歡打字。人們喜歡聊天,也喜歡 ChatGPT。當初設計 ChatGPT 的界面時,我就堅持要讓它簡單、熟悉。我在互聯網時代長大,一直相信這是“正確的互聯網形式”。打字對我來說,是青春期的全部。
AI會讓普通大學本科的回報率下降
科文: 假設你可以和一所高校達成理想的合作伙伴關系,時間在兩三年內,這個理想的合作模式會是什么樣?你可以完全自己設計。
奧特曼: 我懷疑整個模式都應該被重新設計,但我還不知道會變成什么樣。理想的合作方式,可能是我們同時做 20 種不同的實驗,看看哪種帶來最好的結果。我對那些新興的“AI 學校”很感興趣,它們的方法差異很大,但似乎都取得了一些正面結果。我想理想合作的頭幾年就是——做 20 個完全不同的實驗。
科文: 有時候我擔心這些機構自身的聲望或公信力不足,根本無法進行重大改革(更別提 AI 了)。所以與這些機構合作,也許本質上就是徒勞的。未來十年,真正的模式可能是教師、學生、實驗室私下使用 AI,沒有正式合作,只是你把產品賣給他們。你覺得這可能是真的嗎?
奧特曼: 有可能,而且如果事情真是那樣,我也不會太失望。
科文: 那么你認為普通大學學位(不是哈佛、斯坦福,而是不錯的州立大學)的回報率在未來五到十年會怎樣?
奧特曼: 過去十年的下降速度是多少?
科文: 最近在下降,但之前幾十年是在上漲的。
奧特曼: 是的,我指的也是過去十年。
科文: 對,確實在下降,只是不知道具體幅度。
奧特曼: 我猜接下來還會以略高于過去十年的速度下降,但不會像應有的那樣快地跌到零。
科文: 那么,除了學 AI,本科的回報率下降,哪些事情的回報會上升?比如打大學橄欖球?
奧特曼: 我不認為學 AI 這一小撮人會拿走所有紅利,但“高效使用 AI”的能力將會被更廣泛地分布。AI 最重要的作用之一是幫助人類發現新科學,很多人會因此受益,也會有人因此創業或找到新工作。我并不認為“AI 研發”會是唯一能賺錢的領域。
我認為人們會在各種行業中用 AI 創造新工作、或更好地完成原有工作。2025 年最鮮明的例子可能是:今年初和年底,硅谷程序員的日常工作方式完全不同。你不必懂 AI 編程,也能更高效地產出價值,而世界會因此誕生更多軟件。類似的變化會在許多行業出現。
科文: 五年后,一個普通人(不是專家)想學會更好地使用 AI,他該怎么做才能讓這項技能帶來高回報?
奧特曼: 學習如何具體使用 AI 嗎?
科文: 對,不是寫代碼,只是用它來提升工作。
奧特曼: 我笑是因為想起自己小時候 Google 剛出現時,我打工教年長的人怎么用 Google。我那時特別費解:你只要打幾個字,它就能搜到啊!我對 AI 抱有希望的原因之一是——ChatGPT 的學習曲線非常低。它很容易上手,而且能立刻帶來價值。
科文: 那我們不需要創業公司來教人怎么用 AI?
奧特曼: 你是指培訓類的創業公司?
科文: 對,比如“教你用 AI 的學校”。我很難相信傳統學校會承擔這個角色。
奧特曼: ChatGPT 每周活躍用戶已經占全球人口的 10%,而三年前它還不存在。我猜一年后,可能每周有 30% 的人會用它。一旦開始用,人們會自發學會更復雜的用法。這不是我特別擔心的問題。我相信人類的創造力和對新工具的適應力,只是需要幾年時間。
科文: 如果你看好 AI,你應該也看好那些教人使用 AI 的創業公司,投資它們也有助于你的主業。你不覺得我們應該有一種“人類如何學會用 AI”的清晰路徑嗎?畢竟現在有“訓狗學校”,教人怎么訓狗。
奧特曼: 好吧,也許我在這件事上確實有盲點。我會去認真想想。但如果你問 ChatGPT:“教我如何使用你”,它的回答其實已經挺不錯的。
科文: 所以也許你自己就是那所學校。
奧特曼: 也許吧。
科文: 當你的孩子長大成人、能獨立生活時,你覺得自己還會看書嗎?還是只和 AI 互動?
奧特曼: 書這種形式已經歷經多次技術革命仍然存在,說明它有某種深層的價值。書這種“沉浸式思維載體”有獨特魅力。不過,我猜未來會出現一種比書更好的“思想交互”形式。書不會消失,但它在學習新思想的方式中所占比例可能會下降。
科文: 那你覺得你生活中哪種文化習慣會被 AI 改變最多?比如“我不再看電影而是自己生成電影”之類的?
奧特曼: 這可能有點無聊,但我覺得是“工作方式”。我每天都在處理郵件、開會、寫文檔、看 Slack,這套節奏已經成了我的習慣。但我預計這部分會被徹底改變。而像陪伴家人、親近自然、吃飯、和朋友交流——這些事情在很長一段時間內都不會變。
AI會讓住房和醫療更便宜
科文: 你認為舊金山仍會是 AI 的中心嗎?撇開中國不談,只看西方世界。
奧特曼: 我認為那是默認情況。
科文: 你覺得這座城市真的在復蘇?我最近去感覺確實更好了。我是不是被幻覺欺騙了?
奧特曼:我非常喜歡舊金山,也喜歡整個灣區。也許我不夠客觀,因為我太希望它能復蘇、能繼續成為中心。我的答案是:我覺得會,我希望會,但我很有偏見。
科文:AI 能很快改善許多事,但它讓房租或房價下降的時間表似乎很遙遠。地是地,還有很多法規限制。
奧特曼:我本來想反駁“地就是地”這句話。不過確實有很多問題是 AI 暫時無能為力的。也許會出現奇怪的二級效應,比如住房變便宜,但那不會是 AI 直接帶來的結果。
科文:食品價格呢?
奧特曼:我押注它會下降。
科文: 短期內能源價格可能會上升。那多久后食品價格會下降?
奧特曼: 如果十年后還沒下降,我會很失望。
科文: 醫療呢?我覺得我們會在醫療上花更多錢,雖然能得到更多好處——比如活到 98 歲,但同時也會花得更多。房租不便宜,食物未必便宜,醫療卻更昂貴。人們會覺得 AI 是讓生活變貴的東西,還是讓生活變得更可負擔的東西?
奧特曼: 我賭醫療會更便宜。因為我們可能會治好許多疾病,或者找到極其低成本的療法。現在很多慢性病又貴又治不好。AI 能帶來更便宜、更有效的藥物、設備,甚至改變醫療服務的交付方式。
科文: 通過藥物、設備?
奧特曼: 對,通過藥物和設備,也通過優化醫療服務本身。住房問題在我看來是最難的,但其他類別的東西——尤其那些“地位型消費品”——反而會更貴。總體上,我認為醫療成本會下降一些。
成人用戶的自由和隱私
科文: 隨著各種新想法、專利法和版權法的出現,這些法律都是基于早期技術和當時對世界的假設。面對一個 AI 彌漫的世界,我們是否需要徹底重新審視或修改這些法律,還是只需要稍微調整即可?
奧特曼: 我真的不知道。
科文: 我本人非常支持言論自由,但我可以想象有人會說:“面對 AI 生成的大量內容,我們需要重新審視憲法第一修正案。”你怎么看?
奧特曼: 沒多想,我最近發了一條推特,說我們會在 ChatGPT 中允許更多的表達自由。
科文:就是那條著名的情色推文。真有趣,人們會因小事生氣。
奧特曼:是啊,人們被什么激怒很有趣。
科文:因為你只是在說,你不會阻止人們,對吧?
奧特曼:我們過去確實有限制——嗯,這不完全公平。現在我們會比以前更開放。我非常重視的一個原則是:我們應該把成人用戶當作成年人對待,并且保證他們與 AI 交互時有高度隱私保護——這還需要法律上的改變。同時,用戶應該有廣泛的使用自由。我認為大多數科技公司和美國政府的多數人都會同意這一點。
我隨手發了這條推特,沒想到會引發軒然大波。我們之前做了一個決定——為了保護青少年,我們在 ChatGPT 上實施了嚴格限制,同時推出了年齡分級和心理健康保護措施。現在,我們準備恢復,甚至在某些情況下增加成人用戶的使用自由。
我原以為這不會引起爭議,結果大錯特錯。我發現,也許人們并不像他們說的那樣相信言論自由。
科文:我的看法也是如此。
奧特曼:每個人都會想:“好吧,我自己的言論自由,我可以掌控,我需要它,我的想法沒問題,但你的——”
科文:關于更高隱私權,是需要修改傳票權限,還是還有其他東西?
奧特曼:傳票權限。我的觀點是:當你和 AI 醫生或 AI 律師交流時,應享有和與真人醫生、律師一樣的保護。
科文:現在我們還沒有這種保護。
奧特曼:對。
科文:你覺得今天美國人是否足夠信任 AI 公司,就像信任醫生、律師或心理醫生一樣?
奧特曼:從實際使用偏好來看,是的。
科文:很多人和 AI 交流,但有網友說“LLM 精神錯亂”是真事。到底有多嚴重?
奧特曼: 非常少,但不是零。我們之所以激怒大部分用戶,是因為設置了一些限制。“把成年人當作成年人對待”有個條件——“心理健康的成年人”。社會會對精神危機的成年人有不同處理方式。
如果把 ChatGPT 放入角色扮演模式、寫小說模式,鼓勵某些妄想思維,大部分成年人完全沒問題,但極少數人可能會受影響。我們因此做了一些調整,這些調整和言論自由政策有沖突。現在有了心理健康保護措施后,創作模式、角色扮演模式、寫作模式會再次允許部分內容。
我擔心的不是讓少數接近失衡的人出現精神崩潰,因為我們可以避免明顯風險。更讓我擔心的是另一類——傳播和說服。有人曾對我說:“永遠不要相信宣傳對你不起作用,它只是還沒找到對你有效的方式。”AI 可能會在全球范圍內影響人們的想法——不是有意的,但通過不斷學習和與世界互動,它會微妙地說服你某些觀點。雖然不如“聊天機器人精神錯亂”戲劇化,但我經常思考這個問題。
科文:也許是我能力不足,但作為教授,我覺得學生挺難被說服的。我比很多 AI 相關朋友少擔心這件事。
奧特曼: 希望你是對的。
奧特曼的終極問題
科文:最后一個公開問題,如果你能請專家幫你解決一個實質性問題,你希望解決什么?
奧特曼:我早就想好了這個問題——精神層面上的,不是字面上的。未來會出現超級智能,它經過安全測試、準備就緒,并且自我提升。它會做驚人的事情,比如發射星際探測器等。我們可以在啟動前輸入一個提示。問題是:你會輸入什么?
科文:你現在有初步答案嗎?
奧特曼:沒有。我想好了是因為有人問我:“如果見到達賴喇嘛,你可以問任何 AI 問題。”我覺得這是個絕佳機會,這就是我的問題。
科文:非常感謝你,薩姆·奧特曼。
奧特曼:謝謝你。
參考鏈接:??https://www.youtube.com/watch?v=cuSDy0Rmdks&t=121s??
本文轉載自??51CTO技術棧??,作者:聽雨

















