科學能力太強,這個多模態(tài)推理「六邊形戰(zhàn)士」被嚴重低估!Intern-S1開源登頂
在人聲鼎沸的WAIC 2025上,一款堪稱「全能高手+科學明星」合體的大模型,由于在科學方面太優(yōu)秀,反倒顯得低調——但它的能力卻無法被忽視。
它能精準解析分子結構、看懂地震波圖、推演化學反應路徑……
7月26日,上海人工智能實驗室(上海AI實驗室)發(fā)布并開源「書生」科學多模態(tài)大模型Intern-S1。
它不僅多模態(tài)能力全球開源第一,文本能力比肩國內外一流模型,科學能力全模態(tài)達到國際領先。
而且,作為融合科學專業(yè)能力的基礎模型,其綜合性能更是當前開源模型的最優(yōu)。
- 在同一模型內,Intern-S1實現了語言和多模態(tài)性能的高水平均衡發(fā)展,具備「全能高手」的實力;
- 作為「科學明星」,Intern-S1富集了多學科專業(yè)知識,并重點強化了科學能力,在化學、材料、地球等多學科專業(yè)任務基準上超越了頂尖閉源模型Grok-4;
- Intern-S1開創(chuàng)了「多任務的通專融合」的新范式,支持大規(guī)模多任務強化學習齊頭并進,在保持能力全面的同時實現專業(yè)精通。
相比之下,傳統(tǒng)的單一模態(tài)分析在科學發(fā)現過程中往往難以全面捕捉復雜現象,尤其是在跨學科領域的深度探索中更加顯著。

Intern-S1體驗頁面:
https://chat.intern-ai.org.cn/(點擊文末閱讀原文直達)
GitHub鏈接:
https://github.com/InternLM
HuggingFace鏈接:
https://huggingface.co/internlm/Intern-S1-FP8
ModelScope鏈接:
https://modelscope.cn/models/Shanghai_AI_Laboratory/Intern-S1
開源科學多模態(tài)
性能領先,重構科研生產力
Intern-S1以輕量化訓練成本,達成科學/通用雙維度性能突破。
在綜合多模態(tài)通用能力評估上,Intern-S1得分比肩國內外一流模型,展現跨文本、圖像的全面理解力。該評估為多項通用任務評測基準均分,證明其多場景任務中的魯棒性與適應性,無懼復雜輸入組合挑戰(zhàn)。
在多個領域專業(yè)評測集組成的科學能力評測中,Intern-S1領先Grok-4等最新閉源模型。評測覆蓋了物理、化學、材料、生物等領域的復雜專業(yè)任務,驗證了模型在科研場景的強邏輯性與準確性,樹立行業(yè)新標桿。


當大模型在聊天、繪畫、代碼生成等場景中持續(xù)取得突破時,科研領域卻仍在期待一個真正「懂科學」的AI伙伴。
盡管當前主流模型在自然語言處理、圖像識別等方面表現出色,但在面對復雜、精細且高度專業(yè)化的科研任務時,依然存在明顯短板。
一方面,現有開源模型普遍缺乏對復雜科學數據的深度理解,難以滿足科研場景對精度、專業(yè)性和推理能力的嚴苛要求。
另一方面,性能更強的閉源模型存在部署門檻高、可控性弱等問題,導致科研工作者在實際應用中常面臨高成本、低透明的現實挑戰(zhàn)。
在2025世界人工智能大會(WAIC 2025)科學前沿全體會議上,上海AI實驗室發(fā)布了『書生』科學多模態(tài)大模型Intern-S1。
模型首創(chuàng)「跨模態(tài)科學解析引擎」,可精準解讀化學分子式、蛋白質結構、地震波信號等多種復雜科學模態(tài)數據,并具備多項前沿科研能力,如預測化合物合成路徑,判斷化學反應可行性,識別地震波事件等,真正讓 AI 從「對話助手」進化為「科研搭檔」,助力全面重構科研生產力。
得益于強大的科學解析能力,Intern-S1在化學、材料、地球等多學科專業(yè)任務基準上超越了頂尖閉源模型Grok-4,展現出卓越的科學推理與理解能力。
在多模態(tài)綜合能力方面,Intern-S1同樣表現亮眼,全面領先InternVL3、Qwen2.5-VL等主流開源模型,堪稱「全能高手」中的「科學明星」。
基于Intern-S1強大的跨模態(tài)生物信息感知與整合能力,上海AI實驗室聯合臨港實驗室、上海交通大學、復旦大學、MIT等研究機構協同攻關,共同參與構建了多智能體虛擬疾病學家系統(tǒng)——「元生」(OriGene),可用于靶標發(fā)現與臨床轉化價值評估,已在肝癌和結直腸癌治療領域上分別提出新靶點GPR160和ARG2,且經真實臨床樣本和動物實驗驗證,形成科學閉環(huán)。
體系化的技術創(chuàng)新為Intern-S1的能力突破提供了有效支撐。自書生大模型首次發(fā)布以來,上海AI實驗室已逐步構建起豐富的書生大模型家族,包括大語言模型書生·浦語InternLM、多模態(tài)模型書生·萬象InternVL、強推理模型書生·思客 InternThinker等。
Intern-S1融合了『書生』大模型家族的優(yōu)勢,在同一模型內實現了語言和多模態(tài)性能的高水平均衡發(fā)展,成為新一代開源多模態(tài)大模型標桿。
Intern-S1在國際開源社區(qū)引發(fā)了關注,不少開發(fā)者紛紛為其點贊,并稱「幾乎每天都能看到來自中國的新開源SOTA成果——紀錄每天都在被刷新。」


上下滑動查看
創(chuàng)新科學多模態(tài)架構讓數據深度融合
受數據異構性壁壘、專業(yè)語義理解瓶頸等因素制約,傳統(tǒng)的通用大模型在處理科學模態(tài)數據時面臨顯著挑戰(zhàn)。
為了更好地適應科學數據,Intern-S1新增了動態(tài)Tokenizer和時序信號編碼器,可支持多種復雜科學模態(tài)數據,實現了材料科學與化學分子式、生物制藥領域的蛋白質序列、天文巡天中的光變曲線、天體碰撞產生的引力波信號、地震臺網記錄的地震波形等多種科學模態(tài)的深度融合。
通過架構創(chuàng)新,Intern-S1還實現了對科學模態(tài)數據的深入理解與高效處理,例如,其對化學分子式的壓縮率相比DeepSeek-R1提升70%以上;在一系列基于科學模態(tài)的專業(yè)任務上消耗的算力更少,同時性能表現更優(yōu)。

「通專融合」讓單模型搞定多項專業(yè)任務
科學領域的高價值任務往往高度專業(yè)化,不僅模型輸出可讀性差,且不同任務在技能要求與思維方式上差異顯著,直接混合訓練面臨此消彼長的困境,難以實現能力的深度融合。
為此,研究團隊提出通專融合的科學數據合成方法:一方面利用海量通用科學數據拓展模型的知識面,另一方面訓練眾多專業(yè)模型生成具有高可讀性、思維路徑清晰的科學數據,并由領域定制的專業(yè)驗證智能體進行數據質量控制。
最終,這一閉環(huán)機制持續(xù)反哺基座模型,使其同時具備強大的通用推理能力與多項頂尖的專業(yè)能力,真正實現一個模型解決多項專業(yè)任務的的科學智能突破。

聯合優(yōu)化系統(tǒng)+算法,成本直降10倍
當前,強化學習逐漸成為大模型后訓練的核心,但面臨系統(tǒng)復雜度和穩(wěn)定性的重重挑戰(zhàn)。得益于訓練系統(tǒng)與算法層面的協同突破,Intern-S1研發(fā)團隊成功實現了大型多模態(tài)MoE模型在FP8精度下的高效穩(wěn)定強化學習訓練,其強化學習訓練成本相比近期公開的MoE模型降低10倍。
在系統(tǒng)層面,Intern-S1研究團隊采用了訓推分離的RL方案,通過自研推理引擎進行FP8高效率大規(guī)模異步推理,利用數據并行均衡策略緩解長思維鏈解碼時的長尾現象;在訓練過程中同樣采用分塊式FP8訓練,大大提升訓練效率。后續(xù),訓練系統(tǒng)也將開源。
在算法層面,基于Intern·BootCamp構建的大規(guī)模多任務交互環(huán)境,研究團隊提出Mixture of Rewards混合獎勵學習算法,融合多種獎勵和反饋信號,在易驗證的任務上采用RLVR訓練范式,通過規(guī)則、驗證器或者交互環(huán)境提供獎勵信號;在難驗證的任務上(如,對話和寫作任務)采用獎勵模型提供的獎勵信號進行聯合訓練。
同時,訓練算法還集成了上海AI實驗室在大模型強化學習訓練策略上的多項研究成果,實現了訓練效率和穩(wěn)定性的顯著提升。

工具鏈全體系免費開源
打造更懂科學的AI助手
書生大模型自2023年正式開源以來,已陸續(xù)迭代升級多個版本,并持續(xù)降低大模型應用及研究門檻。
書生大模型首創(chuàng)并開源了面向大模型研發(fā)與應用的全鏈路開源工具體系,覆蓋數據處理、預訓練、微調、部署、評測與應用等關鍵環(huán)節(jié),包含低成本微調框架XTuner、部署推理框架LMDeploy、評測框架OpenCompass、高效文檔解析工具MinerU,以及思索式AI搜索應用MindSearch等在內的核心工具全面開源,已形成涵蓋數十萬開發(fā)者參與的活躍開源社區(qū)。
近期,上海AI實驗室進一步開源了多智能體框架Intern·Agent,可廣泛應用于化學、物理、生物等領域的12種科研任務,在大幅提升科研效率的同時,亦初步展現出多智能體系統(tǒng)自主學習、持續(xù)進化的潛力,為人工智能自主完成算法設計、科學發(fā)現等高端科研任務開辟了全新探索路徑。
基于Intern-S1的『書生』科學發(fā)現平臺Intern-Discovery亦于近日上線,助力研究者、研究工具、研究對象三者能力全面提升、協同演進,驅動科學研究從團隊單點探索邁向科學發(fā)現Scaling Law階段。
未來,在研究范式創(chuàng)新及模型能力提升的基礎上,上海AI實驗室將推進Intern-S1及其全鏈條工具體系持續(xù)開源,支持免費商用,同時提供線上開放服務,與各界共同擁抱更廣闊的開源生態(tài),攜手打造更懂科學的AI助手。

Intern-S1實測
借助強大的多模態(tài)及科學能力,Intern-S1面對科學問題時得心應手。下方案例,展示了Intern-S1快速、準確識別圖中反應物的化學式。

Q:從左到右,給出圖中反應物的化學式
Intern-S1: 左邊反應物是順式-2,5-二甲基哌嗪,化學式為C?H??N?;右邊是對碘溴苯,化學式為C?H?BrI
作為對比,Grok的答案:C5H11N, C6H4BrI(回答錯誤)
Intern-S1思考過程如下:

面對藝術作品時,Intern-S1還能以科學的邏輯和知識體系對藝術畫作進行理性賞析,以科學的方式「讀懂」藝術。
圖片
































