精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

只需要十分之一數(shù)據(jù),就能通關(guān)四大視覺任務(wù),居然還開源了!

人工智能 新聞
上海人工智能實(shí)驗(yàn)室聯(lián)合商湯科技、香港中文大學(xué)、上海交通大學(xué)發(fā)布通用視覺技術(shù)體系“書生”(INTERN),一套持續(xù)學(xué)習(xí)框架,用于系統(tǒng)化解決當(dāng)下人工智能視覺領(lǐng)域中存在的任務(wù)通用、場(chǎng)景泛化和數(shù)據(jù)效率等一系列瓶頸問題。

?Github鏈接:https://github.com/opengvlab

家人們,你們有沒有這種苦惱?

搬一次家就換一次家具,那些又貴又重的家具既不好搬運(yùn),又不好全部帶走。

下一次又重新購(gòu)置一遍家具,浪費(fèi)錢不說,關(guān)鍵是來來回回都做一樣的事情!家具還沒用過幾次,利用率不高呀!

這種搬家的苦惱,就好比AI領(lǐng)域,做幾個(gè)任務(wù)就需要開發(fā)幾個(gè)高度定制的模型,不僅所需的數(shù)據(jù)采集量非常大,每次還都得從頭標(biāo)注。既提不起數(shù)據(jù)的學(xué)習(xí)效率,又耗費(fèi)巨大的數(shù)據(jù)獲取成本。

光是AI前端研究就耗費(fèi)如此巨大的精力,更別提應(yīng)用場(chǎng)景中數(shù)以萬計(jì)的長(zhǎng)尾任務(wù)。

那怎么辦?

做一款通用的深度學(xué)習(xí)模型,才是關(guān)鍵。?

1 通用,才是技術(shù)根本

無論國(guó)內(nèi)外,底層技術(shù)關(guān)注者都以設(shè)計(jì)出“通用模型”為己任。而打造通用模型的兩個(gè)主戰(zhàn)場(chǎng),就是深度學(xué)習(xí)應(yīng)用最廣泛的兩個(gè)方向:語言與視覺。

目前,通用語言模型(GLM)已經(jīng)取得了令人矚目的進(jìn)展,比如BERT、T5和GPT-3,它們?cè)趹?yīng)對(duì)廣泛的語言下游任務(wù)時(shí)已經(jīng)游刃有余。

相形之下,通用視覺模型(GVM)的研究遲遲未交出一份令人滿意的答卷。

以往的大多數(shù) GVM 研究主要利用一種監(jiān)督信號(hào)來源,如 ViT-G/14 采用有標(biāo)簽監(jiān)督,SEER 采用樣本的不同增強(qiáng)之間的對(duì)比學(xué)習(xí),CLIP采用圖片文本對(duì)進(jìn)行監(jiān)督。如果是在單個(gè)監(jiān)督信號(hào)下進(jìn)行的預(yù)訓(xùn)練,這幾種范式確實(shí)能夠生成在固定場(chǎng)景下表現(xiàn)良好的模型。但如果用在場(chǎng)景多元、任務(wù)多樣的下游場(chǎng)景,這些模型就難以勝任了。

比如現(xiàn)在最火的自動(dòng)駕駛,汽車處于移動(dòng)狀態(tài),既要看到路況,又要看到紅綠燈,還要注意行人,甚至在智能座艙興起后,還要和語言技術(shù)、LBS場(chǎng)景服務(wù)協(xié)同,這么多的感知數(shù)據(jù)與協(xié)同任務(wù),這么多隨機(jī)的新任務(wù),無論在體量還是維度方面,都對(duì)視覺模型的要求極大提高。

這時(shí),打造一款通用視覺模型,降低研發(fā)門檻,尤其是學(xué)術(shù)界的時(shí)間成本、資金成本,才能暢享下游的極致場(chǎng)景體驗(yàn)。

去年11月,上海人工智能實(shí)驗(yàn)室聯(lián)合商湯科技、香港中文大學(xué)、上海交通大學(xué)發(fā)布通用視覺技術(shù)體系“書生”(INTERN),一套持續(xù)學(xué)習(xí)框架,用于系統(tǒng)化解決當(dāng)下人工智能視覺領(lǐng)域中存在的任務(wù)通用、場(chǎng)景泛化和數(shù)據(jù)效率等一系列瓶頸問題。

前不久,上海人工智能實(shí)驗(yàn)室聯(lián)合商湯科技發(fā)布通用視覺開源平臺(tái)OpenGVLab,面向?qū)W術(shù)界和產(chǎn)業(yè)界開放其超高效預(yù)訓(xùn)練模型、超大規(guī)模公開數(shù)據(jù)集,以及業(yè)內(nèi)首個(gè)針對(duì)通用視覺模型的評(píng)測(cè)基準(zhǔn)。

這些開源技術(shù),究竟有何魔力?

2 大力出奇跡,打造通用視覺模型

“書生” (INTERN),就是練就通用視覺能力的底層技術(shù)。

從技術(shù)實(shí)現(xiàn)上講,“書生”技術(shù)體系由由七大模塊組成,包括三個(gè)基礎(chǔ)設(shè)施模塊和四個(gè)訓(xùn)練階段構(gòu)成。

  • 三個(gè)基礎(chǔ)設(shè)施模塊分別為通用視覺數(shù)據(jù)系統(tǒng)(GV-D)、通用視覺網(wǎng)絡(luò)結(jié)構(gòu)(GV-A)、以及通用視覺評(píng)測(cè)基準(zhǔn)(GV-B);
  • 四個(gè)訓(xùn)練階段分別為:上游基礎(chǔ)模型訓(xùn)練(Amateur)、上游專家模型訓(xùn)練(Expert)、上游通才模型(Generalist)訓(xùn)練;以及下游的應(yīng)用訓(xùn)練(Downstream-Adaptation)。

書生(INTERN)結(jié)構(gòu)圖

首先,通用視覺數(shù)據(jù)系統(tǒng)。

這是一個(gè)超大規(guī)模的精標(biāo)數(shù)據(jù)集,擁有100億個(gè)樣本和各種監(jiān)督信號(hào),并依照四大視覺任務(wù)分別設(shè)置了四個(gè)數(shù)據(jù)子集:多模態(tài)數(shù)據(jù)GV-D- 10B分類標(biāo)注的GV-Dc-36M、檢測(cè)標(biāo)注的GV-Dd-3M、分割標(biāo)注的GV-Ds-143K。

另外,這一數(shù)據(jù)集還包含11.9萬的標(biāo)簽系統(tǒng),不僅涵蓋了自然界的眾多領(lǐng)域和目前計(jì)算機(jī)視覺研究中的幾乎所有標(biāo)簽,還擴(kuò)充了大量細(xì)粒度標(biāo)簽,涵蓋各類圖像中的屬性、狀態(tài)等。

而這,就是書生“大力出奇跡”的一大注腳。

其次,通用視覺模型結(jié)構(gòu)。

它是由一個(gè)具有CNN和Transformer的統(tǒng)一搜索空間構(gòu)建而成。

為何要建立這樣的混合結(jié)構(gòu)?要知道,多年來,卷積神經(jīng)網(wǎng)絡(luò)(CNN)一直主導(dǎo)著視覺表征學(xué)習(xí),并在圖像分類、目標(biāo)檢測(cè)和語義分割等下游任務(wù)中表現(xiàn)出穩(wěn)定的可遷移性。但最近幾年,Vision Transformer (ViT)僅使用普通的Transformer結(jié)構(gòu)就能作為圖像編碼模型在ImageNet-1k上取得媲美 CNN 的性能,在大規(guī)模數(shù)據(jù)集上 ViT 更是展示出比 CNN 更大的潛力。

盡管ViT在性能上有優(yōu)點(diǎn),但純Transformer網(wǎng)絡(luò)相比卷積神經(jīng)網(wǎng)絡(luò)缺乏某些歸納偏置(inductive biases),因此需要更多的數(shù)據(jù)和計(jì)算資源。此外,自注意的計(jì)算成本相對(duì)于輸入的數(shù)量是平方的,限制了對(duì)高輸入分辨率的應(yīng)用。因此,將CNN和Transformer和MLP結(jié)合起來,平衡效率和有效性兩個(gè)方面,才是模型通用的關(guān)鍵。

這種兼具更好的泛化能力和更高的模型容量的模型結(jié)構(gòu)名為MetaNet。在MetaNet網(wǎng)絡(luò)結(jié)構(gòu)族里面進(jìn)行網(wǎng)絡(luò)結(jié)構(gòu)搜索,從而得到最優(yōu)的一個(gè)模型訓(xùn)練結(jié)構(gòu)。

統(tǒng)一搜索的MetaNet架構(gòu):Conv和Trans分別表示卷積和Transformer。C和S為每一階輸出通道數(shù)和步幅。

具體來看,MetaNet不僅基于強(qiáng)化學(xué)習(xí) 的PPO算法提出了統(tǒng)一搜索架構(gòu),并且,為了避免傳統(tǒng)的下采樣模塊會(huì)成為模型性能的瓶頸,“書生“結(jié)合了包含 local-global-DSM (LG_DSM) 和 global-DSM (G-DSM)的context-aware down-sampling modules (DSM),用來代替原本的下采樣模塊。

因此,在淺層,模型依然使用卷積來提取特征,但在深層,模型卻能將Transformer模塊和LG-DSM結(jié)合使用,以便于更好地提取全局信息。

同時(shí),書生還基于最大的MetaNet-B15蒸餾出了多達(dá)13種不同的模型結(jié)構(gòu),共24種不同的模型權(quán)重,現(xiàn)已全部開源。

這些模型結(jié)構(gòu)基本涵蓋了現(xiàn)有市面上大部分的主流backbone,不僅能夠很輕易地遷移到所需要的算法框架作為新網(wǎng)絡(luò)預(yù)訓(xùn)練的初始化,而且只需要更短的訓(xùn)練時(shí)間就可以達(dá)到比原來更好的訓(xùn)練效果。

MetaNet 模型與其他模型結(jié)構(gòu)比較,結(jié)果如下:

基于卷積、Transformer和兩者混合的結(jié)構(gòu),分別用C,T和H表示

可以看出,在圖像分類性能上,MetaNet系列的MN-B1,MN-B4和MN-B7,和其他的SOTA模型相比,不僅有更高的精度,還有更低的FLOPS和參數(shù)量。

除了分類任務(wù),把MetaNet做為檢測(cè)和分割的backbone,在COCO數(shù)據(jù)集上使用Mask R-CNN結(jié)構(gòu)訓(xùn)練,結(jié)果發(fā)現(xiàn):

在模型參數(shù)量更小的前提下,MN-B4比Swin-T精度高出2到4個(gè)點(diǎn)。另外還在ADE20K數(shù)據(jù)集上進(jìn)行了語義分割任務(wù),MN-B4的mIoU指標(biāo)比Swin-T高出5個(gè)點(diǎn)之多。

上述兩個(gè)實(shí)驗(yàn)結(jié)果表明,MetaNet系列模型結(jié)構(gòu),在模型精度與計(jì)算量之間,都達(dá)到了新的SOTA!

最后,通用視覺評(píng)測(cè)基準(zhǔn)。

視覺評(píng)測(cè)基準(zhǔn)GV-B ,就像是一個(gè)「擂臺(tái)」。

如下表所示,測(cè)評(píng)基準(zhǔn)收集了 26 個(gè)下游任務(wù)數(shù)據(jù)集,囊括了 4 種視覺任務(wù)類型:分類,檢測(cè),分割和深度估計(jì)。 

在設(shè)置上,該基準(zhǔn)引入了百分比樣本(percentage-shot),只需要選取整個(gè)數(shù)據(jù)集的一部分,例如 10%、20% ,對(duì)比縮小下游任務(wù)的訓(xùn)練數(shù)據(jù)量后的模型性能。

與傳統(tǒng)的少樣本設(shè)置相比,這種百分比樣本設(shè)置可以很好地保留原始數(shù)據(jù)集的長(zhǎng)尾分布等屬性,并減輕對(duì)樣本選擇的敏感性。因?yàn)橛幸恍?shù)據(jù)集樣本類別分布不平衡,比如下表中的VOC07+12,百分比數(shù)據(jù)的劃分方式卻會(huì)繼承這種分布情況。

右側(cè)三列avg,min和max,分別表示在10%的數(shù)據(jù)中,不同類別樣本數(shù)量的平均值,最小值和最大值

結(jié)合上述數(shù)據(jù)集和任務(wù)類型,論文選取了一些具有代表性的模型來做評(píng)測(cè)對(duì)比。為了比較公平性,該對(duì)比使用了這些模型的官方預(yù)訓(xùn)練權(quán)重。這些模型包括:

  • RseNet
  • CLIP
  • ResNeXt
  • BiT
  • ViT
  • SwAV, DeepClusterV2和MoCo v2
  • Detco

有了超大精標(biāo)數(shù)據(jù)集、模型結(jié)構(gòu),以及評(píng)測(cè)基準(zhǔn)后,已經(jīng)是萬事俱備,只欠訓(xùn)練。

書生作為中國(guó)古代讀書人的經(jīng)典形象,代表著一個(gè)通過不斷學(xué)習(xí)、不斷成長(zhǎng)進(jìn)而擁有各方面才能的人格化角色:從基礎(chǔ)的知識(shí)技能學(xué)習(xí)開始,到對(duì)多種專業(yè)知識(shí)觸類旁通,進(jìn)而成長(zhǎng)為擁有通用知識(shí)的通才。借此意象,“書生”(INTERN)系統(tǒng)可通過持續(xù)學(xué)習(xí),舉一反三,逐步實(shí)現(xiàn)通用視覺領(lǐng)域的融會(huì)貫通,最終實(shí)現(xiàn)靈活高效的模型部署。

下面就來看看,這套系統(tǒng)是如何通過訓(xùn)練,一步步從生手變成專家再到多面手,最終在各種任務(wù)中大顯身手。

第一階段,訓(xùn)練的是基礎(chǔ)能力,被稱為“基礎(chǔ)模型”(Amateur)。

近年來,CLIP因zero-shot recognition 能力和在下游任務(wù)的遷移能力而備受關(guān)注。

然而CLIP需要400M的圖像-文本對(duì)進(jìn)行前訓(xùn)練,囿于極大的數(shù)據(jù)量,CLIP很難進(jìn)一步發(fā)展。但“書生”提出了一種新的訓(xùn)練范式,DeCLIP(Data efficient CLIP ),能夠同時(shí)使用來自圖像-文本、圖像-圖像和文本-文本對(duì)的監(jiān)督信號(hào)進(jìn)行模型預(yù)訓(xùn)練,從而更有效地實(shí)現(xiàn)通用性。

此外,為了充分利用大規(guī)模多模態(tài)數(shù)據(jù)獲取基礎(chǔ)模型的優(yōu)勢(shì),這一階段提出了Upstream-Amateur (Up-A)視覺語言預(yù)訓(xùn)練框架,同時(shí)挖掘模態(tài)內(nèi)和跨模態(tài)知識(shí)。

這一訓(xùn)練框架分為兩個(gè)預(yù)訓(xùn)練階段:Upstream-Amateur for Global Representation (Up-A-G)和Upstream-Amateur for Local Representation (Up-A-L)。

其中,Up-A-G(左)使用群體監(jiān)督功能,從更豐富的監(jiān)督中學(xué)習(xí)。Up-A-L(右)采用局部自我監(jiān)督學(xué)習(xí)方法,對(duì)訓(xùn)練好的視覺-語言模型進(jìn)行調(diào)整,從而提高自身在密集預(yù)測(cè)CV任務(wù)中的表現(xiàn)。

Upstream-Amateur的框架

得益于這些內(nèi)在的監(jiān)督,DeCLIP-ResNet50可以在ImageNet上實(shí)現(xiàn)60.4%的zero-shot 精度第一。這比CLIP-ResNet50高出0.8%,數(shù)據(jù)使用量少了81%。當(dāng)遷移到下游任務(wù)時(shí),DeCLIP-ResNet50在11個(gè)視覺數(shù)據(jù)集中有8個(gè)優(yōu)于CLIP。

更關(guān)鍵的是,訓(xùn)練完成的Upstream-Amateur為后續(xù)的訓(xùn)練階段提供了一個(gè)很高的起點(diǎn)。

第二階段,訓(xùn)練的是專業(yè)能力,被稱為“專家模型”(Expert)。

Up-A階段得到的基礎(chǔ)模型,在一般的視覺識(shí)別問題上顯示出優(yōu)異的性能。但要完全掌握檢測(cè)、分割等更具體的任務(wù),還需要在每個(gè)任務(wù)中進(jìn)行更專業(yè)的預(yù)訓(xùn)練,這就促成了第二個(gè)階段的到來,專家模型。

對(duì)于每個(gè)專家,“書生”采用了一種簡(jiǎn)單的多頭設(shè)計(jì),每個(gè)頭是一個(gè)特定數(shù)據(jù)集的子網(wǎng)絡(luò),從一個(gè)公共的、共享的“主干”分支出來。比如Up-E (C)、Up-E (D)和Up-E (S),分別用于圖像分類、對(duì)象檢測(cè)和語義分割。

第三階段,訓(xùn)練的是組合能力,被稱為“通才模型”(Generalist)。

上述的多任務(wù)是指不同數(shù)據(jù)集(如ImageNet和CIFAR)的一個(gè)視覺問題(如分類),或一個(gè)數(shù)據(jù)集的多個(gè)視覺問題(如分類和檢測(cè))。但關(guān)鍵是,如何將專家整合到一個(gè)統(tǒng)一的模型中,獲得一個(gè)更加通用的視覺模型。因此,在預(yù)訓(xùn)練“專家”階段之后,又將“通才”作為第三個(gè)預(yù)訓(xùn)練階段,以進(jìn)一步統(tǒng)一特征表示。

“書生”提出了一個(gè)新的范式,名為“混合參數(shù)共享”,從而開發(fā)一個(gè)名為“多面手”的通才模型。

具體來說,由于專家捕獲的知識(shí)是相互關(guān)聯(lián)的,當(dāng)專家的特征融合為一個(gè)共享的表示形式時(shí),再利用基于軟共享的跨任務(wù)知識(shí)轉(zhuǎn)移和基于硬共享的通用表示學(xué)習(xí)的方法,在不引入任務(wù)沖突的情況下在專家之間傳遞信息(特征轉(zhuǎn)移),從而進(jìn)一步提高了多任務(wù)訓(xùn)練的模型(專家)性能,即“通才”能力。

在結(jié)構(gòu)上,通才模型是所有專家的一個(gè)相互關(guān)聯(lián)的版本,因此可以把每個(gè)“專家主干”稱為“通才分支”。此外,我們還可以根據(jù)訓(xùn)練相應(yīng)專家的任務(wù)將通才中的每個(gè)分支分為圖像、補(bǔ)丁和像素。但無論是軟共享還是硬共享,都意味著從專家模型到通才模型的一次躍升。

在經(jīng)歷了前三個(gè)訓(xùn)練階段模塊后,終于來到最后的任務(wù)遷移階段 (Adaptation)。

這個(gè)階段屬于技術(shù)鏈條的下游,用來解決各式各樣不同類型的任務(wù),而這也是最考驗(yàn)“書生”舉一反三能力的時(shí)刻。它需要在這個(gè)階段把之前學(xué)到的通用知識(shí),融會(huì)貫通地應(yīng)用到不同特定任務(wù)中。

在此之前,很多遷移學(xué)習(xí)方法確實(shí)取得了很多進(jìn)步,但問題是,這些方法既沒有利用上游預(yù)訓(xùn)練中的隱含信息,也沒有考慮到下游數(shù)據(jù)在少鏡頭場(chǎng)景中的不足。

因此,“書生”提出了一種Multi-stage Fine-tuning (MF)方法,緩解在數(shù)據(jù)較少的情況下傳輸?shù)睦щy,再通過將上游數(shù)據(jù)編碼成生成模型,即VQ-GAN,可以將預(yù)訓(xùn)練的模型轉(zhuǎn)移到多個(gè)任務(wù)和領(lǐng)域,而無需每次都使用上游數(shù)據(jù),而這也使得“書生”更具通用性和可擴(kuò)展性。

多級(jí)微調(diào)(MF)概述:VQ-GAN模型首先在第一階段使用上游數(shù)據(jù)進(jìn)行訓(xùn)練,然后在第二階段由它重構(gòu)下游數(shù)據(jù)。在此之后,第三階段只對(duì)新增任務(wù)的特定參數(shù)進(jìn)行重新表示的圖像訓(xùn)練,第四階段則通過下游數(shù)據(jù)對(duì)整個(gè)模型進(jìn)行微調(diào)。

至此,一個(gè)具有持續(xù)學(xué)習(xí)能力的通用視覺模型終于出世。

而具體有哪些提升,不如看一下更直觀的實(shí)驗(yàn)數(shù)據(jù)對(duì)比!

3 一網(wǎng)打盡視覺領(lǐng)域四大任務(wù)

視覺領(lǐng)域,任務(wù)繁多,主流任務(wù)包含分類、目標(biāo)檢測(cè)、語義分割、深度估計(jì)四大類型。

在這四大任務(wù)中,最強(qiáng)大的視覺模型還是去年OpenAI發(fā)布的CLIP模型。但相比較而言,“書生”則在準(zhǔn)確率和數(shù)據(jù)使用效率上都有所提升。

(1)精度表現(xiàn)

通過對(duì)“書生”訓(xùn)練出的模型在GV-B上的評(píng)測(cè)對(duì)比,發(fā)現(xiàn)經(jīng)過多階段預(yù)訓(xùn)練的MetaNet精度表現(xiàn)優(yōu)異。

在ImageNet等26個(gè)最具代表性的下游場(chǎng)景中, “書生”在分類、目標(biāo)檢測(cè)、語義分割及深度估計(jì)等四大任務(wù)上,平均錯(cuò)誤率分別降低了40.2%、47.3%、34.8%和9.4%。

書生(INTERN)與CLIP-R50x16在不同樣本量上的性能對(duì)比,正確率展示

(2)數(shù)據(jù)使用效率

“書生”在數(shù)據(jù)效率方面的提升尤為矚目:只需要1/10的下游數(shù)據(jù),就能超過CLIP基于完整下游數(shù)據(jù)訓(xùn)練的準(zhǔn)確度。

以CLIP-R50x16和Up-G MN-B15在GV-B的評(píng)測(cè)對(duì)比為例,分別在分類、目標(biāo)檢測(cè)、語義分割、深度估計(jì)四大類型的26個(gè)下游任務(wù)數(shù)據(jù)集上進(jìn)行了評(píng)測(cè),僅使用了10%數(shù)據(jù)進(jìn)行訓(xùn)練的Up-G MN-B15模型,在絕大部分?jǐn)?shù)據(jù)集上都能比使用了全部訓(xùn)練數(shù)據(jù)的CLIP-R50有更好的精度表現(xiàn)。這表明,經(jīng)過多階段預(yù)訓(xùn)練的MetaNet具有極強(qiáng)的泛化能力,能夠在僅有少量的訓(xùn)練樣本情況下,達(dá)到SOTA的精度表現(xiàn)。 

在下游視覺場(chǎng)景中,小樣本訓(xùn)練帶來的是極高的訓(xùn)練速度,以及極低的訓(xùn)練成本。

例如在花卉種類識(shí)別任務(wù)上,“書生“只需要每一類型的花卉提供兩個(gè)訓(xùn)練樣本,就能實(shí)現(xiàn)99.7%的準(zhǔn)確率。

這個(gè)花卉數(shù)據(jù)集由102種英國(guó)常見的花組成,每個(gè)類別有40至258張圖片。其中包含有很大的比例、姿勢(shì)和光線變化。

102個(gè)類別的花卉數(shù)據(jù)集:https://www.robots.ox.ac.uk/~vgg/data/flowers/102/index.html

4 通用視覺平臺(tái),已正式開源

如此強(qiáng)大的通用視覺訓(xùn)練模型已經(jīng)正式開源!

更關(guān)鍵的是,連同上述講到的標(biāo)簽數(shù)據(jù)集、網(wǎng)絡(luò)結(jié)構(gòu)以及評(píng)測(cè)基準(zhǔn),均在OpenGVLab被統(tǒng)一打包開源。

其中的網(wǎng)絡(luò)結(jié)構(gòu)除了MetaNet,還包含大家普遍使用的ResNet, MobileNet, ViT, EfficientNet等,以滿足不同場(chǎng)景的應(yīng)用,賦能計(jì)算機(jī)視覺。

然而,「書生」的布局不止于此。

OpenGVLab將與上海人工智能實(shí)驗(yàn)室此前發(fā)布的OpenMMLab、OpenDILab一道,共同構(gòu)筑開源體系OpenXLab,持續(xù)推進(jìn)通用人工智能的技術(shù)突破和生態(tài)構(gòu)建。

一位已經(jīng)使用過此次開源平臺(tái)的自動(dòng)駕駛算法研究員表示:“書生系列模型充分覆蓋了從移動(dòng)可部署的小模型,到超大規(guī)模自研結(jié)構(gòu),為行業(yè)帶來了希望,尤其是它的收斂速度,大幅節(jié)省了訓(xùn)練開銷,是技術(shù)落地的一大助推器。“

不僅是自動(dòng)駕駛領(lǐng)域,智慧城市、智慧醫(yī)療、智慧交通,以及千千萬萬其他的智能化領(lǐng)域,都將獲得通用視覺模型帶來的技術(shù)紅利。

一位騰訊研究員大贊OpenGVLab:“能把這么大的工作開源出來真的是業(yè)界良心。簡(jiǎn)單用了一下,確實(shí)比CLIP要更fine-grained(細(xì)粒度更高)。”

而來自學(xué)界的師生也對(duì)此感慨有加:“OpenGVLab集成了大量各種量級(jí)的state-of-the-art(先進(jìn))模型,使用起來更得心應(yīng)手,省去了對(duì)不同codebase、不同模型繁瑣調(diào)研的煩惱。”

換句話說,當(dāng)那些代碼和公式脫去了枯燥乏味的外衣,人們才發(fā)現(xiàn)了真正的創(chuàng)造力。而這,也是技術(shù)創(chuàng)新與平臺(tái)開源的魅力所在。

往近了說,用這款通用視覺模型打比賽,怕不是獎(jiǎng)金多到飛起!在技術(shù)生產(chǎn)力的道路上,又誕生了一個(gè)致富小妙招!

目前,“書生”技術(shù)報(bào)告《INTERN: A New Learning Paradigm Towards General Vision》已在arXiv平臺(tái)發(fā)布。

論文地址:arxiv.org/abs/2111.08687?

責(zé)任編輯:張燕妮 來源: AI科技評(píng)論
相關(guān)推薦

2015-08-07 16:02:10

數(shù)據(jù)中心

2010-06-13 10:28:15

2013-07-29 09:58:28

2020-05-12 11:05:10

Python 開發(fā)者編程語言

2021-01-17 10:42:34

谷歌廣告釣魚網(wǎng)站

2024-02-20 12:30:53

AI訓(xùn)練

2020-07-21 15:13:58

騰訊云SQL Server數(shù)據(jù)庫(kù)

2025-11-04 16:01:03

英偉達(dá)AI服務(wù)器

2024-12-25 13:50:00

訓(xùn)練數(shù)據(jù)AI

2021-08-30 15:41:23

代碼開源微軟

2025-01-21 09:50:00

模型生成AI

2024-11-07 13:07:47

2019-11-12 12:34:15

人工智能機(jī)器學(xué)習(xí)技術(shù)

2020-06-12 14:25:36

框架PyTorch開發(fā)

2013-08-05 09:41:33

2025-09-12 17:19:38

2024-03-06 13:21:20

英偉達(dá)處理器AI

2014-03-25 09:50:00

解釋器編程語言

2013-05-02 16:18:43

2022-03-12 14:21:53

Windows 11設(shè)備要求用戶升級(jí)
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)

欧美好骚综合网| 久久久久久久| 99久精品国产| 国产精品爱啪在线线免费观看| 日本一道本视频| 国产精久久一区二区| 精品国产电影一区| 伊人av成人| 亚洲欧美日韩动漫| 国产在线视频不卡二| 欧美一级大胆视频| 国产一区二区视频在线观看免费| 日韩大胆成人| 欧美一级高清片| 无码内射中文字幕岛国片| av片在线观看| 国产欧美一区二区精品秋霞影院| 99久热re在线精品996热视频| 日韩国产成人在线| 亚洲激情精品| 久久亚洲精品网站| 神马久久久久久久久久久| 一区二区日韩| 欧美日韩www| 黄色片视频在线播放| 少妇视频一区二区| 亚洲专区视频| 欧美日韩国产中文精品字幕自在自线| 先锋影音网一区| 无码国产伦一区二区三区视频| 久久99精品久久久久久动态图| 5566日本婷婷色中文字幕97| 欧美激情精品久久| 99久久夜色精品国产亚洲狼| 国产亚洲美女久久| 草草地址线路①屁屁影院成人| 玖玖玖视频精品| 欧美日韩精品二区第二页| 日韩精品一区二区三区久久| 蜜臀av在线| 亚洲色图20p| 亚洲午夜在线观看| а√天堂中文在线资源bt在线 | 欧美日韩在线观看不卡| 爱草tv视频在线观看992| 亚洲乱码中文字幕综合| 中文字幕色一区二区| 国产一二三在线观看| 91视频xxxx| 久久久久久久久久久久久久久久av| 亚洲高清视频在线播放| 国产精品亚洲专一区二区三区| 国产精品丝袜白浆摸在线| 亚洲黄色免费观看| 久久国产一二区| 欧美一区深夜视频| 男人天堂2024| 日一区二区三区| 日韩av毛片网| 福利网址在线观看| 久久久久香蕉视频| 福利一区福利二区| 欧美日韩成人高清| 精品999在线| aaaa欧美| 精品视频免费在线| 国产精品自拍视频在线| 精品肉辣文txt下载| 在线精品视频小说1| 九热视频在线观看| 欧美大片网站| 555夜色666亚洲国产免| www.桃色.com| 91亚洲精品视频在线观看| 日韩精品一区二区三区视频播放| 国产精品嫩草69影院| 国产成人一二| 亚洲欧美国产高清va在线播| 亚洲av无码一区二区三区人| 欧美综合视频| 久久中文字幕国产| 香蕉免费毛片视频| 久久九九免费| 91视频国产精品| 刘亦菲毛片一区二区三区| 91色综合久久久久婷婷| 一级日韩一区在线观看| 色女人在线视频| 欧美日韩综合视频| 自拍偷拍21p| 中文字幕亚洲在线观看| 日韩精品在线观看视频| 亚洲性猛交xxxx乱大交| 天堂成人娱乐在线视频免费播放网站| 在线看国产精品| avove在线播放| 亚洲综合丁香| 成人福利视频在线观看| 女人18毛片一区二区三区| 久久久综合激的五月天| 中文字幕一区二区三区有限公司| av影视在线| 欧美日韩国产系列| 亚洲一区二区在线免费| 婷婷精品进入| 日本亚洲精品在线观看| 超碰福利在线观看| 国产清纯白嫩初高生在线观看91| 欧美黄色免费网址| 欧美大陆国产| 亚洲女成人图区| 免费无码毛片一区二区app| 丝袜亚洲另类欧美| 精品国产乱码久久久久久久软件 | 亚洲韩国青草视频| 99精品中文字幕| 国产精品资源| 福利精品视频| av网站网址在线观看| 一本大道综合伊人精品热热 | 久久久影院官网| 久久精品xxx| 中文幕av一区二区三区佐山爱| 亚洲欧美国产日韩中文字幕| 久久综合成人网| 国产在线不卡视频| 五月天久久综合网| 在线视频超级| 亚洲第一级黄色片| 久久精品视频免费在线观看| 蜜臂av日日欢夜夜爽一区| 免费在线观看一区二区| caoporn-草棚在线视频最| 91精品久久久久久蜜臀| 黄色国产在线播放| 日韩综合小视频| 久久精品magnetxturnbtih| 欧美人动性xxxxz0oz| 欧美精品成人一区二区三区四区| 男人的天堂av网| 久久精品综合| 日韩av一级大片| 亚洲天堂导航| 日韩精品视频免费在线观看| 日韩成人一区二区三区| 丁香另类激情小说| 国产激情片在线观看| 国产精久久久| 欧美日本高清一区| 亚洲第一成年人网站| 一区二区三区精密机械公司| 在线视频一二区| 综合色一区二区| av噜噜色噜噜久久| 国产在线xxx| 精品久久国产老人久久综合| 亚洲女人久久久| 久久成人免费网| 一区二区三区一级片| 亚洲欧美一级| 欧美老女人在线视频| 精品国产伦一区二区三| 亚洲一区二区在线免费观看视频| 极品白嫩少妇无套内谢| 亚洲二区免费| 欧美成人第一区| 精品成人av| 俺去亚洲欧洲欧美日韩| 国产视频一二三四区| 亚洲激情一二三区| 日本一卡二卡在线| 国产精品综合色区在线观看| 欧洲精品久久| 亚洲18在线| 久久久人成影片一区二区三区| 色窝窝无码一区二区三区| 欧美日韩在线免费| 亚洲天堂精品一区| 国产成人一区在线| 日韩精品 欧美| 欧美日韩在线观看视频小说| 91丨九色丨国产在线| 国产探花视频在线观看| 亚洲欧美日韩精品久久亚洲区| 伊人网av在线| 亚洲一区二区三区在线播放| 欧美熟妇一区二区| 久久 天天综合| 欧美啪啪免费视频| 日本久久综合| 国产精品毛片一区视频| 成人啊v在线| 色综合久久88| 国产中文在线观看| 欧美变态tickling挠脚心| 亚洲另类在线观看| 亚洲精品免费在线| 制服 丝袜 综合 日韩 欧美| 国产精品一区在线观看乱码| 91视频 -- 69xx| 99视频精品全部免费在线视频| 国产一区免费在线| 白嫩亚洲一区二区三区| 日产精品99久久久久久| av香蕉成人| 一色桃子一区二区| 少妇高潮一区二区三区99小说| 欧美日韩视频第一区| 精品91久久久| 中文字幕日韩一区| 欧美特级黄色录像| 懂色av一区二区三区免费看| 9久久婷婷国产综合精品性色 | 亚洲一区二区四区蜜桃| 人人艹在线视频| 久久精品亚洲精品国产欧美 | 高清欧美一区二区三区| 色影院视频在线| 国产丝袜一区二区三区| 精品国产999久久久免费| 在线欧美一区二区| 亚洲欧美综合另类| 亚洲一区二区三区四区的| 男人的午夜天堂| 欧美经典三级视频一区二区三区| 偷偷色噜狠狠狠狠的777米奇| 韩国av一区二区三区四区| 婷婷激情四射五月天| 西西裸体人体做爰大胆久久久| 国产 欧美 日韩 一区| 91精品国产调教在线观看| 视频一区亚洲| 国产日产一区| 日韩av一区二区三区在线| 亚洲精品白浆高清| 国产自产精品| 精品久久ai电影| 狠狠色狠狠色综合人人| 亚洲成人偷拍| 成人黄动漫网站免费| 久久久久久亚洲精品美女| 成人欧美一区二区三区黑人孕妇| 国产激情欧美| 国产啪精品视频网站| 国产精品亚洲d| 国产精品普通话| 成人在线视频免费看| 国产精品久久久久久久久影视| 亚洲成人短视频| 国产精品678| 成人开心激情| 国产精品视频26uuu| 97成人超碰| 国产三级精品网站| 91亚洲精品在看在线观看高清| 国产日韩在线观看av| 亚洲精品69| 91丨九色丨国产| 岛国精品一区| 久久国产一区二区| 国产日产一区 | 欧美美女直播网站| 国产免费叼嘿网站免费| 欧美一级理论片| 国产 欧美 自拍| 亚洲第一区中文字幕| 亚洲欧洲视频在线观看| 国产亚洲一级高清| 免费看a在线观看| 欧美激情2020午夜免费观看| av手机免费在线观看| 欧美夜福利tv在线| 黄色成人小视频| 操人视频欧美| 一本色道久久综合亚洲精品酒店 | 在线免费av电影| 久久精品视频在线播放| 日韩精品分区| 欧美亚洲国产另类| 亚洲免费看片| 九色91国产| 欧美激情电影| 妞干网在线观看视频| 久久综合给合| 国外成人在线视频网站| 黑丝美女一区二区| 久久av喷吹av高潮av| 亚洲精品在线二区| 手机视频在线观看| 成人午夜碰碰视频| 亚洲一二三精品| 亚洲图片欧美色图| 久久午夜鲁丝片| 精品三级在线看| av影片免费在线观看| 欧美激情一区二区三级高清视频| 性欧美1819sex性高清| 亚洲直播在线一区| 国产欧美亚洲精品a| 国产又粗又猛又爽又黄的网站| 爽好久久久欧美精品| 丰满少妇一区二区三区专区| 久久精品一区二区| 毛片aaaaa| 欧美三级电影在线观看| 污污网站在线免费观看| 色偷偷av一区二区三区乱| 蜜桃视频在线观看播放| 成人中文字幕+乱码+中文字幕| 亚洲涩涩av| 日本aa在线观看| 麻豆成人综合网| 午夜剧场免费看| 亚洲靠逼com| 中文字幕在线观看欧美| 日韩电影网在线| 欧美v亚洲v| 亚洲www视频| 99国内精品久久久久久久| 欧美精品第三页| 99麻豆久久久国产精品免费优播| 国产真实乱在线更新| 色94色欧美sute亚洲线路二| 色婷婷视频在线| 欧美激情精品久久久久久黑人| 亚洲精品自拍| 亚洲精品日韩在线观看| 亚洲一区观看| www.88av| 天天综合天天做天天综合| 性欧美videos另类hd| 北条麻妃久久精品| 激情久久99| 亚洲欧美久久234| 日韩黄色小视频| 这里只有久久精品| 日韩欧美国产骚| 偷拍自拍在线视频| 777精品视频| 国产欧美三级电影| 妞干网在线观看视频| 成人在线一区二区三区| 久久黄色免费视频| 欧美v亚洲v综合ⅴ国产v| 亚洲七七久久综合桃花剧情介绍| 91欧美激情另类亚洲| 亚洲草久电影| 国产伦精品一区二区三区妓女下载 | 黄av在线免费观看| 91精品美女在线| 国产精品二区不卡| caoporm在线视频| 亚洲人成在线观看一区二区| av免费观看网址| 欧美高清videos高潮hd| 超碰在线亚洲| 黄色av网址在线播放| 久久久久久久久久久久久女国产乱| 国产成人无码av| 最近2019年手机中文字幕| 国产在视频一区二区三区吞精| 自拍偷拍99| 国产精品456露脸| 日本熟妇一区二区| 国产视频自拍一区| 成人日韩av| 久久久无码中文字幕久...| 国产成人小视频| 久久黄色精品视频| 在线a欧美视频| 在线免费成人| 蜜臀av色欲a片无码精品一区 | 日韩三级视频中文字幕| 91制片在线观看| 欧美日韩视频在线一区二区观看视频| 日本vs亚洲vs韩国一区三区| а天堂中文在线资源| 欧美xxxxx牲另类人与| 亚洲欧洲日本韩国| 亚洲伊人婷婷| 菠萝蜜视频在线观看一区| 无码人妻丰满熟妇区bbbbxxxx| www亚洲欧美| 精品精品国产毛片在线看| 天天爽天天爽夜夜爽| 一区二区三区在线播| 日本视频在线观看一区二区三区| 国产欧美精品va在线观看| 欧美日本精品| wwwwxxxx国产| 91精品国产手机| 另类图片综合电影| 潘金莲一级淫片aaaaa免费看| eeuss鲁片一区二区三区在线观看| aaa在线视频| 欧美激情aaaa| 国产精品7m凸凹视频分类| 一级特黄a大片免费| 制服丝袜亚洲精品中文字幕| 九色porny自拍视频在线播放|