精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

CNN 模型壓縮與加速算法綜述

開發(fā) 開發(fā)工具 算法
CNN模型火速替代了傳統(tǒng)人工設(shè)計(hand-crafted)特征和分類器,不僅提供了一種端到端的處理方法,還大幅度地刷新了各個圖像競賽任務(wù)的精度,更甚者超越了人眼的精度(LFW人臉識別任務(wù))。

[[201727]]

前言

自從AlexNet一舉奪得ILSVRC 2012 ImageNet圖像分類競賽的冠軍后,卷積神經(jīng)網(wǎng)絡(luò)(CNN)的熱潮便席卷了整個計算機(jī)視覺領(lǐng)域。CNN模型火速替代了傳統(tǒng)人工設(shè)計(hand-crafted)特征和分類器,不僅提供了一種端到端的處理方法,還大幅度地刷新了各個圖像競賽任務(wù)的精度,更甚者超越了人眼的精度(LFW人臉識別任務(wù))。CNN模型在不斷逼近計算機(jī)視覺任務(wù)的精度極限的同時,其深度和尺寸也在成倍增長。

表1 幾種經(jīng)典模型的尺寸,計算量和參數(shù)數(shù)量對比

隨之而來的是一個很尷尬的場景:如此巨大的模型只能在有限的平臺下使用,根本無法移植到移動端和嵌入式芯片當(dāng)中。就算想通過網(wǎng)絡(luò)傳輸,但較高的帶寬占用也讓很多用戶望而生畏。另一方面,大尺寸的模型也對設(shè)備功耗和運(yùn)行速度帶來了巨大的挑戰(zhàn)。因此這樣的模型距離實(shí)用還有一段距離。

在這樣的情形下,模型小型化與加速成了亟待解決的問題。其實(shí)早期就有學(xué)者提出了一系列CNN模型壓縮方法,包括權(quán)值剪值(prunning)和矩陣SVD分解等,但壓縮率和效率還遠(yuǎn)不能令人滿意。

近年來,關(guān)于模型小型化的算法從壓縮角度上可以大致分為兩類:從模型權(quán)重數(shù)值角度壓縮和從網(wǎng)絡(luò)架構(gòu)角度壓縮。另一方面,從兼顧計算速度方面,又可以劃分為:僅壓縮尺寸和壓縮尺寸的同時提升速度。

本文主要討論如下幾篇代表性的文章和方法,包括SqueezeNet[5]、Deep Compression[6]、XNorNet[7]、Distilling[8]、MobileNet[9]和ShuffleNet[10],也可按照上述方法進(jìn)行大致分類:

表2 幾種經(jīng)典壓縮方法及對比

一、SqueezeNet

1.1 設(shè)計思想

SqueezeNet是F. N. Iandola,S.Han等人于2016年的論文《SqueezeNet: AlexNet-level accuracy with 50x fewer parameters and < 0.5MB model size》中提出的一個小型化的網(wǎng)絡(luò)模型結(jié)構(gòu),該網(wǎng)絡(luò)能在保證不損失精度的同時,將原始AlexNet壓縮至原來的510倍左右(< 0.5MB)。

SqueezeNet的核心指導(dǎo)思想是——在保證精度的同時使用最少的參數(shù)。

而這也是所有模型壓縮方法的一個***目標(biāo)。

基于這個思想,SqueezeNet提出了3點(diǎn)網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計策略:

策略 1.將3x3卷積核替換為1x1卷積核。

這一策略很好理解,因?yàn)?個1x1卷積核的參數(shù)是3x3卷積核參數(shù)的1/9,這一改動理論上可以將模型尺寸壓縮9倍。

策略 2.減小輸入到3x3卷積核的輸入通道數(shù)。

我們知道,對于一個采用3x3卷積核的卷積層,該層所有卷積參數(shù)的數(shù)量(不考慮偏置)為:

式中,N是卷積核的數(shù)量,也即輸出通道數(shù),C是輸入通道數(shù)。

因此,為了保證減小網(wǎng)絡(luò)參數(shù),不僅僅需要減少3x3卷積核的數(shù)量,還需減少輸入到3x3卷積核的輸入通道數(shù)量,即式中C的數(shù)量。

策略 3.盡可能的將降采樣放在網(wǎng)絡(luò)后面的層中。

在卷積神經(jīng)網(wǎng)絡(luò)中,每層輸出的特征圖(feature map)是否下采樣是由卷積層的步長或者池化層決定的。而一個重要的觀點(diǎn)是:分辨率越大的特征圖(延遲降采樣)可以帶來更高的分類精度,而這一觀點(diǎn)從直覺上也可以很好理解,因?yàn)榉直媛试酱蟮妮斎肽軌蛱峁┑男畔⒕驮蕉唷?/p>

上述三個策略中,前兩個策略都是針對如何降低參數(shù)數(shù)量而設(shè)計的,***一個旨在***化網(wǎng)絡(luò)精度。

1.2 網(wǎng)絡(luò)架構(gòu)

基于以上三個策略,作者提出了一個類似inception的網(wǎng)絡(luò)單元結(jié)構(gòu),取名為fire module。一個fire module 包含一個squeeze 卷積層(只包含1x1卷積核)和一個expand卷積層(包含1x1和3x3卷積核)。其中,squeeze層借鑒了inception的思想,利用1x1卷積核來降低輸入到expand層中3x3卷積核的輸入通道數(shù)。如圖1所示。

圖1 Fire module結(jié)構(gòu)示意圖

其中,定義squeeze層中1x1卷積核的數(shù)量是s1x1,類似的,expand層中1x1卷積核的數(shù)量是e1x1, 3x3卷積核的數(shù)量是e3x3。令s1x1 < e1x1+ e3x3從而保證輸入到3x3的輸入通道數(shù)減小。SqueezeNet的網(wǎng)絡(luò)結(jié)構(gòu)由若干個 fire module 組成,另外文章還給出了一些架構(gòu)設(shè)計上的細(xì)節(jié):

  • 為了保證1x1卷積核和3x3卷積核具有相同大小的輸出,3x3卷積核采用1像素的zero-padding和步長
  • squeeze層和expand層均采用RELU作為激活函數(shù)
  • 在fire9后采用50%的dropout
  • 由于全連接層的參數(shù)數(shù)量巨大,因此借鑒NIN[11]的思想,去除了全連接層而改用global average pooling。

1.3 實(shí)驗(yàn)結(jié)果

表3 不同壓縮方法在ImageNet上的對比實(shí)驗(yàn)結(jié)果

上表顯示,相比傳統(tǒng)的壓縮方法,SqueezeNet能在保證精度不損(甚至略有提升)的情況下,達(dá)到***的壓縮率,將原始AlexNet從240MB壓縮至4.8MB,而結(jié)合Deep Compression后更能達(dá)到0.47MB,完全滿足了移動端的部署和低帶寬網(wǎng)絡(luò)的傳輸。

此外,作者還借鑒ResNet思想,對原始網(wǎng)絡(luò)結(jié)構(gòu)做了修改,增加了旁路分支,將分類精度提升了約3%。

1.4 速度考量

盡管文章主要以壓縮模型尺寸為目標(biāo),但毋庸置疑的一點(diǎn)是,SqueezeNet在網(wǎng)絡(luò)結(jié)構(gòu)中大量采用1x1和3x3卷積核是有利于速度的提升的,對于類似caffe這樣的深度學(xué)習(xí)框架,在卷積層的前向計算中,采用1x1卷積核可避免額外的im2col操作,而直接利用gemm進(jìn)行矩陣加速運(yùn)算,因此對速度的優(yōu)化是有一定的作用的。然而,這種提速的作用仍然是有限的,另外,SqueezeNet采用了9個fire module和兩個卷積層,因此仍需要進(jìn)行大量常規(guī)卷積操作,這也是影響速度進(jìn)一步提升的瓶頸。

二、Deep Compression

Deep Compression出自S.Han 2016 ICLR的一篇論文《Deep Compression: Compressing Deep Neural Networks with Pruning, Trained Quantization and Huffman Coding》。該文章獲得了ICLR 2016的***論文獎,同時也具有里程碑式的意義,***了CNN模型小型化與加速研究方向的新狂潮,使得這一領(lǐng)域近兩年來涌現(xiàn)出了大量的優(yōu)秀工作與文章。

2.1 算法流程

與前面的“架構(gòu)壓縮派”的SqueezeNet不同,Deep Compression是屬于“權(quán)值壓縮派”的。而兩篇文章均出自S.Han團(tuán)隊(duì),因此兩種方法結(jié)合,雙劍合璧,更是能達(dá)到登峰造極的壓縮效果。這一實(shí)驗(yàn)結(jié)果也在上表中得到驗(yàn)證。

Deep Compression的算法流程包含三步,如圖2所示:

圖2 Deep Compression Pipeline

1、Pruning(權(quán)值剪枝)

剪枝的思想其實(shí)早已在早期論文中可以窺見,LeCun等人曾經(jīng)就利用剪枝來稀疏網(wǎng)絡(luò),減小過擬合的風(fēng)險,提升網(wǎng)絡(luò)泛化性。

圖3是MNIST上訓(xùn)練得到的LeNet conv1卷積層中的參數(shù)分布,可以看出,大部分權(quán)值集中在0處附近,對網(wǎng)絡(luò)的貢獻(xiàn)較小,在剪值中,將0值附近的較小的權(quán)值置0,使這些權(quán)值不被激活,從而著重訓(xùn)練剩下的非零權(quán)值,最終在保證網(wǎng)絡(luò)精度不變的情況下達(dá)到壓縮尺寸的目的。

實(shí)驗(yàn)發(fā)現(xiàn)模型對剪枝更敏感,因此在剪值時建議逐層迭代修剪,另外每層的剪枝比例如何自動選取仍然是一個值得深入研究的課題。

圖3 LeNet conv1層權(quán)值分布圖

2、Quantization (權(quán)值量化)

此處的權(quán)值量化基于權(quán)值聚類,將連續(xù)分布的權(quán)值離散化,從而減小需要存儲的權(quán)值數(shù)量。

  • 初始化聚類中心,實(shí)驗(yàn)證明線性初始化效果***;
  • 利用k-means算法進(jìn)行聚類,將權(quán)值劃分到不同的cluster中;
  • 在前向計算時,每個權(quán)值由其聚類中心表示;
  • 在后向計算時,統(tǒng)計每個cluster中的梯度和將其反傳。

圖4 權(quán)值量化前向和后向計算過程

3、Huffman encoding(霍夫曼編碼)

霍夫曼編碼采用變長編碼將平均編碼長度減小,進(jìn)一步壓縮模型尺寸。

2.2 模型存儲

前述的剪枝和量化都是為了實(shí)現(xiàn)模型的更緊致的壓縮,以實(shí)現(xiàn)減小模型尺寸的目的。

  • 對于剪枝后的模型,由于每層大量參數(shù)為0,后續(xù)只需將非零值及其下標(biāo)進(jìn)行存儲,文章中采用CSR(Compressed Sparse Row)來進(jìn)行存儲,這一步可以實(shí)現(xiàn)9x~13x的壓縮率。
  • 對于量化后的模型,每個權(quán)值都由其聚類中心表示(對于卷積層,聚類中心設(shè)為256個,對于全連接層,聚類中心設(shè)為32個),因此可以構(gòu)造對應(yīng)的碼書和下標(biāo),大大減少了需要存儲的數(shù)據(jù)量,此步能實(shí)現(xiàn)約3x的壓縮率。
  • ***對上述壓縮后的模型進(jìn)一步采用變長霍夫曼編碼,實(shí)現(xiàn)約1x的壓縮率。

2.3 實(shí)驗(yàn)結(jié)果

表4 不同網(wǎng)絡(luò)采用Deep Compression后的壓縮率[6]

通過SqueezeNet+Deep Compression,可以將原始240M的AlexNet壓縮至0.47M,實(shí)現(xiàn)約510x的壓縮率。

2.4 速度考量

可以看出,Deep Compression的主要設(shè)計是針對網(wǎng)絡(luò)存儲尺寸的壓縮,但在前向時,如果將存儲模型讀入展開后,并沒有帶來更大的速度提升。因此Song H.等人專門針對壓縮后的模型設(shè)計了一套基于FPGA的硬件前向加速框架EIE[12],有興趣的可以研究一下。

三、XNorNet

二值網(wǎng)絡(luò)一直是模型壓縮和加速領(lǐng)域經(jīng)久不衰的研究課題之一。將原始32位浮點(diǎn)型的權(quán)值壓縮到1比特,如何***程度地減小性能損失就成為了研究的關(guān)鍵。

此篇論文主要有以下幾個貢獻(xiàn):

  • 提出了一個BWN(Binary-Weight-Network)和XNOR-Network,前者只對網(wǎng)絡(luò)參數(shù)做二值化,帶來約32x的存儲壓縮和2x的速度提升,而后者對網(wǎng)絡(luò)輸入和參數(shù)都做了二值化,在實(shí)現(xiàn)32x存儲壓縮的同時帶了58x的速度提升;
  • 提出了一個新型二值化權(quán)值的算法;
  • ***個在大規(guī)模數(shù)據(jù)集如ImageNet上提交二值化網(wǎng)絡(luò)結(jié)果的工作;
  • 無需預(yù)訓(xùn)練,可實(shí)現(xiàn)training from scratch。

3.1 BWN

即***的二值化濾波器張量B即為原始參數(shù)的符號函數(shù),***的尺度因子為每個濾波器權(quán)值的絕對值的均值。

訓(xùn)練算法如圖5所示,值得注意的是,只有在前向計算和后向傳播時使用二值化后的權(quán)值,在更新參數(shù)時依然使用原始參數(shù),這是因?yàn)槿绻褂枚祷蟮膮?shù)會導(dǎo)致很小的梯度下降,從而使得訓(xùn)練無法收斂。

3.2 XNOR-Net

在卷積計算中,輸入和權(quán)值均量化成了二值,因此傳統(tǒng)的乘法計算變成了異或操作,而非二值化數(shù)據(jù)的計算只占了很小一部分。

XNOR-Net中一個典型的卷積單元如圖6所示,與傳統(tǒng)單元不同,各模塊的順序有了調(diào)整。為了減少二值化帶來的精度損失,對輸入數(shù)據(jù)首先進(jìn)行BN歸一化處理,BinActiv層用于對輸入做二值化,接著進(jìn)行二值化的卷積操作,***進(jìn)行pooling。

圖5 BWN訓(xùn)練過程

圖6 傳統(tǒng)卷積單元與XNOR-Net卷積單元對比

3.3 實(shí)驗(yàn)結(jié)果

表5 ImageNet上二值網(wǎng)絡(luò)與AlexNet結(jié)果對比

與ALexNet相比,BWN網(wǎng)絡(luò)能夠達(dá)到精度基本不變甚至略好,XNOR-Net由于對輸入也做了二值化,性能稍降。

四、Distilling

Distilling算法是Hinton等人在論文Distilling the Knowledge in a Neural Network中提出的一種類似網(wǎng)絡(luò)遷移的學(xué)習(xí)算法。

4.1 基本思想

Distilling直譯過來即蒸餾,其基本思想是通過一個性能好的大網(wǎng)絡(luò)來教小網(wǎng)絡(luò)學(xué)習(xí),從而使得小網(wǎng)絡(luò)能夠具備跟大網(wǎng)絡(luò)一樣的性能,但蒸餾后的小網(wǎng)絡(luò)參數(shù)規(guī)模遠(yuǎn)遠(yuǎn)小于原始大網(wǎng)絡(luò),從而達(dá)到壓縮網(wǎng)絡(luò)的目的。

其中,訓(xùn)練小模型(distilled model)的目標(biāo)函數(shù)由兩部分組成

1) 與大模型(cumbersome model)的softmax輸出的交叉熵(cross entropy),稱為軟目標(biāo)(soft target)。其中,softmax的計算加入了超參數(shù)溫度T,用以控制輸出,計算公式變?yōu)?/p>

溫度T越大,輸出的分布越緩和,概率zi/T越小,熵越大,但若T過大,會導(dǎo)致較大熵引起的不確定性增加,增加了不可區(qū)分性。

至于為何要以soft target來計算損失,作者認(rèn)為,在分類問題中,真值(groundtruth)是一個確定性的,即one-hot vector。以手寫數(shù)字分類來說,對于一個數(shù)字3,它的label是3的概率是1,而是其他數(shù)值的概率是0,而對于soft target,它能表征label是3的概率,假如這個數(shù)字寫的像5,還可以給出label是5的一定概率,從而提供更多信息,如

2)與真值(groundtruth)的交叉熵(T=1)

訓(xùn)練的損失為上述兩項(xiàng)損失的加權(quán)和,通常第二項(xiàng)要小很多。

4.2 實(shí)驗(yàn)結(jié)果

作者給出了在語音識別上的實(shí)驗(yàn)結(jié)果對比,如下表

表6 蒸餾模型與原始模型精度對比

上表顯示,蒸餾后的模型的精確度和單字錯誤率和用于產(chǎn)生軟目標(biāo)的10個模型的性能相當(dāng),小模型成功地學(xué)到了大模型的識別能力。

4.3 速度考量

Distilling的提出原先并非針對網(wǎng)絡(luò)加速,而最終計算的效率仍然取決于蒸餾模型的計算規(guī)模,但理論上蒸餾后的小模型相對原始大模型的計算速度在一定程度上會有提升,但速度提升的比例和性能維持的權(quán)衡是一個值得研究的方向。

五、MobileNet

MobileNet是由Google提出的針對移動端部署的輕量級網(wǎng)絡(luò)架構(gòu)。考慮到移動端計算資源受限以及速度要求嚴(yán)苛,MobileNet引入了傳統(tǒng)網(wǎng)絡(luò)中原先采用的group思想,即限制濾波器的卷積計算只針對特定的group中的輸入,從而大大降低了卷積計算量,提升了移動端前向計算的速度。

5.1 卷積分解

MobileNet借鑒factorized convolution的思想,將普通卷積操作分成兩部分:

  • Depthwise Convolution

每個卷積核濾波器只針對特定的輸入通道進(jìn)行卷積操作,如下圖所示,其中M是輸入通道數(shù),DK是卷積核尺寸:

圖7 Depthwise Convolution

Depthwise convolution的計算復(fù)雜度為 DKDKMDFDF,其中DF是卷積層輸出的特征圖的大小。

  • Pointwise Convolution

采用1x1大小的卷積核將depthwise convolution層的多通道輸出進(jìn)行結(jié)合,如下圖,其中N是輸出通道數(shù):

圖8 Pointwise Convolution

Pointwise Convolution的計算復(fù)雜度為 MNDFDF

上面兩步合稱depthwise separable convolution

標(biāo)準(zhǔn)卷積操作的計算復(fù)雜度為DKDKMNDFDF

因此,通過將標(biāo)準(zhǔn)卷積分解成兩層卷積操作,可以計算出理論上的計算效率提升比例:

對于3x3尺寸的卷積核來說,depthwise separable convolution在理論上能帶來約8~9倍的效率提升。

5.2 模型架構(gòu)

圖9 普通卷積單元與MobileNet 卷積單元對比

MobileNet的卷積單元如上圖所示,每個卷積操作后都接著一個BN操作和ReLU操作。在MobileNet中,由于3x3卷積核只應(yīng)用在depthwise convolution中,因此95%的計算量都集中在pointwise convolution 中的1x1卷積中。而對于caffe等采用矩陣運(yùn)算GEMM實(shí)現(xiàn)卷積的深度學(xué)習(xí)框架,1x1卷積無需進(jìn)行im2col操作,因此可以直接利用矩陣運(yùn)算加速庫進(jìn)行快速計算,從而提升了計算效率。

5.3 實(shí)驗(yàn)結(jié)果

表7 MobileNet與主流大模型在ImageNet上精度對比

上表顯示,MobileNet在保證精度不變的同時,能夠有效地減少計算操作次數(shù)和參數(shù)量,使得在移動端實(shí)時前向計算成為可能。

六、ShuffleNet

ShuffleNet是Face++今年提出了一篇用于移動端前向部署的網(wǎng)絡(luò)架構(gòu)。ShuffleNet基于MobileNet的group思想,將卷積操作限制到特定的輸入通道。而與之不同的是,ShuffleNet將輸入的group進(jìn)行打散,從而保證每個卷積核的感受野能夠分散到不同group的輸入中,增加了模型的學(xué)習(xí)能力。

6.1 設(shè)計思想

我們知道,卷積中的group操作能夠大大減少卷積操作的計算次數(shù),而這一改動帶來了速度增益和性能維持在MobileNet等文章中也得到了驗(yàn)證。然而group操作所帶來的另一個問題是:特定的濾波器僅對特定通道的輸入進(jìn)行作用,這就阻礙了通道之間的信息流傳遞,group數(shù)量越多,可以編碼的信息就越豐富,但每個group的輸入通道數(shù)量減少,因此可能造成單個卷積濾波器的退化,在一定程度上削弱了網(wǎng)絡(luò)了表達(dá)能力。

6.2 網(wǎng)絡(luò)架構(gòu)

在此篇工作中,網(wǎng)絡(luò)架構(gòu)的設(shè)計主要有以下幾個創(chuàng)新點(diǎn):

  • 提出了一個類似于ResNet的BottleNeck單元

借鑒ResNet的旁路分支思想,ShuffleNet也引入了類似的網(wǎng)絡(luò)單元。不同的是,在stride=2的單元中,用concat操作代替了add操作,用average pooling代替了1x1stride=2的卷積操作,有效地減少了計算量和參數(shù)。單元結(jié)構(gòu)如圖10所示。

  • 提出將1x1卷積采用group操作會得到更好的分類性能

在MobileNet中提過,1x1卷積的操作占據(jù)了約95%的計算量,所以作者將1x1也更改為group卷積,使得相比MobileNet的計算量大大減少。

  • 提出了核心的shuffle操作將不同group中的通道進(jìn)行打散,從而保證不同輸入通道之間的信息傳遞。

ShuffleNet的shuffle操作如圖11所示。

圖10 ShuffleNet網(wǎng)絡(luò)單元

圖11 不同group間的shuffle操作

6.3 實(shí)驗(yàn)結(jié)果

表8 ShuffleNet與MobileNet在ImageNet上精度對比 

上表顯示,相對于MobileNet,ShuffleNet的前向計算量不僅有效地得到了減少,而且分類錯誤率也有明顯提升,驗(yàn)證了網(wǎng)絡(luò)的可行性。

6.4 速度考量

作者在ARM平臺上對網(wǎng)絡(luò)效率進(jìn)行了驗(yàn)證,鑒于內(nèi)存讀取和線程調(diào)度等因素,作者發(fā)現(xiàn)理論上4x的速度提升對應(yīng)實(shí)際部署中約2.6x。作者給出了與原始AlexNet的速度對比,如下表。

表9 ShuffleNet與AlexNet在ARM平臺上速度對比 

結(jié)束語

近幾年來,除了學(xué)術(shù)界涌現(xiàn)的諸多CNN模型加速工作,工業(yè)界各大公司也推出了自己的移動端前向計算框架,如Google的Tensorflow、Facebook的caffe2以及蘋果今年剛推出的CoreML。相信結(jié)合不斷迭代優(yōu)化的網(wǎng)絡(luò)架構(gòu)和不斷發(fā)展的硬件計算加速技術(shù),未來深度學(xué)習(xí)在移動端的部署將不會是一個難題。

原文鏈接:https://cloud.tencent.com/community/article/678192

【本文是51CTO專欄作者“騰訊云技術(shù)社區(qū)”的原創(chuàng)稿件,轉(zhuǎn)載請通過51CTO聯(lián)系原作者獲取授權(quán)】

戳這里,看該作者更多好文

責(zé)任編輯:武曉燕 來源: 51CTO專欄
相關(guān)推薦

2024-10-12 10:57:39

2017-11-20 13:15:40

神經(jīng)網(wǎng)絡(luò)機(jī)器學(xué)習(xí)深度學(xué)習(xí)

2023-11-19 23:36:50

2023-03-13 14:41:22

機(jī)器學(xué)習(xí)算法

2025-08-05 09:09:00

AI訓(xùn)練模型

2024-08-05 14:36:17

大型語言模型量化

2025-04-16 02:30:00

2024-09-10 13:30:00

2017-08-04 10:53:30

回收算法JVM垃圾回收器

2024-09-06 12:52:59

2022-08-28 20:50:29

算法模型機(jī)器學(xué)習(xí)

2025-08-07 12:04:17

2020-05-07 20:52:01

入侵檢測響應(yīng)模型

2017-10-31 11:05:00

深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)壓縮和加速方法

2024-10-12 17:14:12

2019-01-31 09:33:50

CNN神經(jīng)網(wǎng)絡(luò)激活函數(shù)

2017-09-19 16:10:50

深度學(xué)習(xí)目標(biāo)檢測模型

2024-03-25 11:37:40

機(jī)器學(xué)習(xí)人工智能進(jìn)化算法

2024-03-11 09:37:01

模型圖片編輯

2024-07-10 10:19:26

點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號

а天堂8中文最新版在线官网| 久久精品国产亚洲av久| 91xxx在线观看| 激情文学综合丁香| 欧美成人亚洲成人| 你懂的在线观看网站| 亚洲欧美小说色综合小说一区| 国产三级精品视频| 91精品视频大全| 国产在线视频99| av永久不卡| 欧美白人最猛性xxxxx69交| 男人天堂网视频| 美女羞羞视频在线观看| 不卡一区二区在线| 国产日韩欧美另类| 好吊操这里只有精品| 日韩欧美二区| 日韩av在线资源| 一区二区三区国产好的精华液| 男人av在线播放| 亚洲色大成网站www久久九九| 极品日韩久久| 国产精品欧美亚洲| 久久夜色精品| 伊人情人综合网| 夜夜嗨av一区二区三区四季av| 久久精品99久久| 99国产在线播放| 日韩黄色免费电影| 性欧美在线看片a免费观看| 战狼4完整免费观看在线播放版| 都市激情久久| 91精品国模一区二区三区| 黄色免费观看视频网站| 综合久久2019| 国产精品福利电影一区二区三区四区| 久久99久久精品国产| 成人av一区二区三区在线观看| 蜜桃91丨九色丨蝌蚪91桃色| 欧美亚洲国产精品| 一区二区三区免费高清视频| 先锋资源久久| 中文字幕欧美日韩精品| 韩国三级视频在线观看| 欧美大陆国产| 欧美伊人久久大香线蕉综合69 | 亚洲欧美日韩一区二区三区在线观看| 日本不卡一区二区三区在线观看| 色哟哟国产精品色哟哟| 成人一区二区视频| 国产精品乱码一区二区三区| 精品毛片在线观看| 久草这里只有精品视频| 国产日本欧美视频| 中文字幕a级片| 男人的j进女人的j一区| 国产精品视频久久久久| 国产在线观看第一页| 视频一区国产视频| 日本精品视频在线播放| 欧美黄色一级大片| 久久婷婷久久| 国产精品久久久久av免费| 特级西西444www大胆免费看| 日本在线不卡一区| 国产精品视频99| 亚洲综合精品视频| 国产一区二区影院| 波多野结衣精品久久| www.黄色一片| 99国产精品99久久久久久| 精品一区久久| 欧美日韩影视| 国产精品免费看片| 一区二区三区四区欧美| 在线观看中文| 亚洲va韩国va欧美va| 男人揉女人奶房视频60分| 一根才成人网| 欧美日韩激情在线| 亚洲午夜激情影院| 成人爽a毛片| 日韩激情视频在线| 日韩免费成人av| 999久久久精品国产| 久久色精品视频| 免费中文字幕视频| 久久成人精品| 91在线|亚洲| 天堂av手机版| 国产精品网站在线| 日产精品久久久久久久蜜臀| av电影免费在线看| 欧美综合色免费| 亚洲免费观看在线| 精品国产乱码久久久久久蜜坠欲下 | 自拍视频一区| 麻豆国产精品va在线观看不卡| 精品无码人妻一区二区三区品| 久久激情网站| 1卡2卡3卡精品视频| 青青免费在线视频| 亚洲天天做日日做天天谢日日欢| 我的公把我弄高潮了视频| 精品3atv在线视频| 日韩美女天天操| 国产一区二区三区四区五区六区| 欧美激情一区| 国产精品三级美女白浆呻吟| 欧洲精品久久一区二区| 国产精品国产自产拍高清av| 97超碰在线人人| 国产资源一区| 亚洲欧美另类中文字幕| 欧美人与禽zozzo禽性配| 日韩国产成人精品| 国产亚洲一区在线播放| 成人免费在线| 欧美日韩一区在线| 亚洲熟妇无码av| 国产精品扒开腿做爽爽爽软件| 国产精品麻豆va在线播放| 丰满人妻熟女aⅴ一区| 国产精品护士白丝一区av| 国产l精品国产亚洲区久久| 国产视频网站一区二区三区| 国产亚洲成精品久久| 日本熟妇成熟毛茸茸| 国产乱对白刺激视频不卡| 少妇特黄a一区二区三区| 亚洲美女炮图| 亚洲第一中文字幕| 久久久久久久久久久97| 激情图区综合网| 亚洲五月六月| av成人亚洲| 亚洲三级免费看| 中文字幕一区二区三区精品| 国产成人精品免费| 中国人体摄影一区二区三区| 成人免费网站www网站高清| 国产视频丨精品|在线观看| 国产精品50页| 国产ts人妖一区二区| av中文字幕av| 成人亚洲精品| 久久伊人精品天天| 一区二区三区黄| 国产精品美女久久久久aⅴ国产馆| 久久久久久久久久福利| 免费看日本一区二区| 欧美亚洲成人精品| 青青草在线免费观看| 欧美日韩中文字幕| 美女爆乳18禁www久久久久久| 免费日韩一区二区| 久久久7777| 卡通欧美亚洲| 在线精品国产成人综合| 中文字幕av久久爽| 中文字幕日韩av资源站| 五月天六月丁香| 欧美1区视频| 国产高清在线一区| 色在线中文字幕| 亚洲美女性视频| 无码人妻精品一区二区三区不卡| 国产日韩精品一区二区三区 | 欧美大电影免费观看| 亚洲欧美三级伦理| 久草热在线观看| 成人欧美一区二区三区小说| 久国产精品视频| 欧美国产免费| 精品999在线观看| 99re66热这里只有精品4| 久久九九国产精品怡红院| 精品国产亚洲AV| 黄色精品在线看| 免费视频91蜜桃| 精品亚洲免费视频| 欧美黄网在线观看| 日韩a级大片| 国产美女精品免费电影| 免费在线看污片| 亚洲乱亚洲乱妇无码| 91欧美日韩麻豆精品| 一区二区三区在线观看国产| 欧美性xxxx图片| 精品一区二区久久久| 成人免费网站入口| 任你躁在线精品免费| 国产精品视频色| 成人性生交大片免费看在线播放| 亚洲精品一区中文| 国产精品视频一二区| 粉嫩av一区二区三区免费野| 人与动物性xxxx| av综合在线播放| 91aaa精品| 天堂久久一区二区三区| 男人天堂网站在线| 欧美精品久久久久久| 国产精品一区二区三区不卡| 91精品xxx在线观看| 另类少妇人与禽zozz0性伦| 日本韩国一区| 日韩欧美国产1| 亚洲系列在线观看| 欧美丝袜美女中出在线| 欧美黑人性猛交xxx| 久久精品亚洲一区二区三区浴池| 一区二区在线免费观看视频| 久久一区亚洲| 久久国产精品网| 91精品福利| 亚洲精美视频| 亚洲欧美日本伦理| 粉嫩精品一区二区三区在线观看| 91伊人久久| 91精品国产乱码久久久久久蜜臀| 麻豆传媒视频在线观看免费| 亚洲石原莉奈一区二区在线观看| 亚洲av无码片一区二区三区| 欧美日韩国产一区| 极品国产91在线网站| 亚洲国产成人av好男人在线观看| 国产免费美女视频| 国产欧美综合色| 免费黄色在线视频| 成人av在线一区二区三区| 亚洲男人天堂2021| 久久99精品久久久久久| 久久午夜夜伦鲁鲁一区二区| 午夜在线精品偷拍| 国产伦精品一区二区三区四区视频_ | 欧美free嫩15| 国产极品jizzhd欧美| 芒果视频成人app| 欧美最猛性xxxxx(亚洲精品)| 不卡视频观看| 久久久久久久久久国产精品| 午夜伦理在线视频| 欧美精品免费看| 香蕉成人app免费看片| 欧美理论电影在线播放| 污片在线免费观看| 欧美日韩福利视频| 色呦呦在线看| 久久久久中文字幕| 51精品在线| 欧美影院久久久| 老司机2019福利精品视频导航| 日韩av免费看网站| 欧美free嫩15| 91久久精品国产91久久性色| 国产亚洲字幕| ts人妖另类在线| 国语一区二区三区| 裸模一区二区三区免费| 精品久久综合| 26uuu成人| 欧美高清一区| 久久这里只有精品23| 亚洲视频1区| wwww.国产| 国产一区二区美女| 精品人妻二区中文字幕 | www在线观看免费视频| 国产视频一区在线播放| 永久免费av无码网站性色av| 中文字幕一区二区三区蜜月| 极品颜值美女露脸啪啪| 亚洲在线视频免费观看| 中日韩黄色大片| 色88888久久久久久影院按摩 | 九色porny视频在线观看| 欧美一区在线直播| 亚洲色图图片| 极品日韩久久| 久久中文字幕av| www.夜夜爱| 视频一区二区三区入口| 国产乱码一区二区三区四区| 成人一二三区视频| xxxx日本黄色| 亚洲黄色尤物视频| 欧美日韩综合一区二区三区| 在线成人av网站| 午夜影院免费体验区| 中文字幕免费精品一区高清| 精精国产xxxx视频在线中文版| 国产成人精品久久二区二区91| 国产一区一区| 欧美一卡2卡3卡4卡无卡免费观看水多多 | 日韩高清国产精品| 综合在线视频| 国产精品无码专区av在线播放| 韩国av一区二区三区四区| 亚洲男女在线观看| 亚洲欧洲日韩一区二区三区| 久久国产精品系列| 宅男在线国产精品| 亚洲av片一区二区三区| 欧美成人一区在线| 偷拍精品精品一区二区三区| 成人h视频在线观看| 清纯唯美日韩| 青青视频在线播放| 国产精品18久久久久久久久 | 亚洲电影影音先锋| 男人日女人bb视频| 粉嫩欧美一区二区三区高清影视| 亚洲ⅴ国产v天堂a无码二区| 亚洲一区二区三区美女| 中文字幕+乱码+中文乱码91| 日韩精品日韩在线观看| 午夜在线激情影院| 国产欧美日韩专区发布| 曰本一区二区三区视频| 亚洲色成人www永久在线观看 | www.555国产精品免费| 亚洲少妇最新在线视频| 成人a v视频| 日韩精品视频在线| www视频在线观看| 3d精品h动漫啪啪一区二区 | 99久久精品国产网站| 五月婷婷一区二区| 91精品福利在线一区二区三区 | 免费精品99久久国产综合精品应用| xf在线a精品一区二区视频网站| 精品无码久久久久| 日韩欧美中文字幕精品| 国产激情视频在线观看| 成人av在线亚洲| 日韩免费看片| 91激情视频在线| 国产午夜精品一区二区三区四区| 99热国产在线观看| 亚洲精品电影网| 免费在线小视频| 免费久久久一本精品久久区| 一本色道久久综合亚洲精品不| 无码国产69精品久久久久网站| 亚洲精品乱码久久久久久黑人| 国产免费不卡av| 欧美猛交免费看| 欧美午夜在线播放| 91免费版看片| 国产jizzjizz一区二区| 久久人人爽人人爽人人| 精品国产三级a在线观看| 92久久精品| 精选一区二区三区四区五区| 亚洲在线国产日韩欧美| 美女100%无挡| 欧美在线视频你懂得| 在线观看免费黄视频| 成人写真福利网| 国产精品99免费看| 一级特级黄色片| 色悠悠亚洲一区二区| aaa在线观看| 91麻豆国产精品| 欧美日韩综合| 老鸭窝一区二区| 欧美在线free| 成人高清免费在线| 国产日韩三区| 老司机精品久久| 成年人视频软件| 亚洲精品在线电影| 中文在线资源| 在线亚洲美日韩| 高清在线不卡av| 日韩中文字幕在线观看视频| 在线精品视频视频中文字幕| 日韩视频一二区| 黄色免费视频大全| 国产精品久久久久一区二区三区 | 日韩精品极品毛片系列视频| 成人日韩在线| 一区二区三区四区免费观看| 99九九99九九九视频精品| 波多野结衣一区二区三区四区| 久久夜精品香蕉| 亚洲欧洲av| 色婷婷综合在线观看| 欧美日韩国产精品| 午夜视频在线观看网站| 国产伦精品一区二区三区四区视频 | 久久久久久久999| 欧美亚洲国产精品久久| 免费在线观看日韩av| 色8久久精品久久久久久蜜| 日本小视频在线免费观看| 日本午夜精品一区二区| 国产精品18久久久久久久网站|