精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

人臉識(shí)別技術(shù)總結(jié):從傳統(tǒng)方法到深度學(xué)習(xí)

人工智能 人臉識(shí)別 深度學(xué)習(xí)
在這篇論文中,我們對(duì)流行的人臉識(shí)別方法進(jìn)行了全面且最新的文獻(xiàn)總結(jié),其中既包括傳統(tǒng)方法(基于幾何的方法、整體方法、基于特征的方法和混合方法),也有深度學(xué)習(xí)方法。

英國(guó)赫特福德大學(xué)與 GBG Plc 的研究者近日發(fā)布了一篇綜述論文,對(duì)人臉識(shí)別方法進(jìn)行了全面的梳理和總結(jié),其中涵蓋各種傳統(tǒng)方法和如今風(fēng)頭正盛的深度學(xué)習(xí)方法。機(jī)器之心重點(diǎn)編譯介紹了其中的深度學(xué)習(xí)方法部分,更多有關(guān)傳統(tǒng)人臉識(shí)別方法的內(nèi)容請(qǐng)參閱原論文。

人臉識(shí)別技術(shù)全面總結(jié):從傳統(tǒng)方法到深度學(xué)習(xí)

論文地址:https://arxiv.org/abs/1811.00116

自七十年代以來,人臉識(shí)別已經(jīng)成為了計(jì)算機(jī)視覺和生物識(shí)別領(lǐng)域被研究最多的主題之一。基于人工設(shè)計(jì)的特征和傳統(tǒng)機(jī)器學(xué)習(xí)技術(shù)的傳統(tǒng)方法近來已被使用非常大型的數(shù)據(jù)集訓(xùn)練的深度神經(jīng)網(wǎng)絡(luò)取代。在這篇論文中,我們對(duì)流行的人臉識(shí)別方法進(jìn)行了全面且最新的文獻(xiàn)總結(jié),其中既包括傳統(tǒng)方法(基于幾何的方法、整體方法、基于特征的方法和混合方法),也有深度學(xué)習(xí)方法。

引言

人臉識(shí)別是指能夠識(shí)別或驗(yàn)證圖像或視頻中的主體的身份的技術(shù)。首個(gè)人臉識(shí)別算法誕生于七十年代初 [1,2]。自那以后,它們的準(zhǔn)確度已經(jīng)大幅提升,現(xiàn)在相比于指紋或虹膜識(shí)別 [3] 等傳統(tǒng)上被認(rèn)為更加穩(wěn)健的生物識(shí)別方法,人們往往更偏愛人臉識(shí)別。讓人臉識(shí)別比其它生物識(shí)別方法更受歡迎的一大不同之處是人臉識(shí)別本質(zhì)上是非侵入性的。比如,指紋識(shí)別需要用戶將手指按在傳感器上,虹膜識(shí)別需要用戶與相機(jī)靠得很近,語音識(shí)別則需要用戶大聲說話。相對(duì)而言,現(xiàn)代人臉識(shí)別系統(tǒng)僅需要用戶處于相機(jī)的視野內(nèi)(假設(shè)他們與相機(jī)的距離也合理)。這使得人臉識(shí)別成為了對(duì)用戶最友好的生物識(shí)別方法。這也意味著人臉識(shí)別的潛在應(yīng)用范圍更廣,因?yàn)樗部杀徊渴鹪谟脩舨黄谕c系統(tǒng)合作的環(huán)境中,比如監(jiān)控系統(tǒng)中。人臉識(shí)別的其它常見應(yīng)用還包括訪問控制、欺詐檢測(cè)、身份認(rèn)證和社交媒體。

當(dāng)被部署在無約束條件的環(huán)境中時(shí),由于人臉圖像在現(xiàn)實(shí)世界中的呈現(xiàn)具有高度的可變性(這類人臉圖像通常被稱為自然人臉(faces in-the-wild)),所以人臉識(shí)別也是最有挑戰(zhàn)性的生物識(shí)別方法之一。人臉圖像可變的地方包括頭部姿勢(shì)、年齡、遮擋、光照條件和人臉表情。圖 1 給出了這些情況的示例。

人臉識(shí)別技術(shù)全面總結(jié):從傳統(tǒng)方法到深度學(xué)習(xí)

圖 1:在自然人臉圖像中找到的典型變化。(a)頭部姿勢(shì),(b)年齡,(c)光照,(d)面部表情,(e)遮擋。

人臉識(shí)別技術(shù)這些年已經(jīng)發(fā)生了重大的變化。傳統(tǒng)方法依賴于人工設(shè)計(jì)的特征(比如邊和紋理描述量)與機(jī)器學(xué)習(xí)技術(shù)(比如主成分分析、線性判別分析或支持向量機(jī))的組合。人工設(shè)計(jì)在無約束環(huán)境中對(duì)不同變化情況穩(wěn)健的特征是很困難的,這使得過去的研究者側(cè)重研究針對(duì)每種變化類型的專用方法,比如能應(yīng)對(duì)不同年齡的方法 [4,5]、能應(yīng)對(duì)不同姿勢(shì)的方法 [6]、能應(yīng)對(duì)不同光照條件的方法 [7,8] 等。近段時(shí)間,傳統(tǒng)的人臉識(shí)別方法已經(jīng)被基于卷積神經(jīng)網(wǎng)絡(luò)(CNN)的深度學(xué)習(xí)方法接替。深度學(xué)習(xí)方法的主要優(yōu)勢(shì)是它們可用非常大型的數(shù)據(jù)集進(jìn)行訓(xùn)練,從而學(xué)習(xí)到表征這些數(shù)據(jù)的最佳特征。網(wǎng)絡(luò)上可用的大量自然人臉圖像已讓研究者可收集到大規(guī)模的人臉數(shù)據(jù)集 [9-15],這些圖像包含了真實(shí)世界中的各種變化情況。使用這些數(shù)據(jù)集訓(xùn)練的基于 CNN 的人臉識(shí)別方法已經(jīng)實(shí)現(xiàn)了非常高的準(zhǔn)確度,因?yàn)樗鼈兡軌驅(qū)W到人臉圖像中穩(wěn)健的特征,從而能夠應(yīng)對(duì)在訓(xùn)練過程中使用的人臉圖像所呈現(xiàn)出的真實(shí)世界變化情況。此外,深度學(xué)習(xí)方法在計(jì)算機(jī)視覺方面的不斷普及也在加速人臉識(shí)別研究的發(fā)展,因?yàn)? CNN 也正被用于解決許多其它計(jì)算機(jī)視覺任務(wù),比如目標(biāo)檢測(cè)和識(shí)別、分割、光學(xué)字符識(shí)別、面部表情分析、年齡估計(jì)等。

人臉識(shí)別系統(tǒng)通常由以下構(gòu)建模塊組成:

  • 人臉檢測(cè)。人臉檢測(cè)器用于尋找圖像中人臉的位置,如果有人臉,就返回包含每張人臉的邊界框的坐標(biāo)。如圖 3a 所示。
  • 人臉對(duì)齊。人臉對(duì)齊的目標(biāo)是使用一組位于圖像中固定位置的參考點(diǎn)來縮放和裁剪人臉圖像。這個(gè)過程通常需要使用一個(gè)特征點(diǎn)檢測(cè)器來尋找一組人臉特征點(diǎn),在簡(jiǎn)單的 2D 對(duì)齊情況中,即為尋找最適合參考點(diǎn)的最佳仿射變換。圖 3b 和 3c 展示了兩張使用了同一組參考點(diǎn)對(duì)齊后的人臉圖像。更復(fù)雜的 3D 對(duì)齊算法(如 [16])還能實(shí)現(xiàn)人臉正面化,即將人臉的姿勢(shì)調(diào)整到正面向前。
  • 人臉表征。在人臉表征階段,人臉圖像的像素值會(huì)被轉(zhuǎn)換成緊湊且可判別的特征向量,這也被稱為模板(template)。理想情況下,同一個(gè)主體的所有人臉都應(yīng)該映射到相似的特征向量。
  • 人臉匹配。在人臉匹配構(gòu)建模塊中,兩個(gè)模板會(huì)進(jìn)行比較,從而得到一個(gè)相似度分?jǐn)?shù),該分?jǐn)?shù)給出了兩者屬于同一個(gè)主體的可能性。

人臉識(shí)別技術(shù)全面總結(jié):從傳統(tǒng)方法到深度學(xué)習(xí) 

圖 2:人臉識(shí)別的構(gòu)建模塊。

很多人認(rèn)為人臉表征是人臉識(shí)別系統(tǒng)中最重要的組件,這也是本論文第二節(jié)所關(guān)注的重點(diǎn)。 

人臉識(shí)別技術(shù)全面總結(jié):從傳統(tǒng)方法到深度學(xué)習(xí) 

圖 3:(a)人臉檢測(cè)器找到的邊界框。(b)和(c):對(duì)齊后的人臉和參考點(diǎn)。

深度學(xué)習(xí)方法

卷積神經(jīng)網(wǎng)絡(luò)(CNN)是人臉識(shí)別方面最常用的一類深度學(xué)習(xí)方法。深度學(xué)習(xí)方法的主要優(yōu)勢(shì)是可用大量數(shù)據(jù)來訓(xùn)練,從而學(xué)到對(duì)訓(xùn)練數(shù)據(jù)中出現(xiàn)的變化情況穩(wěn)健的人臉表征。這種方法不需要設(shè)計(jì)對(duì)不同類型的類內(nèi)差異(比如光照、姿勢(shì)、面部表情、年齡等)穩(wěn)健的特定特征,而是可以從訓(xùn)練數(shù)據(jù)中學(xué)到它們。深度學(xué)習(xí)方法的主要短板是它們需要使用非常大的數(shù)據(jù)集來訓(xùn)練,而且這些數(shù)據(jù)集中需要包含足夠的變化,從而可以泛化到未曾見過的樣本上。幸運(yùn)的是,一些包含自然人臉圖像的大規(guī)模人臉數(shù)據(jù)集已被公開 [9-15],可被用來訓(xùn)練 CNN 模型。除了學(xué)習(xí)判別特征,神經(jīng)網(wǎng)絡(luò)還可以降維,并可被訓(xùn)練成分類器或使用度量學(xué)習(xí)方法。CNN 被認(rèn)為是端到端可訓(xùn)練的系統(tǒng),無需與任何其它特定方法結(jié)合。

用于人臉識(shí)別的 CNN 模型可以使用不同的方法來訓(xùn)練。其中之一是將該問題當(dāng)作是一個(gè)分類問題,訓(xùn)練集中的每個(gè)主體都對(duì)應(yīng)一個(gè)類別。訓(xùn)練完之后,可以通過去除分類層并將之前層的特征用作人臉表征而將該模型用于識(shí)別不存在于訓(xùn)練集中的主體 [99]。在深度學(xué)習(xí)文獻(xiàn)中,這些特征通常被稱為瓶頸特征(bottleneck features)。在這第一個(gè)訓(xùn)練階段之后,該模型可以使用其它技術(shù)來進(jìn)一步訓(xùn)練,以為目標(biāo)應(yīng)用優(yōu)化瓶頸特征(比如使用聯(lián)合貝葉斯 [9] 或使用一個(gè)不同的損失函數(shù)來微調(diào)該 CNN 模型 [10])。另一種學(xué)習(xí)人臉表征的常用方法是通過優(yōu)化配對(duì)的人臉 [100,101] 或人臉三元組 [102] 之間的距離度量來直接學(xué)習(xí)瓶頸特征。

使用神經(jīng)網(wǎng)絡(luò)來做人臉識(shí)別并不是什么新思想。1997 年就有研究者為人臉檢測(cè)、眼部定位和人臉識(shí)別提出了一種名為「基于概率決策的神經(jīng)網(wǎng)絡(luò)(PBDNN)」[103] 的早期方法。這種人臉識(shí)別 PDBNN 被分成了每一個(gè)訓(xùn)練主體一個(gè)全連接子網(wǎng)絡(luò),以降低隱藏單元的數(shù)量和避免過擬合。研究者使用密度和邊特征分別訓(xùn)練了兩個(gè) PBDNN,然后將它們的輸出組合起來得到最終分類決定。另一種早期方法 [104] 則組合使用了自組織映射(SOM)和卷積神經(jīng)網(wǎng)絡(luò)。自組織映射 [105] 是一類以無監(jiān)督方式訓(xùn)練的神經(jīng)網(wǎng)絡(luò),可將輸入數(shù)據(jù)映射到更低維的空間,同時(shí)也能保留輸入空間的拓?fù)湫再|(zhì)(即在原始空間中相近的輸入在輸出空間中也相近)。注意,這兩種早期方法都不是以端到端的方式訓(xùn)練的([103] 中使用了邊特征,[104] 中使用了 SOM),而且提出的神經(jīng)網(wǎng)絡(luò)架構(gòu)也都很淺。[100] 中提出了一種端到端的人臉識(shí)別 CNN。這種方法使用了一種孿生式架構(gòu),并使用了一個(gè)對(duì)比損失函數(shù) [106] 來進(jìn)行訓(xùn)練。這個(gè)對(duì)比損失使用了一種度量學(xué)習(xí)流程,其目標(biāo)是最小化對(duì)應(yīng)同一主體的特征向量對(duì)之間的距離,同時(shí)最大化對(duì)應(yīng)不同主體的特征向量對(duì)之間的距離。該方法中使用的 CNN 架構(gòu)也很淺,且訓(xùn)練數(shù)據(jù)集也較小。

上面提到的方法都未能取得突破性的成果,主要原因是使用了能力不足的網(wǎng)絡(luò),且訓(xùn)練時(shí)能用的數(shù)據(jù)集也相對(duì)較小。直到這些模型得到擴(kuò)展并使用大量數(shù)據(jù) [107] 訓(xùn)練后,用于人臉識(shí)別的首個(gè)深度學(xué)習(xí)方法 [99,9] 才達(dá)到了當(dāng)前最佳水平。尤其值得一提的是 Facebook 的 DeepFace [99],這是最早的用于人臉識(shí)別的 CNN 方法之一,其使用了一個(gè)能力很強(qiáng)的模型,在 LFW 基準(zhǔn)上實(shí)現(xiàn)了 97.35% 的準(zhǔn)確度,將之前最佳表現(xiàn)的錯(cuò)誤率降低了 27%。研究者使用 softmax 損失和一個(gè)包含 440 萬張人臉(來自 4030 個(gè)主體)的數(shù)據(jù)集訓(xùn)練了一個(gè) CNN。本論文有兩個(gè)全新的貢獻(xiàn):(1)一個(gè)基于明確的 3D 人臉建模的高效的人臉對(duì)齊系統(tǒng);(2)一個(gè)包含局部連接的層的 CNN 架構(gòu) [108,109],這些層不同于常規(guī)的卷積層,可以從圖像中的每個(gè)區(qū)域?qū)W到不同的特征。在那同時(shí),DeepID 系統(tǒng) [9] 通過在圖塊(patch)上訓(xùn)練 60 個(gè)不同的 CNN 而得到了相近的結(jié)果,這些圖塊包含十個(gè)區(qū)域、三種比例以及 RGB 或灰度通道。在測(cè)試階段,會(huì)從每個(gè)圖塊提取出 160 個(gè)瓶頸特征,加上其水平翻轉(zhuǎn)后的情況,可形成一個(gè) 19200 維的特征向量(160×2×60)。類似于 [99],新提出的 CNN 架構(gòu)也使用了局部連接的層。其驗(yàn)證結(jié)果是通過在這種由 CNN 提取出的 19200 維特征向量上訓(xùn)練一個(gè)聯(lián)合貝葉斯分類器 [48] 得到的。訓(xùn)練該系統(tǒng)所使用的數(shù)據(jù)集包含 202599 張人臉圖像,來自 10177 位名人 [9]。

對(duì)于基于 CNN 的人臉識(shí)別方法,影響準(zhǔn)確度的因素主要有三個(gè):訓(xùn)練數(shù)據(jù)、CNN 架構(gòu)和損失函數(shù)。因?yàn)樵诖蠖鄶?shù)深度學(xué)習(xí)應(yīng)用中,都需要大訓(xùn)練集來防止過擬合。一般而言,為分類任務(wù)訓(xùn)練的 CNN 的準(zhǔn)確度會(huì)隨每類的樣本數(shù)量的增長(zhǎng)而提升。這是因?yàn)楫?dāng)類內(nèi)差異更多時(shí),CNN 模型能夠?qū)W習(xí)到更穩(wěn)健的特征。但是,對(duì)于人臉識(shí)別,我們感興趣的是提取出能夠泛化到訓(xùn)練集中未曾出現(xiàn)過的主體上的特征。因此,用于人臉識(shí)別的數(shù)據(jù)集還需要包含大量主體,這樣模型也能學(xué)習(xí)到更多類間差異。[110] 研究了數(shù)據(jù)集中主體的數(shù)量對(duì)人臉識(shí)別準(zhǔn)確度的影響。在這項(xiàng)研究中,首先以降序形式按照每個(gè)主體的圖像數(shù)量對(duì)一個(gè)大數(shù)據(jù)集進(jìn)行了排序。然后,研究者通過逐漸增大主體數(shù)量而使用訓(xùn)練數(shù)據(jù)的不同子集訓(xùn)練了一個(gè) CNN。當(dāng)使用了圖像數(shù)量最多的 10000 個(gè)主體進(jìn)行訓(xùn)練時(shí),得到的準(zhǔn)確度是最高的。增加更多主體會(huì)降低準(zhǔn)確度,因?yàn)槊總€(gè)額外主體可用的圖像非常少。另一項(xiàng)研究 [111] 研究了更寬度的數(shù)據(jù)集更好,還是更深度的數(shù)據(jù)集更好(如果一個(gè)數(shù)據(jù)集包含更多主體,則認(rèn)為它更寬;類似地,如果每個(gè)主體包含的圖像更多,則認(rèn)為它更深)。這項(xiàng)研究總結(jié)到:如果圖像數(shù)量相等,則更寬的數(shù)據(jù)集能得到更好的準(zhǔn)確度。研究者認(rèn)為這是因?yàn)楦鼘挾鹊臄?shù)據(jù)集包含更多類間差異,因而能更好地泛化到未曾見過的主體上。表 1 展示了某些最常用于訓(xùn)練人臉識(shí)別 CNN 的公開數(shù)據(jù)集。

人臉識(shí)別技術(shù)全面總結(jié):從傳統(tǒng)方法到深度學(xué)習(xí)

表 1:公開的大規(guī)模人臉數(shù)據(jù)集。

用于人臉識(shí)別的 CNN 架構(gòu)從那些在 ImageNet 大規(guī)模視覺識(shí)別挑戰(zhàn)賽(ILSVRC)上表現(xiàn)優(yōu)異的架構(gòu)上取得了很多靈感。舉個(gè)例子,[11] 中使用了一個(gè)帶有 16 層的 VGG 網(wǎng)絡(luò) [112] 版本,[10] 中則使用了一個(gè)相似但更小的網(wǎng)絡(luò)。[102] 中探索了兩種不同類型的 CNN 架構(gòu):VGG 風(fēng)格的網(wǎng)絡(luò) [112] 和 GoogleNet 風(fēng)格的網(wǎng)絡(luò) [113]。即使這兩種網(wǎng)絡(luò)實(shí)現(xiàn)了相當(dāng)?shù)臏?zhǔn)確度,但 GoogleNet 風(fēng)格的網(wǎng)絡(luò)的參數(shù)數(shù)量少 20 倍。更近段時(shí)間,殘差網(wǎng)絡(luò)(ResNet)[114] 已經(jīng)成為了很多目標(biāo)識(shí)別任務(wù)的最受偏愛的選擇,其中包括人臉識(shí)別 [115-121]。ResNet 的主要?jiǎng)?chuàng)新點(diǎn)是引入了一種使用捷徑連接的構(gòu)建模塊來學(xué)習(xí)殘差映射,如圖 7 所示。捷徑連接的使用能讓研究者訓(xùn)練更深度的架構(gòu),因?yàn)樗鼈冇兄诳鐚拥男畔⒘鲃?dòng)。[121] 對(duì)不同的 CNN 架構(gòu)進(jìn)行了全面的研究。在準(zhǔn)確度、速度和模型大小之間的最佳權(quán)衡是使用帶有一個(gè)殘差模塊(類似于 [122] 中提出的那種)的 100 層 ResNet 得到的。

人臉識(shí)別技術(shù)全面總結(jié):從傳統(tǒng)方法到深度學(xué)習(xí)

圖 7:[114] 中提出的原始的殘差模塊。

選擇用于訓(xùn)練 CNN 方法的損失函數(shù)已經(jīng)成為近來人臉識(shí)別最活躍的研究領(lǐng)域。即使使用 softmax 損失訓(xùn)練的 CNN 已經(jīng)非常成功 [99,9,10,123],但也有研究者認(rèn)為使用這種損失函數(shù)無法很好地泛化到訓(xùn)練集中未出現(xiàn)過的主體上。這是因?yàn)?softmax 損失有助于學(xué)習(xí)能增大類間差異的特征(以便在訓(xùn)練集中區(qū)別不同的類),但不一定會(huì)降低類內(nèi)差異。研究者已經(jīng)提出了一些能緩解這一問題的方法。優(yōu)化瓶頸特征的一種簡(jiǎn)單方法是使用判別式子空間方法,比如聯(lián)合貝葉斯 [48],就像 [9,124,125,126,10,127] 中所做的那樣。另一種方法是使用度量學(xué)習(xí)。比如,[100,101] 中使用了配對(duì)的對(duì)比損失來作為唯一的監(jiān)督信號(hào),[124-126] 中還結(jié)合使用了分類損失。人臉識(shí)別方面最常用的度量學(xué)習(xí)方法是三元組損失函數(shù) [128],最早在 [102] 中被用于人臉識(shí)別任務(wù)。三元組損失的目標(biāo)是以一定余量分開正例對(duì)之間的距離和負(fù)例對(duì)之間的距離。從數(shù)學(xué)形式上講,對(duì)于每個(gè)三元組 i,需要滿足以下條件 [102]:

人臉識(shí)別技術(shù)全面總結(jié):從傳統(tǒng)方法到深度學(xué)習(xí)

其中 x_a 是錨圖像,x_p 是同一主體的圖像,x_n 是另一個(gè)不同主體的圖像,f 是模型學(xué)習(xí)到的映射關(guān)系,α 施加在正例對(duì)和負(fù)例對(duì)距離之間的余量。在實(shí)踐中,使用三元組損失訓(xùn)練的 CNN 的收斂速度比使用 softmax 的慢,這是因?yàn)樾枰罅咳M(或?qū)Ρ葥p失中的配對(duì))才能覆蓋整個(gè)訓(xùn)練集。盡管這個(gè)問題可以通過在訓(xùn)練階段選擇困難的三元組(即違反余量條件的三元組)來緩解 [102],但常見的做法是在第一個(gè)訓(xùn)練階段使用 softmax 損失訓(xùn)練,在第二個(gè)訓(xùn)練階段使用三元組損失來對(duì)瓶頸特征進(jìn)行調(diào)整 [11,129,130]。研究者們已經(jīng)提出了三元組損失的一些變體。比如 [129] 中使用了點(diǎn)積作為相似度度量,而不是歐幾里德距離;[130] 中提出了一種概率式三元組損失;[131,132] 中提出了一種修改版的三元組損失,它也能最小化正例和負(fù)例分?jǐn)?shù)分布的標(biāo)準(zhǔn)差。用于學(xué)習(xí)判別特征的另一種損失函數(shù)是 [133] 中提出的中心損失(centre loss)。中心損失的目標(biāo)是最小化瓶頸特征與它們對(duì)應(yīng)類別的中心之間的距離。通過使用 softmax 損失和中心損失進(jìn)行聯(lián)合訓(xùn)練,結(jié)果表明 CNN 學(xué)習(xí)到的特征能夠有效增大類間差異(softmax 損失)和降低類內(nèi)個(gè)體差異(中心損失)。相比于對(duì)比損失和三元組損失,中心損失的優(yōu)點(diǎn)是更高效和更容易實(shí)現(xiàn),因?yàn)樗恍枰谟?xùn)練過程中構(gòu)建配對(duì)或三元組。另一種相關(guān)的度量學(xué)習(xí)方法是 [134] 中提出的范圍損失(range loss),這是為改善使用不平衡數(shù)據(jù)集的訓(xùn)練而提出的。范圍損失有兩個(gè)組件。類內(nèi)的損失組件是最小化同一類樣本之間的 k-最大距離,而類間的損失組件是最大化每個(gè)訓(xùn)練批中最近的兩個(gè)類中心之間的距離。通過使用這些極端案例,范圍損失為每個(gè)類都使用同樣的信息,而不管每個(gè)類別中有多少樣本可用。類似于中心損失,范圍損失需要與 softmax 損失結(jié)合起來以避免損失降至零 [133]。

當(dāng)結(jié)合不同的損失函數(shù)時(shí),會(huì)出現(xiàn)一個(gè)困難,即尋找每一項(xiàng)之間的正確平衡。最近一段時(shí)間,已有研究者提出了幾種修改 softmax 損失的方法,這樣它無需與其它損失結(jié)合也能學(xué)習(xí)判別特征。一種已被證明可以增加瓶頸特征的判別能力的方法是特征歸一化 [115,118]。比如,[115] 提出歸一化特征以具有單位 L2 范數(shù),[118] 提出歸一化特征以具有零均值和單位方差。一個(gè)成功的方法已經(jīng)在 softmax 損失中每類之間的決策邊界中引入了一個(gè)余量 [135]。為了簡(jiǎn)單,我們介紹一下使用 softmax 損失進(jìn)行二元分類的情況。在這種情況下,每類之間的決策邊界(如果偏置為零)可由下式給定:

人臉識(shí)別技術(shù)全面總結(jié):從傳統(tǒng)方法到深度學(xué)習(xí)

其中 x 是特征向量,W_1 和 W_2 是對(duì)應(yīng)每類的權(quán)重,θ_1 和 θ_2 是 x 分別與 W_1 和 W_2 之間的角度。通過在上式中引入一個(gè)乘法余量,這兩個(gè)決策邊界可以變得更加嚴(yán)格:

人臉識(shí)別技術(shù)全面總結(jié):從傳統(tǒng)方法到深度學(xué)習(xí)

如圖 8 所示,這個(gè)余量可以有效地增大類別之間的區(qū)分程度以及各自類別之內(nèi)的緊湊性。根據(jù)將該余量整合進(jìn)損失的方式,研究者們已經(jīng)提出了多種可用方法 [116,119-121]。比如 [116] 中對(duì)權(quán)重向量進(jìn)行了歸一化以具有單位范數(shù),這樣使得決策邊界僅取決于角度 θ_1 和 θ_2。[119,120] 中則提出了一種加性余弦余量。相比于乘法余量 [135,116],加性余量更容易實(shí)現(xiàn)和優(yōu)化。在這項(xiàng)工作中,除了歸一化權(quán)重向量,特征向量也如 [115] 中一樣進(jìn)行了歸一化和比例調(diào)整。[121] 中提出了另一種加性余量,它既有 [119,120] 那樣的優(yōu)點(diǎn),還有更好的幾何解釋方式,因?yàn)檫@個(gè)余量是加在角度上的,而不是余弦上。表 2 總結(jié)了有余量的 softmax 損失的不同變體的決策邊界。這些方法是人臉識(shí)別領(lǐng)域的當(dāng)前最佳。

人臉識(shí)別技術(shù)全面總結(jié):從傳統(tǒng)方法到深度學(xué)習(xí)

圖 8:在兩個(gè)類別之間的決策邊界中引入一個(gè)余量 m 的效果。(a)softmax 損失,(b)有余量的 softmax 損失。

人臉識(shí)別技術(shù)全面總結(jié):從傳統(tǒng)方法到深度學(xué)習(xí)

表 2:有余量的 softmax 損失的不同變體的決策邊界。注意這些決策邊界針對(duì)的是二元分類案例中的類別 1。 

 

責(zé)任編輯:龐桂玉 來源: 今日頭條
相關(guān)推薦

2019-02-13 19:20:12

人臉識(shí)別深度學(xué)習(xí)人工智能

2020-11-18 09:43:29

人臉識(shí)別AI人工智能

2020-04-10 15:05:09

深度學(xué)習(xí)人工智能蒸餾

2017-08-30 09:20:47

深度學(xué)習(xí)語音合成Siri

2021-08-06 09:30:34

人工智能AI人臉識(shí)別

2017-04-14 08:58:55

深度學(xué)習(xí)感知機(jī)深度網(wǎng)絡(luò)

2021-03-29 15:13:23

深度學(xué)習(xí)人臉解鎖算法

2024-07-02 10:28:59

2025-01-20 08:00:00

圖像增強(qiáng)深度學(xué)習(xí)AI

2021-02-03 14:43:40

人工智能人臉識(shí)別

2022-06-16 21:01:32

人臉識(shí)別人工智能生物識(shí)別

2021-04-12 14:40:50

人臉識(shí)別面部識(shí)別人工智能

2025-01-16 10:11:58

2024-07-17 09:03:56

2020-12-23 08:29:08

人臉識(shí)別AI人工智能

2021-07-01 09:32:14

人臉識(shí)別AI人工智能

2024-09-30 06:04:02

人臉識(shí)別Python機(jī)器學(xué)習(xí)

2017-08-13 10:22:44

支付寶深度學(xué)習(xí)人臉識(shí)別

2020-11-11 07:25:08

人臉識(shí)別AI人工智能

2017-05-27 14:00:06

深度學(xué)習(xí)人臉建模
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)

国产精品视频一区二区三区不卡| 久久人人精品| 亚洲电影在线观看| 黄色片久久久久| 在线观看免费黄视频| 国产原创一区二区| 91国自产精品中文字幕亚洲| 日本视频在线免费| 精品伊人久久久| 欧美视频精品在线| 大陆av在线播放| 最新国产在线观看| eeuss影院一区二区三区 | 国产美女高潮在线观看| 国产蜜臀av在线一区二区三区| y111111国产精品久久婷婷| 欧美性猛交xxxx乱大交hd| 欧美另类综合| 日韩在线视频国产| 国产精品无码永久免费不卡| 成人影院网站ww555久久精品| 狠狠色香婷婷久久亚洲精品| 日韩精品久久一区二区| 91精品大全| 91蜜桃视频在线| 91久久久久久| 中文字幕免费在线看| 免费久久99精品国产自在现线| 久久99久国产精品黄毛片入口| 91香蕉国产视频| 国产日产一区| 日韩精品小视频| 欧美大喷水吹潮合集在线观看| 韩国三级成人在线| 欧美日韩国产在线播放网站| 日韩av播放器| 中文字幕在线官网| 五月天亚洲婷婷| 日本男女交配视频| 丝袜美腿av在线| 亚洲人一二三区| 伊人久久大香线蕉成人综合网| 国产中文字幕在线观看| 久久久久久**毛片大全| 欧美国产二区| 视频二区在线| 久久综合色综合88| 欧美日韩另类综合| 三级视频网站在线| 97精品国产97久久久久久久久久久久| 国产精品一区二区三区在线| 黄色av网站免费在线观看| 成人性生交大片免费看中文| 国产精品久久久久久久久久久久午夜片 | 国产真实乱人偷精品视频| 欧美日韩成人| 欧美国产精品va在线观看| 91精品国产高清一区二区三蜜臀| 亚洲国产精品久久久久蝴蝶传媒| 久久久国产视频91| 日韩黄色免费观看| 亚洲成人资源| 欧美有码在线观看视频| 国产精品久久久久久久久久精爆| 久久久久久网| 91精品久久久久久久久久入口| 在线观看亚洲一区二区| 精品一区免费av| 99九九视频| 亚洲欧美日韩动漫| 亚洲国产成人私人影院tom | av成人天堂| 国产成人+综合亚洲+天堂| 国产情侣免费视频| 国产一区二区三区久久久| 99久久伊人精品影院| 日韩一卡二卡在线| 国产日本欧美一区二区| 日韩第一页在线观看| 国产精品国精产品一二| 一本色道久久综合狠狠躁的推荐 | 亚洲欧美成人在线| 懂色av粉嫩av蜜臀av一区二区三区| 中文字幕av亚洲精品一部二部| 久久久之久亚州精品露出| 台湾佬中文在线| 国产尤物一区二区| 国产精品手机在线| 91亚洲精选| 一个色综合av| 亚洲视频在线观看一区二区三区| 综合久久伊人| 亚洲精品成人久久电影| 亚洲一级理论片| 精品动漫3d一区二区三区免费| 国产精品扒开腿做| 欧美一级性视频| 中文字幕二三区不卡| 六月婷婷在线视频| 国产精品伦一区二区| 亚洲精品720p| 中国一级片在线观看| 香蕉视频成人在线观看| 91传媒视频在线观看| 久久天堂电影| 午夜日韩在线电影| 久久精品亚洲天堂| 国产亚洲一区| 97精品免费视频| 91丨九色丨蝌蚪丨对白| 久久免费视频色| 加勒比成人在线| 亚洲在线资源| 在线精品国产成人综合| 国产精品自拍99| 国产黄人亚洲片| 亚洲精品一卡二卡三卡四卡| 在线观看特色大片免费视频| 欧美sm美女调教| 乱老熟女一区二区三区| 日韩精品欧美精品| 精品日本一区二区| 国模雨婷捆绑高清在线| 欧美一级电影网站| 制服丨自拍丨欧美丨动漫丨| 日韩制服丝袜先锋影音| 精品视频在线观看| а_天堂中文在线| 欧美成人bangbros| 少妇影院在线观看| 狠狠v欧美v日韩v亚洲ⅴ| 亚洲国产精品www| 成人影院网站| 亚洲人高潮女人毛茸茸| 男人日女人网站| 91麻豆国产香蕉久久精品| 国产69精品久久久久久久| 一区二区视频| 欧美日韩成人在线观看| 国产激情久久久久久熟女老人av| 中文字幕五月欧美| 日韩在线不卡一区| 欧美黄色录像片| 国产日韩av在线播放| chinese偷拍一区二区三区| 欧日韩精品视频| 影音先锋男人在线| 久久精品国产99| 中文字幕精品—区二区日日骚| 亚洲伦理网站| 久久国产视频网站| www.精品久久| 亚洲成a人片在线观看中文| 国产精品成人免费一区久久羞羞| 激情另类综合| 久久久久久久免费| 精品3atv在线视频| 日韩在线免费观看视频| 国产精品亚洲lv粉色| 亚洲黄色免费网站| 亚洲色偷偷色噜噜狠狠99网| 亚洲国产一区二区三区a毛片| 精品久久精品久久| 韩国女主播一区二区| 色天天综合狠狠色| 国产高清第一页| 亚洲sss视频在线视频| av无码av天天av天天爽| 日本一区中文字幕| 自拍偷拍99| 大香伊人久久精品一区二区| 欧美在线www| wwwww在线观看免费视频| 日韩一区二区三区免费看 | 久热国产在线| 欧美成人a∨高清免费观看| 日韩免费黄色片| 国产欧美一区二区精品性色| 亚洲一级片av| 99热在线精品观看| 自拍偷拍一区二区三区| 欧美电影在线观看免费| 国产精品男人的天堂| 制服丝袜在线播放| 亚洲美女激情视频| av网站在线免费看| 欧美三级免费观看| 国产免费一区二区三区四区| 99re热视频这里只精品| 99re精彩视频| 亚洲精品黄色| 黄瓜视频免费观看在线观看www| 精品国产导航| 亚洲www视频| 小视频免费在线观看| 美女少妇精品视频| 邻居大乳一区二区三区| 欧美大肚乱孕交hd孕妇| 久久午夜鲁丝片| 五月婷婷久久综合| 成人免费视频国产免费观看| 久久久久久久久蜜桃| 亚洲少妇中文字幕| 精品影院一区二区久久久| 成人黄色片视频| 欧美三区不卡| 宅男在线精品国产免费观看| 香蕉久久夜色精品国产使用方法 | 网友自拍区视频精品| 91久久久久久久久久久久久| 日日av拍夜夜添久久免费| 久久人人爽人人爽人人片av高清| 日本高清视频在线观看| 亚洲桃花岛网站| 手机福利在线| 亚洲国产精品悠悠久久琪琪| 国产精品综合在线| 欧美天堂亚洲电影院在线播放| 成人午夜淫片100集| 亚洲一二三四区不卡| 午夜剧场免费在线观看| 欧美韩日一区二区三区四区| 亚洲国产欧美视频| 福利一区在线观看| 无套内谢丰满少妇中文字幕 | 亚洲色偷偷色噜噜狠狠99网| 国产精品911| 中文av字幕在线观看| 青青草国产成人av片免费| 啊啊啊一区二区| 伊人成人网在线看| 福利视频一区二区三区四区| 亚洲网址在线| 五十路熟女丰满大屁股| 黄色亚洲精品| 欧美亚洲色图视频| 黄色日韩精品| 成人性免费视频| 日韩香蕉视频| 97国产精东麻豆人妻电影| 1024成人| 日韩av片在线看| 久久电影一区| 欧美日韩怡红院| 美美哒免费高清在线观看视频一区二区 | 欧美在线一二三区| 久久综合色占| 日韩免费中文专区| 成人在线免费观看网站| 一区二区三区欧美成人| 91精品国偷自产在线电影 | 亚洲在线日韩| 久久精品网站视频| 蜜桃免费网站一区二区三区| 潘金莲激情呻吟欲求不满视频| 精品综合久久久久久8888| 色男人天堂av| 成年人网站91| 午夜一区二区三区免费| 国产色产综合产在线视频| 国产wwwwxxxx| 亚洲精品国产高清久久伦理二区| 国产亚洲欧美精品久久久www| 午夜精品久久久久久久久久久| 欧美激情免费在线| 国产69久久| 日韩视频免费大全中文字幕| 中文字幕有码在线观看| 性欧美视频videos6一9| 电影一区二区三区| 成人黄色在线观看| 成人精品毛片| 欧美日韩一区综合| 国产精品7m凸凹视频分类| www.欧美黄色| 免费日韩av片| 手机在线国产视频| www.亚洲精品| 一本一本久久a久久| 亚洲一区二区三区四区五区黄 | 爱看av在线| 国产精品久久二区| 日韩精品一区国产| 欧美视频1区| 永久亚洲成a人片777777| 天堂…中文在线最新版在线| 美日韩一级片在线观看| 美女露出粉嫩尿囗让男人桶| 国产日韩欧美麻豆| 日韩免费一二三区| 欧美在线免费观看视频| 成人毛片视频免费看| 深夜福利91大全| 激情黄产视频在线免费观看| 91视频-88av| 婷婷精品视频| www.国产二区| 精品影院一区二区久久久| av在线网站观看| 一级中文字幕一区二区| 自拍偷拍第八页| 亚洲精品久久视频| 在线看女人毛片| 国产精品高清在线| 日本一区福利在线| 久久久久久久香蕉| 精品制服美女久久| av电影在线不卡| 午夜精品福利一区二区三区蜜桃| 一二区在线观看| 亚洲欧美国产一本综合首页| 久久青青色综合| 亚洲最大的av网站| 日韩片欧美片| 丁香婷婷激情网| 91蜜桃在线观看| 日本一级黄色大片| 欧美成人三级电影在线| 激情在线小视频| 国产伦精品一区二区三区精品视频| 亚洲bt欧美bt精品777| www.av毛片| 成人综合婷婷国产精品久久| 色婷婷在线视频观看| 69堂成人精品免费视频| 永久免费av在线| 国产精品久久久久久久7电影| 偷拍一区二区| 情侣黄网站免费看| 91蜜桃免费观看视频| 久久精品国产成人av| 日韩精品999| 欧美亚洲日本精品| 精品视频在线观看| 亚洲在线免费| 中文字幕 自拍| 欧美在线观看一区| 成人午夜影视| 国产欧美一区二区三区久久| 久久福利综合| 做a视频在线观看| 亚洲三级电影全部在线观看高清| 91麻豆成人精品国产| 久久精品人人爽| 亚洲日本视频在线| 日韩精品在线观看av| www.亚洲在线| 日本免费在线观看视频| 亚洲小视频在线| 深夜日韩欧美| 欧美日韩中文字幕在线播放| 成人午夜短视频| 日本三级小视频| 国产一区二区精品丝袜| 六九午夜精品视频| 欧洲xxxxx| 成人av网站大全| 日本熟女毛茸茸| 一区二区三区天堂av| 国产精品国产三级在线观看| 99国产精品白浆在线观看免费| 99精品偷自拍| 中文字幕欧美在线观看| 欧美尺度大的性做爰视频| 都市激情亚洲| 欧美三级午夜理伦三级| 中文字幕不卡在线| 999免费视频| 97人人做人人爱| 日韩毛片视频| 日韩少妇一区二区| 在线观看免费亚洲| 色呦呦在线资源| 欧美一区二区三区成人久久片| 免费在线观看成人| 久久精品免费av| 曰本色欧美视频在线| 日韩免费高清视频网站| 国产成人a亚洲精v品无码| 国产精品国产三级国产三级人妇| 草草视频在线播放| 日本视频久久久| 911久久香蕉国产线看观看| 大乳护士喂奶hd| 欧美日韩久久久久久| 国产偷倩在线播放| 欧美日韩精品久久久免费观看| 国产一区三区三区| 国产精品人人人人| 久久国产精品视频| 国产精品一区二区av交换| 能看毛片的网站| 欧美亚洲愉拍一区二区| 黄色美女视频在线观看| 日韩影片在线播放| 成人av网在线| av一级黄色片| 国产精品你懂得| 国产精品永久| 久久久久成人精品无码|