精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

能生成Deepfake也能診斷癌癥,GAN與惡的距離

人工智能
GAN可能是最近人工智能圈為人熟知的技術之一,多受關注的當然是Deepfake(深度偽造),這款操作容易且效果完美的換臉應用,讓人們談“GAN”色變。

[[270043]]

大數據文摘出品

來源:floydhub

編譯:欒紅葉、張大筆茹、小七

GAN可能是最近人工智能圈為人熟知的技術之一。

但是它的爆火不僅是由于這個技術出神入化的好用,還因為由他催生的相關應用導致了各種倫理道德問題。

多受關注的當然是Deepfake(深度偽造),這款操作容易且效果完美的換臉應用,讓人們談“GAN”色變。

[[270044]]

朱茵的臉被換成了楊冪

而近期,Deepfake甚至有了升級版,走紅網絡的一鍵生成裸照軟件DeepNude,只要輸入一張完整的女性圖片就可自動生成相應的裸照,由于廣泛傳播而造成了預料之外的后果,開發者最終將APP下架。

[[270045]]

被一鍵脫衣的霉霉

相關技術引發了一系列社會后果,并且引發了政府立法部門的重視。2019年6月13日,美國眾議院情報委員會召開關于人工智能深度偽造的聽證會,公開談論了深度偽造技術對國家、社會和個人的風險及防范和應對措施。

讓人嗤之以鼻的同時,真正的研究者們也在用GAN推動人類社會的發展。據《MIT科技評論》報道,呂貝克大學研究人員近期剛剛利用deepfake背后同樣的技術,合成了與真實影像無異的醫學圖像,解決了沒有足夠的訓練數據的問題,而這些圖像將可以用于訓練AI通過X光影像發現不同的癌癥。

那么,技術本身就存在原罪么?又是哪里出了錯呢?

讓我們回到GAN誕生的那天,從頭回顧這一讓人又愛又恨的技術發展的前世今生。

GAN的誕生故事:一場酒后的奇思妙想

時間拉回到2014年的一晚,Ian Goodfellow和一個剛剛畢業的博士生一起喝酒慶祝。在蒙特利爾一個酒吧,一些朋友希望他能幫忙看看手頭上一個棘手的項目:計算機如何自己生成圖片。

研究人員已經使用了神經網絡(模擬人腦的神經元網絡的一種算法),作為生成模型來創造合理的新數據。但結果往往不盡人意。計算機生成的人臉圖像通常不是模糊不清,就是缺耳少鼻。

Ian Goodfellow朋友們提出的方案是對那些組成圖片的元素進行復雜的統計分析以幫助機器自己生成圖片。這需要進行大量的數據運算,Ian Goodfellow告訴他們這根本行不通。

邊喝啤酒邊思考問題時,他突然有了一個想法。如果讓兩個神經網絡相互對抗會出現什么結果呢?他的朋友對此持懷疑態度。

當他回到家,他女朋友已經熟睡,他決定馬上實驗自己的想法。那天他一直寫代碼寫到凌晨,然后進行測試。第一次運行就成功了!

那天晚上他提出的方法現在叫做GAN,即生成對抗網絡(generative adversarial network)。

[[270046]]

Goodfellow自己可能沒想到這個領域會發展得如此迅速,GAN的應用會如此廣泛。

下面我們先來看幾張照片。

如果你沒有親眼看到我去過的地方,那就可以認為這些照片完全是假的。

當然,我并不是說這些都是ps的或者CGI編輯過的,無論Nvidia稱他們的新技術是如何了得,那也只是圖片,不是真實的世界。

也就是說,這些圖像完全是用GPU計算層層疊加,并且通過燒錢生成的。

能夠做出這些東西的算法就是對抗生成網絡,對于那些剛開始學習機器學習的人而言,編寫GAN是一個漫長的旅途。在過去的幾年中,基于對抗生成網絡應用的創新越來越多,甚至比Facebook上發生的隱私丑聞還多。

2014年以來GANs不斷進行改進才有了如今的成就,但是要一項一項來回顧這個過程,就像是要重新看一遍長達八季的“權力的游戲”,非常漫長。所以,在此我將僅僅重溫這些年來GAN研究中一些酷炫成果背后的關鍵思想。

我不準備詳細解釋轉置卷積(transposed convolutions)和瓦瑟斯坦距離(Wasserstein distance)等概念。相反,我將提供一些我覺得比較好的資源鏈接,你可以使用這些資源快速了解這些概念,這樣你就可以看到它們在算法中是如何使用的。

下文的閱讀需要你掌握深度學習的基礎知識,并且知道卷積神經網絡的工作原理,否則讀起來可能會有點難度。

鑒于此,先上一張GAN發展路線圖:

GAN路線圖

圖中的過程我們將在下文一步一步地講解。讓我們先來看看內容大綱吧。 

  • GAN:Generative Adversarial Networks
  • DCGAN:Deep Convolutional Generative Adversarial Network
  • CGAN:Conditional Generative Adversarial Network
  • CycleGAN
  • CoGAN:Coupled Generative Adversarial Networks
  • ProGAN:Progressive growing of Generative Adversarial Networks
  • WGAN:Wasserstein Generative Adversarial Networks
  • SAGAN:Self-Attention Generative Adversarial Networks
  • BigGAN:Big Generative Adversarial Networks
  • StyleGAN:Style-based Generative Adversarial Networks

GAN:Generative Adversarial Networks

[[270048]]

看到這張圖你首先想到的是什么,是不是覺得這像素也太低了,還看得人難受,尤其是對于密集恐懼癥患者來說,這張圖片看起來像是某個數學書呆子在excel表中放大了一張縮小的照片。

我們來看看這圖片究竟是什么?

https://mp.weixin.qq.com/s?__biz=MjM5MTQzNzU2NA==&mid=2651672132&idx=1&sn=b18213b102733d1ce4bf4793db270a2c&chksm=bd4c69d78a3be0c134619102e0f4b9e64fcab0a71b496a381f2f5b12b0091da16b4b89df8847&mpshare=1&scene=23&srcid=#rd

看完視頻是不是發現除了Excel,其他都猜對了。

早在2014年,Ian Goodfellow提出了這個革命性的想法——讓兩個神經網絡互相競爭(或合作,這是一個視角問題)。

感興趣的同學可以查看Ian Goodfellow 提出GAN時的原文。

  • 論文鏈接:https://arxiv.org/abs/1406.2661
  • 代碼鏈接:https://github.com/goodfeli/adversarial
  • 作者相關論文鏈接:https://arxiv.org/abs/1701.00160

一個神經網絡試圖生成真實數據(注意:GAN可用于給任何數據分布建模,但近來其主要用于圖像),而另一個神經網絡則試圖判別真實數據和生成器網絡生成的數據。

生成器網絡使用判別器作為損失函數,并更新其參數以生成看起來更真實的數據。

另一方面,判別器網絡更新其參數以使其更好地從真實數據中鑒別出假數據,所以它這方面的工作會變得更好。

這就像貓和老鼠的游戲,持續進行,直到系統達到所謂的“平衡”,其中生成器能夠生成看起來足夠真實的數據,然后判別器則輕易就能正確判斷真假。

到目前為止,如果順利的話,你的代碼無誤,亞馬遜也沒有斃掉你的spot實例(順便說一句,如果使用FloydHub就不會出現這個問題,因為他們提供了備用的GPU機器),那么你現在就留下了一個能從同樣的數據分布中準確生成新數據的生成器,它生成的數據則可以成為你的訓練集。

這只是非常簡單的一種GAN。到此,你應該掌握GAN就是使用了兩個神經網絡——一個用于生成數據,一個是用來對假數據和真實數據進行判別。理論上,您可以同時訓練它們,然后不斷迭代,直至收斂,這樣生成器就可以生成全新的,逼真的數據。

DCGAN:Deep Convolutional Generative Adversarial Network

[[270049]]

  • 論文:https://arxiv.org/abs/1511.06434
  • 代碼:https://github.com/floydhub/dcgan
  • 其他文章:https://towardsdatascience.com/up-sampling-with-transposed-convolution-9ae4f2df52d0

看原文是非常慢的,看本文將為您節省一些時間。

先來看幾個公式:

卷積=擅長圖片

GANs=擅長生成一些數據

由此推出:卷積+GANs=擅長生成圖片

事后看來,正如Ian Goodfellow自己在與Lex Fridman的播客中指出的那樣,將這個模型稱為DCGAN(“深度卷積生成對抗網絡”的縮寫)似乎很愚蠢,因為現在幾乎所有與深度學習和圖像相關的內容都是深度的(deep)和卷積的(convolutional)。

此外,當大多數人了解到GANs時,都會先學習“深度學習和卷積”(deep and convolutional)。

然而,有一段時間GANs不一定會使用基于卷積的操作,而是依賴于標準的多層感知器架構。

DCGAN通過使用稱為轉置卷積運算(transposed convolution operation)來改變了這一現狀,它還有個不太好聽的名字——反卷積層( Deconvolution layer)。

轉置卷積是一種提升運算,它幫助我們將低分辨率圖像轉換為更高分辨率的圖像。

但是嚴格來說,如果您要掌握轉置卷積原理,只看上文介紹不夠,是需要深入研究鏈接里的資源,畢竟這是現代所有GAN架構的基礎。

如果你沒有足夠多的的時間來看,我們可以通過一個總結得很好的動畫來了解轉置卷積是如何工作:

在一般的卷積神經網絡中,你會用一系列卷積(以及其他操作)將圖像映射到通常是較低維度的向量。

類似地,運用多個反卷積允許我們映射出單個低分辨率的陣列,并使之成為鮮明的全彩圖像。

在我們繼續之前,讓我們嘗試使用GAN的一些獨特方法。

你現在的位置:紅色的X

CGAN:Conditional Generative Adversarial Network

 

  • 論文:https://arxiv.org/abs/1411.1784
  • 代碼:https://github.com/PacktPublishing/Advanced-Deep-Learning-with-Keras
  • 博客:https://wiseodd.github.io/techblog/2016/12/24/conditional-gan-tensorflow/

原始GAN根據隨機噪聲生成數據。這意味著你可以在此基礎上訓練它,比如狗的圖像,它會產生更多的狗的圖像。

您也可以在貓的圖像上訓練它,在這種情況下,它會生成貓的圖像。

您也可以在尼古拉斯·凱奇(Nicholas Cage)圖像上訓練它,在這種情況下,它會生成尼古拉斯·凱奇(Nicholas Cage)圖像。

你也可以在其他圖像上訓練它,以此類推。

但是,如果你試圖同時訓練狗和貓的圖像,它會產生模糊的半品種。

CGAN旨在通過只告訴生成器生成一個特定物種的圖像來解決這個問題,比如一只貓,一只狗或一個尼古拉斯·凱奇。

具體地來說,CGAN將單編碼向量yy連接到隨機噪聲向量zz,產生如下所示的體系結構:

現在,我們可以用同一個GAN同時生成貓和狗。

CycleGAN

論文:https://arxiv.org/abs/1703.10593v6

代碼:https://github.com/junyanz/CycleGAN

其他項目及文章:

  • https://junyanz.github.io/CycleGAN/
  • https://towardsdatascience.com/turning-fortnite-into-pubg-with-deep-learning-cyclegan-2f9d339dcdb0

GANs并不僅僅用于生成圖像。他們還可以創建“馬+斑馬”這樣的新生物,如上圖所示。

為了創建這些圖像,CycleGAN旨在解決“圖像到圖像”轉換的問題。

CycleGAN并不是一個推動藝術圖像合成的新GAN架構,相反,它是使用了GAN的智能方式。因此,您可以自由地將此技術應用于您喜歡的任何架構。

此時,我會建議你閱讀一篇論文(https://arxiv.org/abs/1703.10593v6)。寫得非常好,即使是初學者也很容易理解。

CycleGAN的任務是訓練一個網絡G(X)G(X),該網絡會將圖像從源域XX映射到目標域YY。

但是,你可能會問:“這與常規的深度學習或樣式遷移有什么不同。”

嗯,下面的圖片很好地總結了這個問題。CycleGAN將不成對的圖像進行圖像平移。這意味著我們正在訓練的圖像不必代表相同的東西。

如果我們有大量的圖像對:(圖像,達芬奇的繪畫圖像)(圖像,達芬奇繪畫圖像),那么訓練達芬奇的繪畫圖像就會(相對)容易一些。

不幸的是,這個家伙并沒有太多的畫作。

然而,CycleGAN可以在未配對的數據上進行訓練,所以我們不需要兩個相同的圖像。

另一方面,我們可以使用樣式遷移。但這只會提取一個特定圖像的風格并將其轉移到另一個圖像,這意味著我們無法轉化一些假設性事物,如將馬轉化為斑馬。

然而,CycleGAN會學習從一個圖像域到另一個域的映射。所以我們就說一下所有的莫奈畫作訓練。

他們使用的方法非常優雅。CycleGAN由兩個生成器GG和FF,以及兩個判別器DXDX和DYDY組成。

GG從XX獲取圖像并嘗試將其映射到YY中的某個圖像。判別器 DYDY預測圖像是由GG生成還是實際在YY中生成。

類似地,FF從YY接收圖像并嘗試將其映射到XX中的某個圖像,而判別器DXDX 預測圖像是由FF生成還是實際上是在XX中。

所有的這四個神經網絡都是以通常的GAN方式進行訓練,直到我們留下了強大的生成器GG和FF,它們可以很好地執行圖像到圖像的轉換任務,乃至愚弄了DYDY 和DXDX。

這種類型的對抗性損失聽起來是個好主意,但這還不夠。為了進一步提高性能,CycleGAN使用另一個度量標準,循環一致性損失。

一般來說,優秀的轉換應該具備以下屬性,當你來回轉換時,你應該再次得到同樣的東西。

CycleGAN用巧妙的方式實現了這個想法,它迫使神經網絡遵守這些約束:

F(G(x))≈x,x∈XF(G(x))≈x,x∈X

G(F(y))≈y,y∈YG(F(y))≈y,y∈Y

在視覺上看,循環一致性如下所示:

總損失函數是以懲罰網絡不符合上述特性的方式構造的。我不打算在這里寫出這個損失函數,因為這會破壞它在文章中匯總的方式。

好的,七龍珠還沒有召喚完,讓我們回到我們找尋更好的GAN架構的主要任務。

CoGAN:Coupled Generative Adversarial Networks

[[270056]] 

  • 論文:https://arxiv.org/abs/1606.07536
  • 代碼:https://github.com/mingyuliutw/CoGAN
  • 博客:https://wiseodd.github.io/techblog/2017/02/18/coupled_gan/

你知道比一個GAN更好的網絡是什么嗎?兩個GAN!

CoGAN(即“Coupled Generative Adversarial Networks”,不要與CGAN混淆,后者代表的是條件生成對抗網絡)就是這樣做的。它會訓練兩個GAN而不是一個單一的GAN。

當然,GAN研究人員不停止地將此與那些警察和偽造者的博弈理論進行類比。所以這就是CoGAN背后的想法,用作者自己的話說就是:

在游戲中,有兩個團隊,每個團隊有兩個成員。生成模型組成一個團隊,在兩個不同的域中合作共同合成一對圖像,用以混淆判別模型。判別模型試圖將從各個域中的訓練數據分布中繪制的圖像與從各個生成模型中繪制的圖像區分開。同一團隊中,參與者之間的協作是根據權重分配約束建立的。

這樣就有了一個GAN的多人局域網競賽,聽起來不錯,但你怎么能讓它真正起作用呢?

事實證明這并不復雜,只需使網絡對某些層使用完全相同的權重。

在我認為(可能不太謙虛),關于CoGAN最酷的事情不是提高圖像生成質量,也不是你可以在多個圖像域中進行訓練的事實。

而是,事實上,你獲得兩張圖片的價格僅是之前的四分之三。

由于我們共享一些權重,因此CoGAN將比兩個單獨的GAN具有更少的參數(因此將節省更多的內存,計算和存儲)。

這是一種微妙技術,但是有點過時,所以我們今天看到的一些新GAN并不會使用這種技術。

不過,我認為這一想法會在未來再次得到重視。

ProGAN:Progressive growing of Generative Adversarial Networks

[[270057]]

論文:https://arxiv.org/abs/1710.10196

代碼:https://github.com/tkarras/progressive_growing_of_gans

其他文章及視頻:

  • https://towardsdatascience.com/progan-how-nvidia-generated-images-of-unprecedented-quality-51c98ec2cbd2
  • https://www.youtube.com/watch?v=G06dEcZ-QTg

訓練集GAN存在許多問題,其中最重要的是其不穩定性。

有時,GAN的損失會發生振蕩,因為生成器和判別器會消除對方的學習。也有時,錯誤會在網絡收斂后立即發生,這時圖像就會看起來很糟糕。

ProGAN是一種通過逐步提高生成圖像的分辨率來使其訓練集穩定的技術。

常識認為,生成4x4的圖像比生成1024x1024圖像更容易。此外,將16x16的圖像映射到32x32的圖像比將2x2圖像映射到32x32圖像更容易。

因此,ProGAN首先訓練4x4生成器和4x4判別器,并在訓練過程的后期添加相對應的更高分辨率的層。我們用一個動畫來總結一下:

WGAN:Wasserstein Generative Adversarial Networks

論文:https://arxiv.org/abs/1701.07875v3

代碼:https://github.com/eriklindernoren/Keras-GAN

其他資源:

  • http://www.depthfirstlearning.com/2019/WassersteinGAN
  • https://lilianweng.github.io/lil-log/2017/08/20/from-GAN-to-WGAN.html
  • https://www.alexirpan.com/2017/02/22/wasserstein-gan.html
  • https://medium.com/@jonathan_hui/gan-wasserstein-gan-wgan-gp-6a1a2aa1b490

這篇文獻可能是此列表中最具理論性和數學性的論文。作者在文中用了一卡車的證據、推論以及另一種數學術語。因此,如果積分概率計量和Lipschitz連續與你無關,我們也不會在這個上花太多時間。

簡而言之,WGAN('W'代表Wasserstein)提出了一個新的成本函數,這些函數在純數學家和統計學家中風靡一時。

這是GAN minimax函數的舊版本:

這是WGAN使用的新版本:

在大多數情況下,你需要知道WGAN函數是清除了舊的成本函數,該函數近似于稱為Jensen-Shannon散度的統計量,并在新的成本函數中滑動,使其近似于稱為1-Wasserstein距離的統計量。

看了下圖您就知道為什么要這么做。

當然,如果您感興趣的話,接下來的是對數學細節的快速回顧,這也是WGAN論文備受好評的原因。

最初的GAN論文里認為,當判別器是最優的時,生成器以最小化Jensen-Shannon散度的方式更新。

如果你不太明白的話,Jensen-Shannon散度是一種衡量不同兩種概率分布的方法。JSD越大,兩個分布越“不同”,反之亦然。計算公式如下:

然而,把JSD最小化是最好的選擇嗎?

WGAN論文的作者認為可能不是。出于特殊原因,當兩個發行版完全不重疊時,可以顯示JSD的值保持為2log22log⁡2的常量值。

具有常量值的函數有一個梯度等于零,而零梯度是不好的,因為這意味著生成器完全沒有學習。

WGAN作者提出的備用距離度量是1-Wasserstein距離,也稱為搬土距離(EMD距離)。

“搬土距離”來源于類比,想象一下,兩個分布中的一個是一堆土,另一個是一個坑。

假設盡可能有效地運輸淤泥,沙子,松土等物品,搬土距離測量將土堆運輸到坑中的成本。這里,“成本”被認為是點之間的距離×土堆移動的距離×移動的土堆量。

也就是說(沒有雙關語),兩個分布之間的EMD距離可以寫成:

當inf是最小值時,xx和yy是兩個分布上的點,γγ是最佳運輸計劃。

可是,計算這個是很難的。于是,我們計算完全不同的另一個值:

這兩個方程式之間的聯系一開始似乎并不明顯,但通過一些稱為Kantorovich-Rubenstein二重性的復雜數學(試著快讀三次),可以證明這些Wasserstein / Earth mover距離的公式在試計算同樣的東西。

如果你跟不上我提供的鏈接中的的論文和博客文章中的一些重要的數學概念,也不要過于擔心。關于WGAN的大部分工作都是為一個簡單的想法提供一個復雜的理由。

SAGAN:Self-Attention Generative Adversarial Networks

論文:https://arxiv.org/abs/1805.08318v1

代碼:https://github.com/heykeetae/Self-Attention-GAN

其他資源:

  • https://lilianweng.github.io/lil-log/2018/06/24/attention-attention.html
  • https://towardsdatascience.com/not-just-another-gan-paper-sagan-96e649f01a6b

由于GAN使用轉置卷積來“掃描”特征映射,因此它們只能訪問附近的信息。

單獨使用轉置卷積就像繪制圖片,只在畫筆的小半徑范圍內查看畫布區域。

即使是能完善最獨特和復雜細節的最偉大的藝術家,在創作過程中也需要退后一步,看看大局。

SAGAN(全稱為“自我關注生成對抗網絡”)使用自我關注機制,由于遷移模型架構,近年來這種方式已經變得十分流行。

自我關注讓生成器退后一步,查看“大局”。

BigGAN:Big Generative Adversarial Networks

論文:https://arxiv.org/abs/1809.11096v2

代碼:https://github.com/huggingface/pytorch-pretrained-BigGAN

其他資源:

  • https://www.youtube.com/watch?v=ZKQp28OqwNQ
  • https://thegradient.pub/bigganex-a-dive-into-the-latent-space-of-biggan/
  • https://medium.com/syncedreview/biggan-a-new-state-of-the-art-in-image-synthesis-cf2ec5694024

經過四年漫長的歲月,DeepMind前所未有地決定與GAN合作,他們使用了一種深度學習的神秘技術,這種技術非常強大,是最先進的技術,超越了先進技術排行榜上所有其他的技術。

接下來展示BigGAN,GAN絕對沒有做什么(但是運行了一堆TPU集群,卻不知何故應該在這個列表中)。

開個玩笑!DeepMind團隊確實在BigGAN上取得了很多成就。除了用逼真的圖像吸睛之外,BigGAN還向我們展示了一些非常詳細的訓練GAN的大規模結果。

BigGAN背后的團隊引入了各種技術來對抗在許多機器上大批量培訓GAN的不穩定性。

首先,DeepMind使用SAGAN作為基線,并添加了一個稱為譜歸一化的功能。

接下來,他們將圖片批量大小縮放50%,寬度(通道數)縮放20%。最初,增加層數似乎并沒有幫助。

在進行了一些其他單位數百分比改進之后,作者使用“截斷技巧”來提高采樣圖像的質量。

BigGAN在訓練期間從z N(0,I)提取其潛在向量,如果潛在向量在生成圖像時落在給定范圍之外,則重新采樣。

范圍是超參數,由ψψ表示。較小的ψψ會縮小范圍,從而以多樣化為代價提高樣本保真度。

那么所有這些錯綜復雜的調整工作會有什么后顧呢?好吧,有人稱之為狗球。

[[270064]]

BigGAN技術還發現更大規模的GAN訓練可能會有一系列問題。

值得注意的是,訓練集似乎可以通過增加批量大小和寬度等參數來很好地擴展,但不知什么原因,最終總會崩潰。

如果你對通過分析奇異值來理解這種不穩定性感興趣的話,請查看論文,因為你會在那里找到很多東西。

最后,作者還在一個名為JFT-300的新數據集上訓練BigGAN,這是一個類似ImageNet的數據集,它有3億個圖像。他們表明BigGAN在這個數據集上的表現更好,這表明更大規模的數據集可能是GAN的發展方向。

在論文的第一版發布后,作者在幾個月后重新訪問了BigGAN。還記得我怎么說增加層數不起作用?事實證明,這是由于糟糕的訓練集選擇導致的。

該團隊不再只是在模型上填充更多層,還進行了實驗,發現使用ResNet突破瓶頸是可行的。

通過以上不斷地調整、縮放和仔細實驗,BigGAN的頂級線條完全抹殺了先前的最新狀態,得分高達52.52分,總分是152.8。

如果這不是正確步驟的話,那我不知道哪個是正確的。

StyleGAN:Style-based Generative Adversarial Networks

[[270065]]

論文:https://arxiv.org/abs/1812.04948

代碼:https://github.com/NVlabs/stylegan

其他資源:

  • https://thispersondoesnotexist.com/
  • https://blog.nanonets.com/stylegan-got/
  • https://www.gwern.net/Faces
  • https://www.lyrn.ai/2018/12/26/a-style-based-generator-architecture-for-generative-adversarial-networks/

StyleGAN是Nvidia的一個延伸研究,它主要與傳統的GAN研究關系不大,傳統GAN主要關注損失函數,穩定性,體系結構等。

如果你想生成汽車的圖像的話,僅僅擁有一個可以欺騙地球上大多數人的世界級人臉生成器是沒有用的。

因此,StyleGAN不是專注于創建更逼真的圖像,而通過提高GAN的能力,可以對生成的圖像進行精細控制。

正如我所提到的那樣,StyleGAN沒有開發架構和計算損失函數功能。相反,它是一套可以與任何GAN聯用的技術,允許您執行各種很酷的操作,例如混合圖像,在多個級別上改變細節,以及執行更高級的樣式傳輸。

換句話說,StyleGAN就像一個photoshop插件,只是大多數GAN開發都是photoshop的新版本。

為了實現這種級別的圖像風格控制,StyleGAN采用了現有的一些技術,如自適應實例規范化,潛在矢量映射網絡和常量學習輸入。

如果沒有深入細節,是很難再描述StyleGAN的,所以如果你有興趣的話,請查看我的文章,其中展示了如何使用StyleGAN生成權力游戲角色。我對所有技術都有詳細的解釋,一路上有很多很酷的結果等你哦。

結論

恭喜你,堅持看到了最后!你們都跟上了創造虛假個人照片的高度學術領域的最新進展。

但是在你癱在沙發上并開始無休止地刷微博票圈之前,請稍微停一下看看你到底還有多少路要走:

接下來是什么?!未被開發的區域!

在掌握了ProGAN和StyleGAN,且規模到達BigGAN之后,你很容易迷失在這里邊。

但請放大地圖仔細觀察,看到那個綠色土地了嗎?看到北方的紅三角了嗎?

這些都是等待被突破的未知開發區域,如果你放膽一試,他們都可以成為你的。

別了!朋友們,還有更多未知海域等待航行!

結語:一些有趣的前沿研究

感謝您閱讀本文。到現在為止,如果您已經掌握了我分享的所有資源,您應該對GAN技術中一些最重要的突破有充分的了解。

但毫無疑問,還有更多需要學習。跟上科研的步伐雖然艱難的,但并不是不可能。我的建議是:閱讀最新發表的的論文,因為它們可能會為您的項目提供新思路新方法。

為了幫您入門,我推薦一些前沿(截至2019年5月)的研究項目:

您可能已經聽說過DeOldify了。如果沒有的話,請點擊訪問這個。

網址:

https://blog.floydhub.com/colorizing-and-restoring-old-images-with-deep-learning/!

它最近有一次更新,引入了一種名為NoGAN的新訓練技術。您可以在他們的博客和代碼中查看詳細信息。

如果您沒有Google級別的數據,從頭開始復制BigGAN結果可能很繁瑣。現在有一篇ICML 2019的論文建議用較少的標簽訓練BigGAN質量模型。

當然,GAN并不是唯一的基于深度學習的圖像生成技術。最近,OpenAI推出了一種全新的模型—稀疏遷移模型,利用遷移模型架構進行圖像生成。像往常一樣,他們開源發布了一篇論文,博客和代碼。

系數遷移模型知識鏈接:

  • 論文:https://arxiv.org/abs/1904.10509
  • 代碼:https://github.com/openai/sparse_attention
  • 博客:https://openai.com/blog/sparse-transformer/

哦,這不是新的研究或任何其他新東西,但你應該聽聽GAN的起源故事:

Nvidia有一個非常酷的項目GauGAN,它可以將您孩子的涂鴉變成逼真的杰作。這真的是您需要體驗才能理解的東西。首先看下Soplay的演示,其次閱讀他們的博客和論文。

  • 演示:https://www.nvidia.com/en-us/research/ai-playground/?ncid=so-twi-nz-92489
  • 博客:https://www.nvidia.com/en-us/research/ai-playground/?ncid=so-twi-nz-92489
  • 論文:https://arxiv.org/abs/1903.07291

你有沒有想過如何“調試”GAN?這是一份ICLR 2019論文提出了一個很有前景的解決方案。

ICLR2019論文:https://openreview.net/pdf?id=Syx_Ss05tm

無論我讓GAN看起來有多厲害,還是有很多問題需要解決。有篇文章精辟地總結了一些未解決的問題。

總結文章鏈接:https://distill.pub/2019/gan-open-problems/

似乎有人為GAN找到了另一種真實世界可應用的可能。

相關報道:

  • https://blog.floydhub.com/gans-story-so-far/
  • https://www.technologyreview.com/f/613924/ai-deepfakes-gans-medical-cancer-diagnosis/

【本文是51CTO專欄機構大數據文摘的原創文章,微信公眾號“大數據文摘( id: BigDataDigest)”】

     大數據文摘二維碼

戳這里,看該作者更多好文

責任編輯:趙寧寧 來源: 51CTO專欄
相關推薦

2021-07-20 10:16:24

人工智能自然語言技術

2009-01-18 09:19:00

DHCPVlANIP

2021-11-11 11:31:54

擺動序列數字

2014-03-19 14:33:27

VMwareHyper-V

2011-07-13 10:32:09

開源

2015-10-20 10:57:22

無線充電無線技術

2019-04-17 18:04:10

網卡虛擬化網絡設備

2024-12-04 07:59:48

2018-01-26 09:01:16

對象存儲Java

2021-11-02 09:25:00

AI 數據人工智能

2022-02-10 08:07:41

機器學習低代碼開發

2014-06-24 09:24:24

密碼身份驗證

2009-12-25 10:07:38

Linux系統多點觸摸

2012-12-20 09:41:49

JVMJava

2012-12-20 09:15:29

JVMJVM平臺JVM技術

2021-03-26 10:02:29

PythonVIP視頻看電影

2021-12-27 07:45:30

CSS 技巧煙霧效果

2010-09-02 17:31:42

VisualStudi微軟flash

2025-04-14 00:00:00

MCPjson 信息地理編碼

2021-08-04 09:00:53

Python數據庫Python基礎
點贊
收藏

51CTO技術棧公眾號

毛片不卡一区二区| 日韩手机在线| 亚洲第一综合色| 精品一区二区三区视频日产| 午夜精品久久久久久久蜜桃| 一区二区三区四区电影| 日韩高清免费在线| 日本不卡一区在线| 极品在线视频| 国产精品美女久久久久久久久久久 | 欧美日韩另类一区| 欧美图片激情小说| yiren22综合网成人| 成人一区在线看| 国产精品天天狠天天看| www欧美在线| 欧美特黄视频| 久久久97精品| 无码一区二区三区在线| 中文字幕久久精品一区二区| 欧美视频一区二区三区| 人人干视频在线| gogo在线高清视频| 欧美国产禁国产网站cc| 精品国产日本| 午夜精品在线播放| 美女任你摸久久| 欧美综合在线观看| 日韩成人免费在线视频| 一区二区三区中文| 色偷偷偷亚洲综合网另类| 麻豆av一区二区| 国产精品女同一区二区| 日韩高清不卡一区二区| 777国产偷窥盗摄精品视频| 日韩在线观看视频一区二区| 不卡一区综合视频| 亚洲人高潮女人毛茸茸| 国产xxxxxxxxx| 影音先锋欧美激情| 欧美一区二区在线免费播放| 日韩一级理论片| 电影亚洲精品噜噜在线观看| 欧美视频一区二区三区…| 国产真实老熟女无套内射| 老司机在线看片网av| 中文字幕日本不卡| 亚洲一区影院| 成人在线免费公开观看视频| 国产偷v国产偷v亚洲高清| 久久精品国产综合精品| 欧洲av在线播放| av电影一区二区| 国产麻豆乱码精品一区二区三区 | 国产最新精品免费| 成人精品一区二区三区电影免费 | 欧美α欧美αv大片| 91精品国产三级| 麻豆国产一区二区三区四区| 日韩一级成人av| 韩国av中国字幕| 51亚洲精品| 日韩国产精品一区| 成人午夜福利一区二区| 欧美另类69xxxxx| 色哟哟网站入口亚洲精品| 国产成人免费在线观看视频| 亚洲va在线| 欧美精品午夜视频| 日韩特黄一级片| 天堂影院一区二区| 国产欧美日韩视频| av在线免费在线观看| 成人的网站免费观看| 鲁片一区二区三区| av电影在线播放高清免费观看| 国产精品久久久久久久久晋中| 亚洲免费av网| 精灵使的剑舞无删减版在线观看| 五月天亚洲精品| caopor在线视频| 永久免费观看精品视频| 精品欧美乱码久久久久久1区2区| 在线免费播放av| 成人在线丰满少妇av| 免费不卡欧美自拍视频| 国产精品成人久久| 日本亚洲一区二区| 91在线精品视频| 天堂а在线中文在线无限看推荐| 中文字幕欧美日韩一区| 黄色影视在线观看| 性欧美1819sex性高清| 欧美疯狂性受xxxxx喷水图片| 国产高潮视频在线观看| 国产一区二区精品久| 欧美激情精品久久久久久蜜臀 | 亚洲一区二区成人| 国产日韩一区在线| 亚洲区小说区图片区| 国产精品家庭影院| 少妇人妻在线视频| 自拍偷拍欧美日韩| 亚洲欧美日韩图片| 麻豆chinese极品少妇| 日韩精品福利网| 粉嫩高清一区二区三区精品视频 | 中文字幕第一区综合| 国产av熟女一区二区三区| 日本在线精品| 亚洲精品国产福利| √天堂中文官网8在线| 久久久久久夜| 国产在线精品二区| 午夜在线激情影院| 欧美日韩激情一区二区三区| 给我免费观看片在线电影的| 久久久久久美女精品| 国产成人久久久精品一区| 成人免费视频国产免费麻豆| 国产精品国产自产拍高清av | 免费看av不卡| 亚洲国产精品嫩草影院久久| 四虎精品免费视频| 日本va欧美va瓶| 日本一区二区精品视频| 不卡专区在线| 精品久久一区二区三区| 中文字幕在线有码| 韩国欧美一区二区| 伊人情人网综合| 精品欧美一区二区三区在线观看| 亚洲精品国产品国语在线| 国产精品视频看看| 久久国产精品区| 亚洲v欧美v另类v综合v日韩v| 97在线视频免费观看完整版| 欧美人与z0zoxxxx视频| 天天摸日日摸狠狠添| 日韩成人伦理电影在线观看| 免费在线观看91| 伊人久久视频| 亚洲丝袜一区在线| 欧美a视频在线观看| 91在线你懂得| 亚欧无线一线二线三线区别| 欧美毛片免费观看| 日韩av电影手机在线| 天堂视频中文在线| 91国内精品野花午夜精品| 亚洲av无码一区二区三区人| 视频一区视频二区中文字幕| 视频一区二区三区在线观看| h1515四虎成人| 最近2019好看的中文字幕免费| 中文字幕欧美色图| 国产精品美女久久久久久久网站| 色乱码一区二区三区在线| 不卡在线一区| 91精品国产一区二区三区动漫 | 亚洲超碰97人人做人人爱| 男人网站在线观看| 亚洲欧美日本国产专区一区| 欧美一区二区三区四区夜夜大片| 99re66热这里只有精品4| 亚洲性生活视频在线观看| 中文字幕第2页| 亚洲免费毛片网站| 亚洲一区二区在线免费| 美女视频一区免费观看| 亚洲精品一区二区三区蜜桃久 | 国产精品久久精品国产| www.色在线| 亚洲一级片在线看| 国产又大又粗又长| 亚洲国产精品麻豆| 亚洲一区二区三区蜜桃| 激情成人综合网| 高清无码视频直接看| 日韩精品免费一区二区三区竹菊| 欧美做爰性生交视频| 91视频在线观看| 日韩精品中文字幕在线一区| 欧美亚韩一区二区三区| 国产精品国产三级国产| 亚洲欧美日韩偷拍| 蜜臀av性久久久久蜜臀aⅴ流畅 | 微拍福利一区二区| 国产麻豆精品久久一二三| 三上悠亚久久精品| 色婷婷色综合| 国产伦精品一区二区三毛| 99riav视频一区二区| 久久97久久97精品免视看 | 久久九九亚洲综合| 偷拍自拍在线视频| 91精品国产一区二区| 精品国产乱码一区二区| 亚洲欧洲另类国产综合| 午夜一区二区三区免费| 国产一区二区按摩在线观看| 欧美成人一区二区在线观看| 影视亚洲一区二区三区| 欧美一二三区| 加勒比色老久久爱综合网| 国产成人在线精品| 国产黄色大片在线观看| 色偷偷噜噜噜亚洲男人| 男女污污视频在线观看| 精品日韩99亚洲| 91福利免费视频| 色综合久久久久| 久久精品www| 国产精品丝袜黑色高跟| 老鸭窝一区二区| 国产99久久久国产精品免费看 | 成人在线视频首页| 樱花草www在线| 免费高清在线一区| 黄色一级大片在线观看| 99精品视频免费观看| 国产精品12p| 色综合久久一区二区三区| 欧美高清性xxxxhd | 国内精品免费在线观看| 国产三级日本三级在线播放| 亚洲欧洲午夜| 成人av在线播放观看| 午夜免费一区| 亚洲人久久久| 日韩三级在线| 日本成人三级| 国产探花在线精品一区二区| 精品日本一区二区三区| 久久视频在线观看| 国产一区二区精品免费| caoporn成人| 国产精品国色综合久久| 亚洲国产中文在线二区三区免| 成人黄色片网站| 99精品女人在线观看免费视频 | 国产99999| 日韩一区二区三区四区五区六区| 国产精品毛片久久久久久久av| 欧美色老头old∨ideo| 久久久精品毛片| 欧美综合天天夜夜久久| 国产91精品看黄网站在线观看| 欧美视频中文字幕在线| 在线观看免费av片| 一本大道久久精品懂色aⅴ | 视频在线观看91| 亚洲成人av免费看| 麻豆精品一二三| 加勒比av中文字幕| 国产精品一级片在线观看| 深爱五月综合网| 成人午夜av在线| 亚洲精品乱码久久| 久久久亚洲国产美女国产盗摄| 四虎影成人精品a片| 国产欧美在线观看一区| 亚洲欧美另类日本| 一区二区三区四区精品在线视频| 久久婷婷综合国产| 精品久久久免费| 在线免费观看av网址| 欧美日韩免费一区二区三区 | 99视频在线观看一区三区| 成人精品在线观看视频| 国产欧美在线观看一区| www.av成人| 亚洲成人免费看| 中文字幕一区二区人妻视频| 欧美三级视频在线播放| 国产情侣激情自拍| 亚洲成人久久久| 国产乱理伦片a级在线观看| 色婷婷精品大在线视频| 精产国品一区二区| 555www色欧美视频| 天堂av一区二区三区| 伊人一区二区三区久久精品| 成人免费看片| 91高清视频免费| 欧美成人福利| 精品久久精品久久| 色综合蜜月久久综合网| 国产91在线亚洲| 日本午夜一区二区| 337p日本欧洲亚洲大胆张筱雨 | 日本午夜精品视频在线观看| 污视频在线观看免费网站| av成人老司机| 亚洲不卡在线播放| 色婷婷一区二区三区四区| 国产麻豆一精品一男同| 日韩精品欧美激情| 国产日产一区二区三区| 欧洲成人在线视频| 精品视频一区二区三区| 日韩欧美三级电影| 亚洲欧洲另类| 亚洲一区二区三区四区精品| 久久综合九色综合欧美亚洲| 国产精品白嫩白嫩大学美女| 在线欧美日韩国产| 蜜臀久久99精品久久久| 久久精品中文字幕电影| 欧美大片免费| 国产精品一区二区三区在线观 | 久久视频免费观看| 欧美羞羞视频| 韩日午夜在线资源一区二区| 亚洲影视一区| 最新国产黄色网址| 久久久不卡网国产精品二区| 国产午夜精品一区二区理论影院 | 国产精品福利在线| 你懂的在线观看一区二区| 992tv成人免费观看| 蜜桃在线一区二区三区| 熟女俱乐部一区二区视频在线| 亚洲成av人**亚洲成av**| 不卡视频在线播放| 久久综合88中文色鬼| 亚洲欧美久久精品| 亚洲欧美日韩另类精品一区二区三区 | aa在线观看视频| 国产成人免费视频| 一区二区视频免费看| 91精品国产欧美日韩| 日本成a人片在线观看| 国产精品福利在线| 九九精品久久| 成人黄色片视频| 久久综合精品国产一区二区三区| 欧美亚洲天堂网| 亚洲国产精品久久久| 国精产品一区一区三区mba下载| 亚洲一区二区三区视频| 亚洲澳门在线| 亚欧美一区二区三区| 伊人夜夜躁av伊人久久| 午夜精品久久久久久久99 | 老女人性淫交视频| 欧美一二三区精品| 四虎亚洲精品| 粉嫩高清一区二区三区精品视频 | 中文字幕一区二区不卡| 国产精品视频一区二区三区,| 精品国产拍在线观看| 国产一区二区三区免费在线| 影音先锋成人资源网站| 欧美激情aⅴ一区二区三区| 五月激情婷婷在线| 亚洲色图一区二区| 国产xxxx在线观看| 欧美激情2020午夜免费观看| 都市激情亚洲欧美| 精品这里只有精品| 久久亚洲一区二区三区四区| 国产又粗又猛又黄视频| 国产一区二区三区在线观看视频 | 国产精品成人一区二区三区| 日韩视频一区| jizz中文字幕| 91精品欧美综合在线观看最新| а天堂中文在线官网| 国产精品大全| 三级欧美韩日大片在线看| 一二三四国产精品| 欧美成人a在线| 在线看的毛片| 亚洲精品一区二区三区樱花 | 91成人破解版| 欧美精品乱码久久久久久| 欧美性爽视频| 日本一区二区三区视频免费看| 久久se精品一区精品二区| 国产一国产二国产三| 亚洲天天在线日亚洲洲精| 精品亚洲二区| 国模吧无码一区二区三区| 国产精品水嫩水嫩| 熟妇人妻一区二区三区四区| 国产精品久久中文| 亚洲午夜视频| avhd101老司机| 欧美精品一区二区久久婷婷| abab456成人免费网址| 成人短视频在线观看免费| 国产亚洲一区二区三区四区| 国产丰满美女做爰| 国产97在线播放| 国内精品福利| www.4hu95.com四虎| 亚洲风情亚aⅴ在线发布| 日韩伦理一区二区| 国产精品wwwww|