精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

在機(jī)器翻譯等通用任務(wù)場景下,如何最有效地引用對比學(xué)習(xí)?

人工智能 新聞
目前,對于對比學(xué)習(xí)目標(biāo)的使用仍然不是最優(yōu)的。

對比學(xué)習(xí)和文本生成的結(jié)合并不是一個新話題。但是,之前的大多方法都局限于某些特定的任務(wù)場景。例如,在一個對話的場景中,可能需要利用對比學(xué)習(xí),去區(qū)分說話者,或者說話的主題,達(dá)到更好的表示學(xué)習(xí)的效果。在摘要中,也有一些工作通過構(gòu)造具有事實(shí)性錯誤的負(fù)樣本來使用對比學(xué)習(xí),增強(qiáng)生成的摘要和原文的一致性。然而,對于比較通用的任務(wù)(以使用 Transformer的編碼器和解碼器為生成模型為例),在用于機(jī)器翻譯、摘要、數(shù)據(jù)到文本生成的各種任務(wù)下,如何去引用對比學(xué)習(xí)才最有效?為什么要去用對比學(xué)習(xí)?關(guān)于這方面的研究比較少,本文將就此進(jìn)行討論。

今天的介紹會圍繞下面四點(diǎn)展開:

  • 動機(jī)
  • 方法
  • 實(shí)驗(yàn)
  • 討論

01 動機(jī)

先來講一下為什么要使用對比學(xué)習(xí)。

1. 為什么在文本生成上應(yīng)用對比學(xué)習(xí)

首先,對比學(xué)習(xí)是一種很好的表示學(xué)習(xí)的方式,尤其是在CV的場景下,對比學(xué)習(xí)更是非常火,在文本生成任務(wù)場景下,如果可以去構(gòu)造出對于這個任務(wù)有意義的、有價值的樣本,可以幫助模型通過不同樣本之間的比較,學(xué)到更好的意義和表示。

其次,最近有研究表明,對比學(xué)習(xí)是有助于緩解曝光偏差問題的一個新思路。所謂曝光偏差,就是指目前大多數(shù)的生成框架(大多基于最大似然估計進(jìn)行訓(xùn)練的)存在著測試和訓(xùn)練的不一致性,這個不一致性將會損害模型的泛化性能。模型在訓(xùn)練階段解碼器只曝光給了正確的輸入,而在測試階段模型不得不基于自己生成的字符來預(yù)測,由此形成了測試和訓(xùn)練的偏差。之前已經(jīng)有很多工作來解決這個問題,比較有名的就是scheduled-sampling:既然曝光偏差是由于訓(xùn)練和測試的不一致導(dǎo)致的,那就讓模型在訓(xùn)練的時候也以一定概率和測試采取同樣的機(jī)制。也就是說,以一定概率利用上一步預(yù)測的詞語指導(dǎo)下一步的生成。

除此之外,還有一些比較有名的方法,如基于強(qiáng)化學(xué)習(xí),生成對抗網(wǎng)絡(luò)等。除了token-level監(jiān)督和最大似然的訓(xùn)練目標(biāo)以外,還讓模型去顯示的優(yōu)化一個難以微分的目標(biāo)。但是這兩種技術(shù),在實(shí)現(xiàn)中存在著一定的難度,如果不是一個富有經(jīng)驗(yàn)的研究者,可能訓(xùn)練出來的基于強(qiáng)化學(xué)習(xí)或者生成對抗網(wǎng)絡(luò)的模型還不如一個純粹的MLE模型訓(xùn)練的效果好。

2. 應(yīng)用對比學(xué)習(xí)可以緩解自回歸模型的曝光偏差問題

圖片?

對比學(xué)習(xí)是如何解決這個問題的??

首先回顧下對比學(xué)習(xí)的目的。對比學(xué)習(xí)就是在表示上把正例拉近,把負(fù)例拉遠(yuǎn)。在生成的場景下,對正負(fù)樣本的一個非常直觀的定義就是,把比人寫的質(zhì)量高的樣本當(dāng)做正例。以翻譯任務(wù)為例,人翻譯的結(jié)果就是正例,然后再另外去找一些包含錯誤的翻譯結(jié)果就是負(fù)例。

如何緩解曝光偏差?就是將錯誤的樣本和正確的樣本在訓(xùn)練階段同時曝光給解碼器,利用對比學(xué)習(xí)損失函數(shù),讓模型學(xué)習(xí)到正確標(biāo)簽的表示和錯誤標(biāo)簽的表示。相比強(qiáng)化學(xué)習(xí)和GAN,對比學(xué)習(xí)的一個好處就是訓(xùn)練過程沒有不穩(wěn)定的問題。

3. 一個簡單的方法

圖片?

看一個如何應(yīng)用對比學(xué)習(xí)的例子。最簡單的方式就是采用CV上SimCLR的方式,即正樣本是給定的人寫的目標(biāo)語句(也稱為ground truth),將一個batch中其他的樣本當(dāng)做是負(fù)樣本。錨點(diǎn)是生成中的source sequence輸入。

如右圖所示,是一個德英翻譯的例子。有一個德語輸入,目標(biāo)是要把它翻譯成合適的英語輸出。圖中的綠色框就是人類所寫的標(biāo)準(zhǔn)的翻譯,紅色框是在訓(xùn)練階段和它同一個batch里進(jìn)行一個隨機(jī)采樣出來的結(jié)果。綠色的就是正樣本,其他的就是負(fù)樣本。對比學(xué)習(xí)損失函數(shù)可以采用比較常見的NCE loss:一個正樣本是一個分子,整個樣本集是一個分母。最終的訓(xùn)練目標(biāo)就是把原始的token-level的NLL損失加上新的對比學(xué)習(xí)損失。解碼階段采用普通的beam-search算法即可。

4. 其他構(gòu)造正負(fù)樣本的方法

圖片?

這個方法存在一個明顯的問題。在對比學(xué)習(xí)中,最重要的就是正負(fù)樣本是否對任務(wù)有意義,可以看出來,這個方法的負(fù)樣本的質(zhì)量實(shí)在堪憂,這就導(dǎo)致正負(fù)樣本非常容易區(qū)分,使模型學(xué)不到更好的表示。右圖是對區(qū)分正負(fù)樣本難度的分析。Batch size越大,從中找出正例的概率越低。紅色這條線使用的是T5模型,表示學(xué)習(xí)效果更好,比Scratch的方法區(qū)分正負(fù)樣本的準(zhǔn)確率高很多,甚至不需要做對比學(xué)習(xí)的微調(diào)就可以找出正負(fù)樣本。這意味著對比學(xué)習(xí)是沒有挑戰(zhàn)的。所以說直接從batch中選擇正負(fù)樣本的方法是不充分的。在實(shí)驗(yàn)中也發(fā)現(xiàn),這樣訓(xùn)練損失函數(shù)下降的是很快的,很難捕捉到對這個任務(wù)比較好的特征。

現(xiàn)在也有相關(guān)研究者做出了一些改進(jìn)

  • SSMBA:在離散空間添加擾動,如隨機(jī)mask一些詞,用masked language model 將那些詞預(yù)測回去生成新的正樣本。 
  • Dropout:使用dropout機(jī)制類似于SimCSE,將ground truth輸入進(jìn)帶有dropout機(jī)制的decoder兩次,所得到的不同表示為一對正樣本。
  • CLAPS: 在embedding空間對ground truth加擾動,通過和原來的序列語義變化的大小作為劃分正負(fù)樣本的依據(jù)。

5. 目前基于對比學(xué)習(xí)的文本生成方法仍然存在瓶頸

圖片?

基于對比學(xué)習(xí)的文本生成方法,仍然存在一系列的瓶頸,還沒有發(fā)揮出其真正的優(yōu)勢。主要有以下三點(diǎn):

  • 正負(fù)例構(gòu)建: 盡管之前的方法已經(jīng)做出了一定的改進(jìn),但是對目標(biāo)序列進(jìn)行擾動并不能反映模型當(dāng)前可能會出現(xiàn)的錯誤。
  • 對比學(xué)習(xí)損失函數(shù): 對比學(xué)習(xí)損失函數(shù)的選擇也存在問題。InfoNCELoss 只區(qū)分正負(fù)樣本,但會忽略負(fù)樣本之間的差異性。
  • 解碼目標(biāo): 僅僅是簡單的使用普通的beam search算法意味著這里存在著訓(xùn)練目標(biāo)和解碼目標(biāo)的不一致。

02 如何解決問題

1. 我們的改進(jìn)

圖片

我們提出了一種新的對比學(xué)習(xí)的框架——CoNT,只做了三件事,就可以使之前的對比學(xué)習(xí)框架性能取得非常顯著的提升。

上圖是我們的模型概述。左邊的部分就是經(jīng)典的生成框架,把原語句輸入給編碼器,目標(biāo)語句輸入給解碼器進(jìn)行訓(xùn)練。Z和 Z分別是編碼器和解碼器輸出的向量表示。

  • 第一個改進(jìn)是使用模型預(yù)測的樣例,作為對比學(xué)習(xí)的樣例

如圖中的這個句子,首先讓模型自己進(jìn)行推理,會生成一個句子,其概率約為0.48。同時,由于beam search算法,可以解碼出多個輸出,會產(chǎn)生另一個句子,其概率約為0.53。一般來說,只要返回這兩個輸出的句子就已經(jīng)足夠了,但是在對比學(xué)習(xí)的場景下,還需要得到他們的表示。

  • 第二個改進(jìn)是使用三元組的對比損失函數(shù)

在這里,不同于NCE損失,只考慮一個正例樣本,其他的都是負(fù)樣本,而我們的做法是做一個相對的損失函數(shù)。比如,當(dāng)前有一個結(jié)果是模型推理生成的,這個結(jié)果和人翻譯的結(jié)果相比就是負(fù)例,但相對于同batch的句子來說,這個結(jié)果就是正例。

  • 為對比學(xué)習(xí)的目標(biāo)所設(shè)計的解碼目標(biāo)?

通過損失函數(shù)就可以看出,如果模型推理的結(jié)果和gold reference的結(jié)果比較接近,那么它和原始輸入的錨點(diǎn)是越相似的。從圖中可以看出,如果只考慮最大似然分?jǐn)?shù),那么概率為0.53的句子將作為最后的結(jié)果,但如果多做一個相似度打分,那么概率為0.48的句子會是最后的輸出,以人為判斷來看,這個結(jié)果明顯是更準(zhǔn)確的。

這是一個直觀的例子,來自于IWSLT14德英翻譯的一個句子。主要是為了向大家展示來自于同一batch中句子的質(zhì)量和自生成的樣本的質(zhì)量的對比。

圖片?

這是對剛才模型的數(shù)學(xué)表示。?

首先,y和 y是正負(fù)樣本,都是來自于模型的分布。接下來,是三元組的對比損失函數(shù)。把所有的pair都加起來,對于每一pair,它的損失函數(shù)是MarginRankingLoss。其中,??是包含??個對比學(xué)習(xí)樣本的pair集合,大小為k(k-1)/2。對于每個(yi,yj) + 和 - 是由他們各自的 bleu score 決定的。分?jǐn)?shù)高的在這個pair中就為正例,另外一個就為負(fù)例。最后,解碼目標(biāo)是由一個序列相似度的損失加上一個語言模型的損失。在解碼的時候,為了統(tǒng)一性,引入平衡因子進(jìn)行加權(quán)和。平衡因子一般設(shè)為0.5即可。

圖片

CoNT模型并不是一個完全割裂的設(shè)計,而是相互幫助,相互運(yùn)作的框架。

首先,三元組對比損失函數(shù)可以建模樣本差異性,序列相似度可以在解碼時做全局打分,自生成的正負(fù)樣本可以反映模型當(dāng)前的錯誤,都可以提升模型的性能。模型性能提高了以后,就會意味著正負(fù)樣本會更加的challenging,隨著模型性能越來越好,正負(fù)樣本也越來越來越難以區(qū)分,直到最后收斂。對于解碼的目標(biāo),在實(shí)驗(yàn)中也證明了,三元組的對比損失函數(shù),以及自生成的正負(fù)樣本,對于序列相似度的計算都是有幫助的。

03 實(shí)驗(yàn)

1. 機(jī)器翻譯

圖片?

首先看一下機(jī)器翻譯的實(shí)驗(yàn)結(jié)果,使用的數(shù)據(jù)集是IWSLT14德英翻譯、WMT16俄英翻譯和WMT14英德翻譯數(shù)據(jù)集。第一個block是用純粹的MLE損失訓(xùn)練的結(jié)果,第二個block是用NCE損失訓(xùn)練的結(jié)果,第三個block就用構(gòu)造的模型訓(xùn)練的結(jié)果。Block2主要比較了不同的那個正負(fù)樣本構(gòu)建方法所帶來差異性。Block2和block3反映的是用不同的損失建模對于學(xué)習(xí)所帶來的收益,可以看到我們的正負(fù)樣本的構(gòu)建得到的效果顯著提高。橙色的框表示的是單看訓(xùn)練所帶來的提升。

2. 文本摘要

圖片

這是摘要生成的實(shí)驗(yàn),使用的數(shù)據(jù)集是XSum和Multi-News。第一個block仍然是比較了不同的對比學(xué)習(xí)方法,可以看出CoNT的方法比MLE的方法高了三個多點(diǎn),比之前最好的方法(CLAPS)也高了兩個點(diǎn)。同樣,在PEGASUS上面做了實(shí)驗(yàn),可以看到,也是取得了目前最好的結(jié)果。

3. 代碼注釋

圖片?

這兩個實(shí)驗(yàn)是在代碼注釋生成以及結(jié)構(gòu)化的文本生成的上面做的實(shí)驗(yàn)。?

左面這個block表示對于python和java這兩個數(shù)據(jù)集的結(jié)果。在不引入外部數(shù)據(jù)的前提下,最好結(jié)果是CodeT5+Dual-Gen,可以看到在加上CoNT之后的方法也是取得了一個新的SOTA。當(dāng)然,在引入外部數(shù)據(jù)的情況下,可以取得更好結(jié)果。右面是比較經(jīng)典的數(shù)據(jù)到文本生成的基準(zhǔn),叫WiKiBio,R2D2是之前的SOTA結(jié)果,在使用CoNT后,取得了最新的SOTA。

4. 數(shù)據(jù)到文本的生成—TOTTO

圖片?

這是數(shù)據(jù)到文本生成的另一個比較有名的數(shù)據(jù)集TOTTO,相比較WiKiBio,它的數(shù)據(jù)更加干凈。上面給的就是一個例子。在測試集上,利用CoNT方法,使用T5-base模型是可以取得和T5-3B模型相近的結(jié)果。也就是說,使用CoNT方法,可以在保證模型的性能的情況下,用非常節(jié)能的方式和3B模型取得相近的結(jié)果,甚至在BLEURT和PARENT兩個指標(biāo)上還可以取得小幅度的領(lǐng)先。

5. 常識生成—CommonGen

圖片

最后一個任務(wù)常識生成,即給定幾個關(guān)鍵詞,生成一句邏輯連貫且通順的句子。從表中可以看出,使用CoNT方法,比較之前的base的結(jié)果,取得了非常大的領(lǐng)先。和large相比也是取得了相近的結(jié)果,甚至在某些指標(biāo)上還要高。

04 討論

1. 可視化表示

圖片?

這是模型學(xué)習(xí)的表示的可視化結(jié)果。

藍(lán)色的點(diǎn)代表同一個batch中的樣例,橘色代表是從模型分布中采樣出來的,綠色表示ground truth,顏色越深代表和ground truth越相似。圖a是MLE模型的結(jié)果。圍繞綠點(diǎn)旁邊的,大多數(shù)都是模型自己推理出來的東西,但是它沒有一個很明顯的角色邊界。當(dāng)用Na?ve CL的框架后,能夠?qū)W習(xí)到很明顯的決策邊界,但是對于比較細(xì)的粒度,如這個綠點(diǎn)旁邊圍繞的其實(shí)并不是一些高質(zhì)量結(jié)果,還是比較錯亂的情況。但對于CoNT來說,也有一個明顯的角色決策邊界,而且在綠色的旁邊圍繞的大多數(shù)都是一些深色的橙點(diǎn),即模型推理出的一些質(zhì)量比較好的結(jié)果。

2. 序列相似度的權(quán)重

圖片?

這里探究在解碼時引入相似度計算的影響。這里主要做兩個study,一個是使用不同的損失函數(shù),另外一個是采用不同的正負(fù)樣例構(gòu)建方法。當(dāng)α等于零的時候,就意味著完全使用似然函數(shù)。α等于1的時候,就意味著完全依賴相似度分?jǐn)?shù)。可以看到,對于Pair-wise模型,在0-0.5時,分?jǐn)?shù)是不斷上升的。但是當(dāng)完全忽略掉似然函數(shù)時,性能也會有下降的趨勢。右邊這個圖主要反映了使用不同正負(fù)樣本構(gòu)造方式對序列相似度打分的影響,可以看到,使用CoNT的方式對reanking的目標(biāo)有比較大的幫助。

3. 如何在你的代碼中使用對比學(xué)習(xí)

圖片?

這里講一些比較工程化的東西,即假設(shè)現(xiàn)有一個基于MLE訓(xùn)練的模型,如何引入CoNT。由于我們的方法是不需要改變模型結(jié)構(gòu)的,因此只需要把模型的checkpoint加載進(jìn)來,然后調(diào)用你模型的推理階段的代碼,利用pair-wise計算損失函數(shù),直到模型收斂。在推理部分,在beam search時返回每個beam對應(yīng)的隱層的pooling操作后的向量表示,最后在預(yù)測結(jié)果的選擇時,利用平衡因子結(jié)合cosine距離和似然函數(shù)概率,選出最好的結(jié)果。

4. CoNT的優(yōu)缺點(diǎn)

在實(shí)際推理中,引入Contrastive learning幾乎不會帶來明顯的浮點(diǎn)數(shù)運(yùn)算操作(FLOPs),因此不會造成更多能量的消耗(不費(fèi)電),并且和MLE框架下訓(xùn)練的模型推理時長幾乎是一模一樣的(不影響速度)。因此在實(shí)際部署中基于Contrastive learning訓(xùn)練的模型可以容易地替換現(xiàn)有的使用MLE 訓(xùn)練的模型,但是CoNT 的一個明顯的缺點(diǎn)是:犧牲了訓(xùn)練的速度。CoNT的訓(xùn)練速度慢主要有三個方面:

圖片?

第一點(diǎn),為了獲取足夠有效或者說足夠有意義的樣本,需要先對模型進(jìn)行一次warmup,即先使用NLL損失微調(diào)模型,直到模型微調(diào)完成,才可以足夠合格的去產(chǎn)生所需要的正負(fù)樣本。

圖片?

第二點(diǎn),在訓(xùn)練時候,要引入解碼,使用beam search。在自回歸場景下,這是不可并行的,也會增加模型的一個訓(xùn)練時長。

圖片?

第三點(diǎn),在決定正負(fù)樣本時,需要計算和ground truth的相似度。這個過程其實(shí)是非常慢的,尤其是使用cpu來算,就會更慢,最后我們選擇利用矩陣乘法來近似的計算相似度,極大地降低了時間開銷。

5. 一些trade-off的方法

圖片?

這里提供兩個trade-off思路:

  • 減小樣本中來自模型分布的樣本數(shù)量,增大來自batch中的樣本數(shù)量。
  • 在驗(yàn)證集中對比學(xué)習(xí)的下降曲線在前1w步比較陡,可以考慮early stop。

6. 利用序列的相似度進(jìn)行協(xié)助解碼

圖片

目前,對于對比學(xué)習(xí)目標(biāo)的使用仍然不是最優(yōu)的。目前的生成過程是在beam search完成后加入的,相當(dāng)于是reranking的作用。當(dāng)然,這方面也是考慮到代碼的實(shí)現(xiàn)的難易度,包括和訓(xùn)練一致性的問題。當(dāng)然,使用這套方法非常有潛力去做一套協(xié)助解碼的工作。在beam search過程中,似然函數(shù)的打分可能是不可靠的。如圖中的例子,可以發(fā)現(xiàn),在beam search過程中,由于貪心策略的存在,不可能遍歷所有的結(jié)果。一個解決方案是,能否考慮每多少步,引入一個序列相似度的計算。

05 問答環(huán)節(jié)

Q1:序列相似度是如何計算的?

A1:錨點(diǎn)的選擇是編碼器的輸出,該輸出是一個sequence * h的矩陣,沿著sequence緯度進(jìn)行pooling就可以得到一個維度為h的向量,這就是一個編碼器輸出的源語句的表示。在beam search過程中我們可以得到那些不同的hypothesis的表示也是sequence * h的矩陣,這些序列長度是不同的,我們也沿著長度的維度進(jìn)行pooling獲得編碼器輸出的hypothesis向量,然后通過這些輸出和源輸入的相似度就可以計算出序列相似度的得分。

Q2:CoNT有運(yùn)用到對話任務(wù)上嗎?

A2:我們在實(shí)驗(yàn)中沒有做對話任務(wù),因?yàn)榭紤]到單輪的對話可能研究價值沒有那么大,但是多輪對話和我們整個框架在訓(xùn)練和解碼過程中都稍微有一點(diǎn)不一致,所以說沒有去做對話的工作。所以可能也不能給你一個非常絕對的一個回答,歡迎后面進(jìn)行實(shí)驗(yàn)和討論。

Q3:請問Warmup是訓(xùn)練到收斂還是訓(xùn)練到一定效果就可以?

A3:我們在進(jìn)行實(shí)驗(yàn)時都是訓(xùn)練到收斂的,當(dāng)然,訓(xùn)練到一定效果其實(shí)也是可以的。但是,由于CoNT在訓(xùn)練的時候是需要進(jìn)行推理的也就導(dǎo)致整個訓(xùn)練速度會比只做MLE的速度慢很多,所以盡量是勸大家先把warmup訓(xùn)收斂,因?yàn)槿绻葲]有收斂的話,雖然在后面的訓(xùn)練過程中NLL依然會接著訓(xùn)練,但是可能會為后續(xù)的帶對比損失的訓(xùn)練造成更多的訓(xùn)練時常開銷,當(dāng)然,最終效果其實(shí)應(yīng)該是不影響的。

Q4:可以把blue分?jǐn)?shù)直接分類成soft label一樣的東西,放到對比學(xué)習(xí)的損失函數(shù)里面嗎?

A4:可以的。可以通過blue分?jǐn)?shù)控制兩個樣本之間的margin,比如說一個blue分?jǐn)?shù)比較高,一個blue分?jǐn)?shù)比較低,那他們之間的margin就比較大,如果這兩個blue分?jǐn)?shù)差不多,那他們的margin就比較小。當(dāng)然,我不建議直接去對blue分?jǐn)?shù)進(jìn)行優(yōu)化,因?yàn)樵谏缮系腞L確實(shí)在訓(xùn)練中比較不穩(wěn)定。

Q5:有哪些數(shù)據(jù)集是驗(yàn)證生成語言的常識準(zhǔn)確性?

A5:我只做了剛剛我們做的常識生成的這個數(shù)據(jù)集CommonGen,也有一些其他數(shù)據(jù)集如CommonSense QA。把這個準(zhǔn)確性理解成事實(shí)一致性的話,在我們的這個任務(wù)中其中評測準(zhǔn)確性的指標(biāo)是CIDER和SPICE。如果要自動評價一個常識的準(zhǔn)確性,可能是需要人工評價,或者是用模型評價。用模型評價的話目前來說工作還不是很多,在摘要上有一個比較有名的FACTCC,翻譯上好像沒看到。


DataFunSummit

責(zé)任編輯:張燕妮 來源: DataFunTalk
相關(guān)推薦

2017-07-12 12:43:42

數(shù)據(jù)庫SQL

2012-09-28 15:06:43

2018-11-16 16:10:28

JavaOOM編程語言

2012-08-30 14:43:19

IBMdw

2020-07-30 11:41:52

IT團(tuán)隊(duì)遠(yuǎn)程工作CIO

2025-08-06 07:37:22

2011-11-02 09:54:37

測試

2017-07-07 08:46:51

災(zāi)難恢復(fù)架構(gòu)

2021-03-15 08:40:46

數(shù)據(jù)分析波動

2013-06-04 10:35:55

虛擬化IT系統(tǒng)

2009-10-13 15:38:04

CMDB

2019-05-09 14:32:13

IT中斷災(zāi)難恢復(fù)攻擊

2021-12-12 21:36:04

Java開發(fā)代碼

2019-02-28 07:34:56

欺騙勒索軟件攻擊

2018-11-26 07:23:08

數(shù)據(jù)數(shù)據(jù)分析

2024-03-05 13:47:24

云計算容器服務(wù)

2023-12-06 13:49:00

低代碼開發(fā)

2017-04-28 09:04:32

移動應(yīng)用開發(fā)反饋

2017-08-21 16:00:14

機(jī)器學(xué)習(xí)機(jī)器翻譯

2020-10-11 22:05:22

機(jī)器翻譯谷歌AI
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號

国产精品免费在线| 久久精品亚洲一区| 午夜免费精品视频| 香蕉视频网站在线观看| 国内精品伊人久久久久av影院| 久久福利网址导航| 日本一级片在线播放| av成人在线观看| 一区二区成人在线视频| 欧美亚洲免费在线| 国产999久久久| 石原莉奈在线亚洲三区| 久久99视频免费| 美女爆乳18禁www久久久久久| 国产精品亚洲欧美日韩一区在线| 精品福利一区二区| eeuss中文| 欧美大片aaa| 国产成人免费在线观看不卡| 国产999精品久久久影片官网| 日本中文在线视频| 国产在视频线精品视频www666| 日韩一区二区在线观看| 天天爱天天操天天干| free性欧美| 成人免费在线播放视频| 欧美激情视频一区二区三区| 不卡视频在线播放| 毛片一区二区三区| 国产成人精品日本亚洲| www.天天色| 一区二区三区毛片免费| 国产亚洲欧美一区| 中文字幕免费在线播放| 日韩最新av| 欧美亚洲高清一区| 人妻有码中文字幕| 678在线观看视频| 亚洲欧美激情小说另类| 一区二区三区在线视频看| 欧美日韩在线中文字幕| 成人精品一区二区三区中文字幕| 亚洲va久久久噜噜噜| 国产日韩久久久| 免费亚洲一区| 69视频在线播放| 精品少妇theporn| 自拍偷拍欧美专区| 俺也去精品视频在线观看| 精品人妻一区二区三区四区| 欧美猛男做受videos| 日韩电视剧免费观看网站| 婷婷五月精品中文字幕| 国产精品45p| 亚洲国产精品久久91精品| 免费看黄色片的网站| 91久久精品无嫩草影院| 欧美va在线播放| 波多野结衣电影免费观看| 国产精品麻豆| 日韩欧美成人激情| 中文字幕永久免费| 国产成人aa在线观看网站站| 精品久久久久久久久久久久包黑料 | 精品一区二区久久| 成人写真福利网| jizz中国女人| 成人丝袜18视频在线观看| 国产精品一区免费观看| 四虎精品在永久在线观看 | 亚洲一二三四五六区| 色综合咪咪久久网| 欧美成人午夜激情视频| 欧美一级高潮片| 国产精品日本欧美一区二区三区| 欧洲中文字幕国产精品| 超碰在线97观看| 久久er99精品| 国产精品对白一区二区三区| 丰满岳乱妇国产精品一区| www.日韩av| 欧洲亚洲一区| 久久五月精品| 天天综合网天天综合色| 精品久久久久久久免费人妻| 国产精品伦一区二区| 91麻豆精品国产无毒不卡在线观看| 性生活一级大片| 欧美影院天天5g天天爽| 中文字幕精品一区二区精品| 日韩欧美综合视频| 一本久久综合| 国产伊人精品在线| 天堂在线视频观看| 国产精品天美传媒沈樵| 艳母动漫在线免费观看| 中文在线免费二区三区| 91麻豆精品国产91久久久使用方法 | 日韩在线第三页| 成人激情久久| 亚洲精品大尺度| 人成免费在线视频| 亚洲手机视频| 国产免费一区二区三区香蕉精| 亚洲高清视频在线播放| 欧美韩国日本一区| 国产3p露脸普通话对白| 成人黄色毛片| 亚洲精品成人网| 色老板免费视频| 久久精品官网| 国产精品一区免费观看| 黄色网址视频在线观看| 色综合久久88色综合天天免费| 中文字幕第22页| 国产欧美日韩| 国内精品久久影院| 国产美女永久免费| 国产婷婷精品av在线| 久久精品xxx| 六九午夜精品视频| 亚洲欧美日韩一区在线| 久久久久久久久久久网| 久久av资源站| 亚洲高清在线观看一区| 一区二区三区四区日本视频| 日韩欧美综合一区| 一级性生活免费视频| 久久精品三级| 九九99久久| 成人影院在线播放| 日韩欧美一区中文| 国产福利在线导航| 日本成人中文字幕在线视频| 久99久在线| 高清电影在线免费观看| 日韩午夜中文字幕| 欧美三级日本三级| 国产一区二区三区精品欧美日韩一区二区三区 | 国产999精品久久久| 午夜视频福利在线| 亚洲成av人片观看| 在线精品视频播放| 欧美精品入口| 成人免费看片网址| 少妇av在线| 欧美成人精品高清在线播放| 国产suv一区二区三区| 精品一区二区三区在线播放视频| 色涩成人影视在线播放| 影视一区二区三区| 一区二区三区动漫| 中文字幕永久在线观看| 国产欧美一区二区在线| 国产野外作爱视频播放| 欧美一区二区三区高清视频| 国产精品成人va在线观看| 国产中文字幕在线观看| 欧美色倩网站大全免费| 中文字幕第二区| 国产一区二区在线电影| 久久久天堂国产精品| 亚洲精选av| 97精品国产91久久久久久| 无套内谢的新婚少妇国语播放| 欧美日韩国产限制| 亚洲精品视频久久久| 日韩av中文在线观看| 婷婷四房综合激情五月| 自拍偷拍欧美日韩| 欧美黑人巨大xxx极品| 欧美一区,二区| 欧美特级www| 成人免费视频入口| 国产精一区二区三区| 国产日韩欧美精品在线观看| 妖精一区二区三区精品视频 | 日本一区二区三区播放| 久久久久久com| 日本人妖在线| 欧美丰满少妇xxxxx高潮对白 | 国模 一区 二区 三区| 好看的日韩精品视频在线| 日日av拍夜夜添久久免费| 久久久成人精品视频| 日本成人动漫在线观看| 在线欧美小视频| 清纯粉嫩极品夜夜嗨av| 久久久久久久性| 久久久久久综合网| 99热精品在线| 性欧美18一19内谢| 天堂俺去俺来也www久久婷婷| 国产精品视频一区二区三区四 | 日韩精品一区二区久久| 波多野结衣精品久久| 欧美男体视频| 色综合天天狠天天透天天伊人| 免费在线一级视频| 日韩一区二区不卡| 欧美一级黄视频| 亚洲精品自拍动漫在线| 真实乱视频国产免费观看| 国产伦精品一区二区三区免费迷 | 蜜桃一区二区三区四区| 高清无码一区二区在线观看吞精| 丁香六月婷婷综合| 亚洲av片一区二区三区| 在线视频综合导航| 久久网中文字幕| 国产精品三级av| 丰满岳乱妇一区二区| 蜜臀av性久久久久av蜜臀妖精| 你真棒插曲来救救我在线观看| 999精品一区| 欧美亚洲免费在线| 精品国产午夜肉伦伦影院| 成人黄色午夜影院| 都市激情亚洲综合| 久久免费视频这里只有精品| 免费观看在线黄色网| 亚洲视频欧洲视频| 人人妻人人澡人人爽久久av| 日韩一级二级三级精品视频| 一二三四区在线| 在线一区二区三区做爰视频网站| 黄色激情视频在线观看| 亚洲免费观看高清在线观看| 国产精品麻豆一区| 国产午夜精品一区二区| 给我免费观看片在线电影的| 国产99久久久精品| 亚洲综合在线一区二区| 狠狠色丁香久久婷婷综合_中 | 精品少妇一区二区三区视频免付费| 中文有码在线播放| 日韩欧美精品中文字幕| 国产精品999在线观看| 亚洲综合久久久久| 高h视频免费观看| 亚洲视频图片小说| 久久精品一区二区三区四区五区| 中文字幕第一区第二区| www..com.cn蕾丝视频在线观看免费版 | 国产精品成av人在线视午夜片| 欧美裸体视频| 97视频在线观看网址| 妞干网免费在线视频| 久久久亚洲影院| 日韩伦理在线| 热久久视久久精品18亚洲精品| 欧美极度另类| 国产精品成人va在线观看| jizz欧美| 成人免费自拍视频| 国产精品视频一区视频二区| 97久久夜色精品国产九色 | 精品国产电影一区二区| 成人激情四射网| 精品国产乱码久久| 日韩二区三区| 夜夜嗨av色一区二区不卡| jizz在线观看视频| 色偷偷噜噜噜亚洲男人| 羞羞网站在线看| 午夜美女久久久久爽久久| 偷拍自拍在线看| 国产精品99久久99久久久二8| 成人国产精品一区二区免费麻豆 | 欧美a级网站| 欧美综合激情| 中文字幕亚洲综合久久五月天色无吗''| av片在线免费| 久久精品道一区二区三区| 国产精品视频中文字幕| 国产成人久久精品77777最新版本| 国产大学生视频| 国产喂奶挤奶一区二区三区| 26uuu成人网| 欧美性xxxxxxx| 亚洲一区二区色| 精品福利二区三区| 久久av少妇| 久久精品人人爽| 大桥未久在线视频| 国产精自产拍久久久久久蜜| 98视频精品全部国产| 日韩精彩视频| 欧美深夜福利| aaa毛片在线观看| 国产一区在线精品| 欧美亚一区二区三区| 亚洲人成7777| 日本黄色一级视频| 日韩欧美中文字幕一区| 欧美理论在线观看| 九九九久久国产免费| 希岛爱理一区二区三区av高清| 91九色视频在线| 久久99国产精品视频| 少妇久久久久久被弄到高潮| 水蜜桃久久夜色精品一区的特点| 久久久久久国产精品日本| ww久久中文字幕| 欧美成欧美va| 欧美系列日韩一区| 亚洲欧洲成人在线| 欧美日韩高清在线观看| 国产亚洲精品精品国产亚洲综合| 国产在线一区二| 欧美~级网站不卡| 成人性生生活性生交12| 成人免费视频免费观看| 天堂网avav| 欧美色精品在线视频| 天堂中文字幕av| 欧美贵妇videos办公室| 色999韩欧美国产综合俺来也| 欧美日韩成人一区二区三区| 激情综合电影网| 国产黄色一区二区三区| 国产精品色一区二区三区| youjizz在线视频| 欧美精品一区在线观看| av黄色在线| 亚洲va码欧洲m码| 久久精品国产www456c0m| av在线无限看| 久久久精品人体av艺术| 国产精品男女视频| 亚洲精品乱码久久久久久按摩观| 直接在线观看的三级网址| 国产欧美精品久久久| 综合伊思人在钱三区| 亚洲美免无码中文字幕在线| 成人久久18免费网站麻豆 | 国产在线高清理伦片a| 国产欧美一区二区三区视频 | 久久国产精品偷| 成人影院网站ww555久久精品| 亚洲国产一区二区精品视频 | 午夜一级久久| 成人手机在线免费视频| 午夜精品久久久久久久99水蜜桃| 丰满人妻一区二区三区免费| 欧美日韩国产二区| 91精品国产自产在线丝袜啪| 成年人视频网站免费| 国产成人精品影视| 精品无码人妻一区二区三| 精品国产免费一区二区三区香蕉| 欧美色图天堂| 国产欧美一区二区视频| 一本久道久久综合婷婷鲸鱼| 真人bbbbbbbbb毛片| 色婷婷综合久久久久中文 | 欧美亚洲伦理www| 欧美自拍视频| 国产男女激情视频| 国产亚洲美州欧州综合国| 亚洲天堂网视频| 美女视频黄免费的亚洲男人天堂| 日韩区欧美区| 你懂的av在线| 中文字幕不卡三区| 国产又大又粗又长| 欧美国产亚洲视频| 欧美成a人免费观看久久| mm1313亚洲国产精品无码试看| 国产精品久久久久久久久快鸭 | 国产午夜精品一区在线观看| 轻点好疼好大好爽视频| 91在线观看一区二区| 日本丰满少妇做爰爽爽| 久久伊人精品视频| 久久久久高潮毛片免费全部播放| 日日碰狠狠躁久久躁婷婷| 中文字幕在线观看一区| 亚洲国产综合网| 日本一区二区三区在线播放| 99精品视频精品精品视频| 久久av一区二区三| 一本色道综合亚洲| 二区三区四区高清视频在线观看| 国产精品一区二区a| 日日摸夜夜添夜夜添精品视频| 三级av在线免费观看| 日韩电影在线观看中文字幕 | av日韩中文字幕| 久久精品国语| 老湿机69福利| 亚洲一区二区久久久| 欧洲精品99毛片免费高清观看| 日韩精品视频久久| 亚洲免费观看高清完整版在线 | 日韩av网址大全| 日韩精品aaa| 91黄视频在线观看| 欧美videosex性极品hd| 深田咏美在线x99av|