精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

大模型最強架構TTT問世!斯坦福UCSD等5年磨一劍, 一夜推翻Transformer

人工智能 新聞
超越Transformer和Mamba的新架構,剛剛誕生了。斯坦福UCSD等機構研究者提出的TTT方法,直接替代了注意力機制,語言模型方法從此或將徹底改變。

一覺醒來,超越Transformer和Mamba的新架構誕生了?

圖片

斯坦福、UCSD、UC伯克利和Meta的研究人員提出了一種全新架構,用機器學習模型取代RNN的隱藏狀態。

圖片

論文地址:https://arxiv.org/abs/2407.04620

這個模型通過對輸入token進行梯度下降來壓縮上下文,這種方法被稱為「測試時間訓練層(Test-Time-Training layers,TTT)」。

圖片

TTT層直接替代了注意力機制,解鎖了具有表現力記憶的線性復雜度架構,使我們能夠在上下文中訓練包含數百萬(未來可能是數十億)個token的LLM。

作者相信,這個研究了一年多的項目,將從根本上改變我們的語言模型方法。

而結果證明,TTT-Linear和TTT-MLP直接趕超或擊敗了最強的Transformer和Mamba!

作者之一的Xiaolong Wang驚喜地表示:不敢相信,我們真的做到了。

圖片

更令人興奮的是,雖然目前TTT只應用于語言建模,但在未來,它也可以用在長視頻上,可謂前景遠大。

在將來,當我們對長視頻進行建模時,就可以對幀進行密集采樣,而不是采樣1FPS了。這些密集幀對Transformer是一種負擔,但對于TTT層來說,這卻是一種福音!

一個5年多的想法,終于實現了

作者表示,在過去的1.5年里,團隊一直在開發一種新的LLM架構,可以具有線性復雜度和更強的隱藏狀態,用于長上下文建模。

而這個測試時訓練(TTT)的想法,已經研究了超過5年。

Xiaolong清晰記得,在剛開始做博士后時,Alyosha曾讓自己去找Yu Sun討論TTT。

這次會面,就是這項研究的起點。

圖片

序列模型會把歷史上下文存儲在一個隱藏狀態中。

像Mamba這樣的RNN層,會隨著時間的推移壓縮成一個固定大小的狀態,它們雖然效率很高,但性能受限于其表達能力。

注意力機制有一個KV緩存,它會隨著時間的推移不斷增長。這個狀態不會壓縮任何歷史上下文,但隨著上下文長度的增加,成本也會越來越高。

團隊成員想:既然這樣,為什么不把上下文壓縮到模型的權重中——就像LLM處理互聯網數據那樣呢?

這種「隱藏狀態模型」既能在時間上保持固定大小,又能大大增強表達能力。

圖片

研究人員使用了自監督學習來更新隱藏狀態的權重,對每個token進行一次梯度下降。在處理一個序列時,該狀態已經在其上下文窗口中的token上「訓練」過了。

值得注意的是,隱藏狀態只存在于端到端架構中的一層。其他組件,比如QKV投影矩陣,是在預訓練期間通過標準的交叉熵目標函數學習的。

因此,端到端架構實際上是在進行元學習,尋找壓縮上下文的最佳方式,以便更好地預測下一個token,也就是在「學習如何在測試時學習」。

結果顯示,與Mamba相比,TTT-Linear具有更好的困惑度和更少的FLOP(左),并且更好地利用了長上下文(右)。

圖片

下圖顯示了批大小為16的情況下,隨著上下文長度的變化,每個token的前向時間(延遲)。所有模型的參數都是1.3B(Mamba為1.4B)。

可以看到,隨著上下文長度的增加,Transformer每個token的前向時間呈線性增長,但其他兩種方法的前向時間基本保持不變。

在8k上下文時,TTT-Linear比Transformer更快,與Mamba相當。

圖片

RNN的尷尬現實

2020年,OpenAI縮放定律論文表明LSTM(RNN的一種)無法像Transformer那樣進行縮放,或有效地使用長上下文。

真的是這樣嗎?

在這個項目中,研究人員重新評估了圖2中的這些發現。

圖片

在左側,可以觀察到Mamba(當今最流行的RNN之一)的擴展性與強大的Transformer類似,這是自2020年的LSTM以來顯示出的巨大進步。

然而,在右側,可以觀察到與OpenAI相同的Mamba問題。

平均而言,序列中靠后的token應該更容易預測,因為它們以更多信息為條件。

對Transformer來說確實如此,每個token索引的平均復雜度在其32k上下文中不斷減少。相比之下,Mamba在16k后就出現了同樣的情況。

對于現有的RNN來說,這個結果代表了一個尷尬的現實——

一方面,RNN(相對于Transformer)的主要優勢就是它們的線性(相對于二次)復雜性。這種漸進優勢實際上只會在長上下文中實現。

另一方面,一旦上下文足夠長,現有的RNN(如Mamba)就很難真正利用額外的條件信息。

長上下文的困難是RNN層本質上的問題:與自注意力機制不同,RNN層必須將上下文壓縮為固定大小的隱藏狀態。

作為一種壓縮啟發式,更新規則需要發現成千上萬甚至數百萬個token之間的底層結構和關系。

研究人員首先觀察到,自監督學習可以將大量訓練集壓縮為LLM等模型的權重,該模型通常表現出對其訓練數據之間語義聯系的深刻理解,而這,恰恰是他們所需要的。

圖片

TTT層

受此啟發,研究人員設計了一類新的序列建模層,其中隱藏狀態是模型,更新規則是自監督學習的一個步驟。

由于更新測試序列上隱藏狀態的過程,相當于在測試時訓練模型,因此此類新層稱為測試時訓練(TTT)層。

研究人員引入兩個簡單的實例:TTT-Linear和TTT-MLP,其中隱藏狀態分別是線性模型和兩層MLP。TTT層可以集成到任何網絡架構中并進行端到端優化,類似于RNN層和自注意力。

實際運行時間

TTT層在FLOP方面已經非常高效,研究人員則更進一步地提出了兩項創新,使其在實際運行時間內也能保持高效。

首先,與在常規訓練中對mini-batch序列采取梯度步進以實現更好的并行性類似,他們也在TTT中使用了mini-batch的token。

其次,研究人員為每個TTT mini-batch內的操作開發了一種對偶形式,以更好地利用現代GPU和TPU。這種對偶形式的輸出與原始實現相當,但訓練速度卻快了5倍以上。

正如圖3所示,TTT-Linear在8k上下文中比Transformer更快,并且與Mamba相當。

圖片

Transformer殺手——TTT

如圖4所示,所有的序列建模層,都可以從將歷史上下文存儲到隱藏狀態的角度來看待。

比如,RNN層——如LSTM、RWKV和Mamba層——將上下文壓縮成一個固定大小的狀態,這個狀態隨時間變化。

這種壓縮帶來了兩種結果:優勢是處理效率高,因為每個token的處理時間是恒定的。劣勢是在處理長上下文時,RNN性能受限于隱藏狀態的「表達能力」。

自注意力機制(Self-attention)也可以從如上角度來理解。

不同之處在于,它的隱藏狀態,通常稱為鍵值(KV)緩存是一個隨t增長的線性list。

它可以存儲所有的上下文,并且不會進行壓縮,具有很好的表達能力,不過其處理時間隨上下文長度線性增長。

圖片

因此,為了在長上下文中既保持效率,又具有表達能力,需要一個更好的「壓縮啟發式」(compression heuristic)方法。

具體來說,就需要將數百萬個token壓縮成一個能有效捕捉其底層結構和關系的隱藏狀態。

TTT隱藏狀態


研究人員的關鍵思想是,使用自監督學習來將歷史上下文圖片壓縮成一個隱藏狀態圖片。

方法是將上下文視為一個無標簽數據集,而將狀態視為一個模型。

具體來說,隱藏狀態圖片現在等同于一個模型f的權重圖片,這個模型f可以是線性模型、小型神經網絡或其他任何形式。輸出規則簡單地表示為:

圖片

直觀講,輸出token就是由更新后權重圖片的模型f對圖片所做的預測。更新規則是在某個自監督損失?上進行的一步梯度下降:

圖片

其中學習率為η。從壓縮的角度來看,每種啟發式方法都需要決定記住/忘記哪些輸入。W會記住那些產生大梯度的輸入——直觀地說,就是那些使W學習很多的輸入。

?的一種選擇是重構圖片本身。為了使學習問題變得非平凡,作則首先將圖片處理成一個被破壞的輸入圖片,然后優化:

圖片

類似于去噪自編碼器,f需要發現圖片各維度之間的相關性,以便從部分信息圖片中重構出圖片。

如圖5所示,梯度下降能夠減少?,但無法將其降至零。

圖片

與其他RNN層和自注意力機制一樣,研究人員將輸入序列圖片映射到輸出序列圖片的算法可以被編程到序列建模層的前向傳播中,使用上述的隱藏狀態、更新規則和輸出規則。

即使在測試時,新層仍然為每個輸入序列訓練一個不同的權重序列圖片。

因此,研究人員將其稱之為測試-時間訓練層(TTT)。

使用TTT層訓練神經網絡

TTT層的前向傳播,也有相應的后向傳播。

TTT層與RNN層、自注意力機制有著相同的接口,因此可以在任何更大的神經網絡架構中替換它們。

值得一提的是,訓練帶有TTT層神經網絡的方式,與訓練任何其他Transformer模型相同。

可以使用相同的數據、方法和目標(如下一個token預測)來優化網絡其余部分的參數。

在此,研究人員將訓練更大的神經網絡稱為外循環(outer loop),而在每個TTT層內訓練W稱為內循環(inner loop)。

它們之間梯度計算的區別是,內循環針對的是W(即模型f的參數),外循環針對的是網絡其余部分的參數圖片。

TTT學習自監督任務

可以說,TTT最重要的部分是自監督任務,因為它決定了W從測試序列中學習的特征類型。

在這個任務的設計上,研究人員采取了更加端到端的方法——直接優化自監督任務以實現下一個token預測的最終目標。

具體來說,研究著將自監督任務的學習,作為外循環的一部分。

從如上公式3中的簡單重構任務開始,添加了一些外循環參數來讓這個任務可學習。最新的自監督損失是:

圖片

在內循環中,只有W被優化,因此作為?的參數寫出;θ們是這個損失函數的「超參數」。在外循環中,圖片圖片一起被優化,而W僅僅是一個隱藏狀態,不是參數。

圖6用代碼說明了這種區別,其中圖片圖片被實現為TTT層的參數,類似于自注意力中的KV參數。

圖片

總的來說,圖片所有可能的選擇構成了一系列多視圖重構任務,外循環可以被理解為從這個任務組中選擇一個具體任務。為了簡單起見,研究人員在這里將所有視圖設計為線性投影。

mini-batch TTT并行化

目前,開發的原生TTT層在浮點運算(FLOP)次數方面已經非常高效。

然而,其更新規則圖片無法實現并行化,因為圖片在兩個位置上依賴于圖片:負號和圖片。

對此,研究人員提出了mini-batch梯度下降,用b表示TTT批大小。

圖片

研究中使用圖片,其中圖片代表著前一個mini-batch的最后一個時間步(或者第一個mini-batch 0),因此,可以一次并行b個梯度計算。

對偶形式

上面介紹的并行化是必要的,但對于「實際運行時間」(wall-clock time)的效率來說還不夠。

正如之前所述,可以對于t = 1, . . . , b進行并行計算:

圖片

然而,現實中,是無法對單個matmul來計算圖片所有的b。

相反,需要b個外積來對其進行一一計算。更糟糕的是,對于每個圖片,圖片是d×d,這會比大d圖片產生更大的內存占用和I/O成本。

為了解決這兩個問題,研究人員觀察到:我們實際上并不需要具體化G1, . . . , Gb,只要要我們可以在mini-batch結束時計算圖片,并且輸出token z1, . . . , zb(如上圖7所示)。

現在,就可以用上面簡化的TTT-Linear情況來演示這些計算,表示X = [x1, . . . , xb]:

圖片

所以圖片可以用matmul方便地計算出來。為了計算Z = [z1, . . . , zb],我們知道:

圖片

表示圖片和矩陣圖片,可以得出:

圖片

如上過程,研究人員將其稱為「對偶形式」。

理論等價

前面已經提到f可以是線性模型,也可以是神經網絡。還有更新規則的三種變體:online GD、batch GD和mini-batch GD。

如下圖所示,在這些2×3組合中,每一種都會引起TTT層的不同實例化。

圖片

研究中,作者分別從2個定理證明了在這些誘導實例中,具有線性模型和batch GD的TTT層等同于線性注意力——一個廣為人知的RNN層。

圖10總結了所有序列建模層的更廣泛范圍內TTT層的一般定義。

圖片

兩種變體

研究中,作者提出了TTT層的兩種變體TTT-Linear和TTT-MLP,僅在f的實例化方面有所不同。

對于TTT-Linear,圖片,其中W是平方。對于TTT-MLP,圖片有兩層,類似于Transfomer的MLP。

具體來說,隱藏維度是4×輸入維度,然后是GELU激活。為了在TTT期間獲得更好的穩定性,f始終包含層歸一化 (LN) 和殘差連接。

即,圖片,其中,圖片可以是圖片圖片。

實驗

通過與兩個基線Transformer和Mamba(現代RNN)比較,研究人員評估了TTT-Linear和TTT-MLP。

數據集

繼續Mamba論文之后,研究人員在Pile上執行了2k和8k上下文長度的標準實驗,Pile是一個用于訓練開源LLM的流行文檔數據集。

主架構

Transformer和Mamba使用不同的,除非另有說明,TTT-Linear和TTT-MLP始終使用Mamba架構。

短上下文:the Pile

在2k上下文中,TTT-Linear(M)、Mamba和Transformer具有相當的性能,線條大部分重疊。

圖片

TTT-MLP(M)在較大的FLOP預算下表現稍差。盡管TTT-MLP在每個模型大小上,都比TTT-Linear具有更好的復雜度,但FLOP的額外成本抵消了這種優勢。

在8k上下文中,TTT-Linear(M)和TTT-MLP(M)的表現均明顯優于Mamba。即使是具有Transformer架構的TTT-MLP(T),性能也比Mamba略好。

另外,研究人員還觀察到了一個非常明顯的現象:隨著上下文長度變長,TTT層相對于Mamba的優勢就更大了。

長上下文:Books

為了評估長上下文中的功能,研究人員使用了Pile的一個流行子集——Books,對從1k到32k以2個增量的上下文長度進行了實驗。

圖片

根據上圖,可以觀察到——

在Books的2k上下文中,Pile 2k的所有觀察結果仍然成立,唯一的例外是Mamba的表現略好于TTT-Linear。

在32k上下文中,TTT-Linear(M)和TTT-MLP(M)的性能均優于Mamba,與Pile 8k的觀察結果類似。即使具有Transformer架構的TTT-MLP(T),在32k上下文中的表現也比Mamba稍好。

在1.3B尺度上,TTT-MLP(T)僅比TTT-MLP(M)稍差。由于缺之清晰的線性擬合,很難推導出經驗縮放定律。然而,TTT-MLP(T)的強勁趨勢表明,Transformer架構可能更適合超出評估的更大模型和更長上下文。

上下文長度作為超參數

雖然輸入序列的長度由用戶確定,但語言模型處理輸入的上下文長度可以由工程師確定。因此,上下文長度也是一個可以選擇的超參數。

對于具有線性復雜度的LLM,研究人員選擇了困惑度中的argmin,因為每個上下文長度都有相同的FLOP。

圖片

從圖13中,可以觀察到以下結果——

- 性能最好的方法TTT-Linear和TTT-MLP的線幾乎完全重疊。Mamba和TF Finetune的線在10^20 FLOP后也大部分重疊。

- TF Finetune的性能明顯優于TF Pretrain,因為它受益于長上下文,而不會在訓練FLOP中產生極大的成本。

- 對于所有從頭開始訓練的方法(包括TF預訓練),一旦上下文長度變得太大,困惑度就會變得更糟。

圖片

從上圖可見,與TTT-Linear相比,TTT-MLP在短上下文中表現稍差,但在長上下文中表現更好。

這一觀察結果正符合研究人員的預期,即作為隱藏狀態的MLP比線性模型更具表現力。同樣,所有方法都具有與Mamba 1.4B相同的訓練FLOP。

實際運行時間

LLM訓練和推理可以分解為前向、后向和生成。

由于前向(在訓練和推理期間)和后向都可以并行化,因此研究人員使用對偶形式。生成新token(也稱為解碼)本質上是順序的,因此研究人員使用原始形式。

由于資源限制,這項實驗是用JAX編寫并在TPU上運行的。

然而,由于Mamba(在PyTorch、Triton和CUDA中實現)只能在GPU上運行,因此為了公平比較,研究人員還重寫了方法,以在GPU上運行。

具體來說,研究人員在ThunderKittens中編寫了一個用于前向的GPU內核。從歷史上看,由于并行性和矩陣相乘的使用不當,RNN在前向和后向過程中效率低下。

這個前向內核的目標,是證明mini-batch TTT和這些問題對偶形式的有效性。

圖片

圖15的左圖顯示了前向內核批大小為16的延遲。所有模型參數均為1.3B(Mamba為 1.4B)。

對于Transformer,每個token的時間隨著上下文長度的增加而線性增長,但對于其他方法則大致保持不變。

此外,研究人員在Triton中編寫了另一個用于生成的GPU內核,并在圖15的右圖中對批大小為512的速度進行了基準測試。

可以看出,TTT-Linear和Mamba的延遲幾乎相同,明顯小于Transformer和TTT-MLP。

Mamba之后,又看到TTT這么能打的新架構誕生,少不了AI社區的熱議。

有網友稱,這會不會是最接近實時上下文的方法?很想聽聽大家的想法。這意味著TTT甚至在使用過程中,也能夠學習和適應,為長上下文提供更好的性能,而不會產生通常與Transformer相關的高昂計算成本。

圖片

OpenAI視頻生成研究人員對此表示,這項研究看起來很有趣。

圖片

如果scaling law依然存在,TTT將帶來難以置信的影響。對于長序列,Transformer的計算成本往往很高,當長序列變得更長時,RNN會遺忘。TTT訓練巧妙地利用神經網絡解決RNN的不足。

圖片

作者介紹

論文最后,分別列出了這篇研究的作者貢獻。

圖片

其中的核心作者是,Yu Sun、Xinhao Li和Karan Dalal。

Yu Sun

圖片

Yu Sun是斯坦福大學計算機專業的博士后,導師是Carlos Guestrin、Tatsu Hashimoto和Sanmi Koyejo。

此前,他曾在加州大學伯克利分校完成了電子工程科學博士學位,導師是Alyosha Efros和Moritz Hardt。他還在康奈爾大學拿到了學士學位。

個人主頁中,他介紹自己的研究重點是一種名為測試時間訓練(test-time training)的算法框架。其核心思想是,每個測試實例都定義了自己的學習問題,都有自己的泛化目標。這通常使用自監督學習,為每個實例即時訓練一個不同的模型來實現的。

在最新研究中,Yu Sun與Xinhao Li在2022年11月共同啟動了這一項目。自2023年6月起,Yu Sun專職負責該項目。

他提出了項目的概念框架,設計了mini-batch TTT和對偶形式(dual form)。

Xinhao Li

圖片

Xinhao Li是UC San Diego研二的學生,導師是Xiaolong Wang教授。他本人的研究興趣主要是深度學習和計算機視覺。

他在斯坦福大學Tatsunori Hashimoto教授的團隊中作為訪問學生,與Yu Sun博士和其他導師朋友一起工作。在此之前,他曾在電子科技大學獲得了學士學位。

在2024年3月之前,Xinhao Li是TTT早期代碼庫的主要貢獻者,這些代碼庫塑造了最新項目。

Karan Dalal

圖片

Karan Dalal是UC Berkeley電子工程科學系的本科生。他于2023年6月全職加入該項目,與Xinhao Li合作共同領導了當前代碼庫的開發工作。

責任編輯:張燕妮 來源: 新智元
相關推薦

2025-02-20 10:07:09

2009-07-27 18:49:01

ITIL運維管理摩卡

2024-04-07 13:40:20

2012-08-30 09:47:22

編程自學編程程序員

2013-09-23 09:41:30

BigipSDNF5

2011-11-04 09:04:50

Eclipse

2020-05-27 09:20:43

聯成科技

2011-05-11 11:06:14

IBMPower路線圖

2019-07-25 13:17:48

青云QingCloud網絡存儲

2011-04-03 15:50:10

2021-05-31 09:46:15

華為MatePad Pro鴻蒙系統

2022-07-14 15:08:23

AI模型

2017-03-27 13:04:23

互聯網

2013-07-16 10:05:41

阿里巴巴大數據

2016-07-19 15:16:15

存儲初志

2011-11-28 09:26:57

2017-09-01 13:20:43

華為

2021-03-04 22:33:43

人工智能制藥醫療

2015-11-03 10:20:08

2022-11-03 18:29:09

阿里云達摩院人工智能
點贊
收藏

51CTO技術棧公眾號

麻豆影视在线观看_| 国产在线观看免费视频今夜| 成人免费一区| 一区二区激情视频| 久久国产精品一区二区三区| 久久这里只有精品9| 忘忧草精品久久久久久久高清| 欧美一区二区三区人| 日日橹狠狠爱欧美超碰| 2021av在线| 成年人国产精品| 国产精品亚洲美女av网站| 久热精品在线观看| 成人羞羞视频播放网站| 亚洲第一av在线| 视色视频在线观看| 国产色播av在线| 中文字幕一区二区三区在线不卡| 精品久久蜜桃| av中文字幕在线免费观看| 老司机午夜精品视频| 欧美黄色片在线观看| 免费黄色片网站| 麻豆国产欧美一区二区三区r| 欧美日韩在线三级| 18岁网站在线观看| 少女频道在线观看免费播放电视剧| www国产精品av| 不卡视频一区二区| 亚洲熟妇av乱码在线观看| 国产精品久久久久毛片大屁完整版 | 成人综合婷婷国产精品久久蜜臀| 国产精品精品视频一区二区三区| 久久久久久久久久免费视频| 女主播福利一区| 有码中文亚洲精品| 久久人人爽人人爽人人片| 88久久精品| 337p亚洲精品色噜噜| 天天操天天爱天天爽| 亚洲第一av| 亚洲mv在线观看| 国产一区 在线播放| 蜜桃视频在线观看www社区| 国产亚洲美州欧州综合国| 精品乱码一区二区三区| 天堂在线观看免费视频| 丁香激情综合五月| www.成人av.com| 99热这里是精品| 国内外成人在线| 成人在线中文字幕| 97超碰资源站| 黑人巨大精品欧美一区| 国产精品久久久久久超碰| 久久久久久久久久久影院| 欧美成熟视频| 久久久久久久久久亚洲| 日本一区二区三区四区五区| 激情欧美亚洲| 韩国福利视频一区| 男人的天堂一区二区| 在线视频日韩| 国产999在线观看| 欧美一区二区三区久久久| 久久久久久久高潮| 国产成人精品最新| 亚洲天堂中文字幕在线| 国产一区二区三区观看| 91九色偷拍| 人妻一区二区三区| 久久无码av三级| 色播亚洲婷婷| 日本在线视频网| 亚洲嫩草精品久久| 无码av天堂一区二区三区| 美女在线视频免费| 在线免费av一区| 亚洲涩涩在线观看| julia中文字幕一区二区99在线| 亚洲国产91色在线| 国产精品久久久久无码av色戒| 欧美理论在线播放| 久久亚洲电影天堂| 日韩精品视频播放| 日本中文字幕一区| 91久久大香伊蕉在人线| 四虎在线视频| 国产精品网曝门| 人妻av无码专区| 精品91久久| 在线综合+亚洲+欧美中文字幕| 中文字幕天堂av| 国产99久久久国产精品成人免费 | 中文字幕资源网在线观看| 午夜精品一区二区三区三上悠亚| 日韩欧美精品在线观看视频| 亚瑟国产精品| 日韩国产精品视频| 91狠狠综合久久久| 亚洲影院一区| 91久久精品国产| 亚洲色图另类小说| 亚洲欧美另类综合偷拍| 欧美大片在线播放| 精品一区二区三区亚洲| 亚洲免费高清视频| 久久久久久国产精品视频| 老妇喷水一区二区三区| 99久久99久久| 亚洲搞黄视频| 黑人与娇小精品av专区| 国产又粗又猛大又黄又爽| 国产一区不卡| 久久久噜噜噜久噜久久| 一级黄色片在线观看| 久久色在线视频| 国产免费一区二区视频| 五月天色综合| 国产亚洲精品一区二555| 精品深夜av无码一区二区老年| 免费观看日韩av| 精品久久久三级| 丁香影院在线| 欧美一二区视频| 日韩黄色中文字幕| 午夜影院日韩| 国产乱码精品一区二区三区中文| 成人高清免费在线| 欧美日韩国产bt| 无码一区二区三区在线| 在线亚洲欧美| 国产精品青青草| av超碰免费在线| 欧美美女一区二区| 中文字幕伦理片| 久久一区二区三区超碰国产精品| 国产伦精品一区二区三区免费视频| 在线免费观看的av网站| 在线观看亚洲成人| 亚洲成人日韩在线| 亚洲中午字幕| 麻豆精品传媒视频| 9999在线视频| 亚洲精品av在线播放| 国产精品成人久久| 成人h动漫精品一区二区| 国产激情在线看| 九九99久久精品在免费线bt| 插插插亚洲综合网| 国产av无码专区亚洲a∨毛片| 中文字幕中文乱码欧美一区二区| 日韩av在线中文| 999久久久亚洲| 国产精品自拍偷拍视频| 欧美日韩欧美| 制服丝袜亚洲精品中文字幕| 欧美在线视频第一页| 国产一区二区三区蝌蚪| 国产免费裸体视频| 国产主播性色av福利精品一区| 97婷婷涩涩精品一区| 天天摸天天碰天天爽天天弄| 精品久久久久久久久久久久久久 | 国产精品妹子av| 亚洲人视频在线| 久久精品免费一区二区三区| 亚洲专区国产精品| av免费不卡| 亚洲男人7777| 亚洲一区二区天堂| 一区二区三区在线观看动漫| 中国特级黄色片| 国产日韩高清一区二区三区在线| 欧美福利精品| 国产精品成人国产| 色综合男人天堂| 无码国精品一区二区免费蜜桃| 色综合天天综合网国产成人综合天| 国产一级久久久久毛片精品| 极品少妇xxxx偷拍精品少妇| 久久久久久久9| 国产精选一区| 亚洲自拍另类欧美丝袜| 牛牛精品一区二区| 中文字幕综合一区| 亚洲精品无码久久久| 欧美视频中文字幕在线| 国产人与禽zoz0性伦| 成人激情视频网站| 少妇一级淫免费放| 黄色欧美成人| 亚洲电影免费| 欧美丝袜美腿| 91中文在线视频| 伊人久久av| 欧美成人在线免费| 国产在线观看免费| 精品免费日韩av| 中文字幕制服诱惑| 五月天亚洲婷婷| 91香蕉视频污在线观看| av一区二区三区四区| 成人综合久久网| 亚洲综合99| 成年丰满熟妇午夜免费视频| 欧美人与拘性视交免费看| 国产精品成人一区二区三区| 国产91在线精品| 日韩av电影在线免费播放| 在线中文字幕-区二区三区四区| 亚洲视频在线观看| 丰满人妻一区二区三区免费| 欧美日韩成人综合| 国产黄网在线观看| 亚洲国产精品精华液网站| 婷婷国产成人精品视频| 久久亚洲一级片| 娇妻高潮浓精白浆xxⅹ| 激情欧美日韩一区二区| 91蝌蚪视频在线观看| 亚洲看片一区| 国产在线视频综合| 亚洲精品电影| 一级做a爰片久久| 国产精品一线天粉嫩av| 久久一区二区三区欧美亚洲| 国产成人一二片| 亚洲最大福利网站| 国产69精品久久久久9999人| 国产成人精品av| 自拍偷拍欧美视频| 91大神在线播放精品| 波多野结衣中文字幕久久| 欧美成人免费全部观看天天性色| 秋霞午夜在线观看| 色黄久久久久久| 91社区在线高清| 一区二区三区动漫| h视频在线免费| 伊人精品在线观看| a天堂中文在线| 伊人久久精品视频| 日本在线视频观看| 欧美成人午夜激情视频| 中文字幕中文字幕在线中高清免费版| 精品国产一区二区三区在线观看| jizz在线观看中文| 日日噜噜噜夜夜爽亚洲精品| 欧美日韩xx| 欧美成人精品在线播放| 蜜桃成人365av| 欧美激情小视频| 国产传媒在线| 欧美专区在线播放| 日韩一级二级| 国产女人精品视频| 精品91福利视频| 国产精品对白一区二区三区| 狠狠一区二区三区| 欧美一区二区福利| 日韩大片在线观看| 99re6这里有精品热视频| 黄色综合网站| 116极品美女午夜一级| 久久中文欧美| 亚洲va在线va天堂va偷拍| 国产在线乱码一区二区三区| 少妇极品熟妇人妻无码| 99久久777色| 国产肥白大熟妇bbbb视频| 国产精品免费视频网站| 超碰手机在线观看| 无码av中文一区二区三区桃花岛| 狠狠人妻久久久久久综合| 在线观看区一区二| 国产www免费观看| 亚洲精品国产电影| 在线观看免费网站黄| 免费成人高清视频| 亚洲天堂电影| 国产在线观看91精品一区| 99久久婷婷国产综合精品青牛牛 | 精品久久在线播放| 伊人网综合在线| 亚洲аv电影天堂网| 国产一级片在线| 欧美成人精品在线| 欧美xxx网站| 91高跟黑色丝袜呻吟在线观看| 香蕉久久精品| 成人免费看片视频在线观看| 国产日韩一区二区三区在线播放 | 日本三日本三级少妇三级66| 亚洲二区精品| 亚洲精品综合在线观看| 99精品黄色片免费大全| 在线免费看视频| 欧美日韩国产限制| 国产精品免费无遮挡| 亚洲精品网址在线观看| 在线观看午夜av| 国产精品美女久久久久久免费| 中文字幕一区二区三区四区久久| 日产中文字幕在线精品一区| 欧美特黄a级高清免费大片a级| 精品久久久久久久无码| jizz一区二区| 男人在线观看视频| 日本高清成人免费播放| 好吊色在线观看| 久久精品色欧美aⅴ一区二区| 午夜影院在线播放| 成人av播放| 亚洲人体av| 美女网站色免费| 久久精品亚洲一区二区三区浴池| 久久久精品99| 欧美一区三区四区| 97人人在线| 国产精品第一页在线| 奇米影视777在线欧美电影观看| 在线视频一二三区| 美女视频免费一区| 99久久久无码国产精品衣服| 午夜电影一区二区| 亚洲国产www| 久久成人综合视频| 日本午夜免费一区二区| 日本高清不卡三区| 免费日韩一区二区| 熟女人妻在线视频| 亚洲福利一区二区三区| 亚洲精品字幕在线| 色中色综合影院手机版在线观看| 999久久久国产999久久久| 五月天色一区| 美洲天堂一区二卡三卡四卡视频| 91网站免费入口| 在线一区二区视频| 国产午夜精品一区理论片| 国产成人av在线播放| 蜜桃一区二区三区| 国产精品久久久久9999小说| 久久久久九九视频| 国产成人无码专区| 中文字幕亚洲无线码a| av久久网站| 一区二区视频在线播放| 久久精品免费看| 精品人妻伦九区久久aaa片| 91精品在线免费| 日韩免费影院| 国产亚洲精品自在久久| 国产精品人人爽人人做我的可爱| 国产 中文 字幕 日韩 在线| 欧美丝袜一区二区| 国产有码在线| 国产精品欧美一区二区三区奶水 | av女优在线播放| 99re成人精品视频| 日韩精品成人免费观看视频| 亚洲无亚洲人成网站77777| 国产精品原创视频| 精品一区二区成人免费视频 | 91av在线免费| 91福利在线免费观看| 在线观看免费高清完整| 91在线观看免费观看| 国语自产精品视频在线看8查询8| 中文视频在线观看| 91久久人澡人人添人人爽欧美| 成年人在线视频| 91免费观看网站| 激情视频一区二区三区| 中文字幕一区二区三区人妻电影| 在线视频国内自拍亚洲视频| 国产在线高清视频| 国产日韩欧美一区二区| 日韩国产在线观看| 五月天婷婷色综合| 国产丝袜视频一区| 在线日韩三级| 日本中文字幕网址| 国产精品天天摸av网| 丰满岳乱妇国产精品一区| 日本一区二区在线免费播放| 婷婷亚洲最大| 亚洲制服丝袜在线播放| 欧美日韩和欧美的一区二区| 色婷婷在线播放| 青青草成人网| 国产91高潮流白浆在线麻豆| 怡红院av久久久久久久| 欧美乱大交xxxxx| 蜜臀久久99精品久久一区二区| 网站在线你懂的| 色婷婷av久久久久久久| 日韩三级免费| 亚洲蜜桃在线|