精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

使用PyTorch實現混合專家(MoE)模型

人工智能
在本文中,我將使用Pytorch來實現一個MoE模型。在具體代碼之前,讓我們先簡單介紹一下混合專家的體系結構。

Mixtral 8x7B 的推出在開放 AI 領域引發了廣泛關注,特別是混合專家(Mixture-of-Experts:MoEs)這一概念被大家所認知。混合專家(MoE)概念是協作智能的象征,體現了“整體大于部分之和”的說法。MoE模型匯集了各種專家模型的優勢,以提供更好的預測。它是圍繞一個門控網絡和一組專家網絡構建的,每個專家網絡都擅長特定任務的不同方面

在本文中,我將使用Pytorch來實現一個MoE模型。在具體代碼之前,讓我們先簡單介紹一下混合專家的體系結構。

MoE架構

MoE由兩種類型的網絡組成:(1)專家網絡和(2)門控網絡。

專家網絡:專家網絡是專有模型,每個模型都經過訓練,在數據的一個子集中表現出色。MoE的理念是擁有多名優勢互補的專家,確保對問題空間的全面覆蓋。

門控網絡:門控網絡充當指揮,協調或管理個別專家的貢獻。它學習(或權衡)哪個網絡擅長處理哪種類型的輸入。經過訓練的門控網絡可以評估新的輸入向量,并根據專家的熟練程度將處理責任分配給最合適的專家或專家組合。門控網絡根據專家的輸出與當前輸入的相關性動態調整其權重,確保定制響應。

上圖顯示了MoE中的處理流程。混合專家模型的優點在于它的簡單。通過學習復雜的問題空間以及專家在解決問題時的反應,MoE模型有助于產生比單個專家更好的解決方案。門控網絡作為一個有效的管理者,評估情景并將任務傳遞給最佳專家。當新數據輸入時,模型可以通過重新評估專家對新輸入的優勢來適應,從而產生靈活的學習方法。

MoE為部署機器學習模型提供了巨大的好處。以下是兩個顯著的好處。

MoE的核心優勢在于其專家網絡的多元化和專業化。MoE的設置能夠以單一模型可能難以達到的精度處理多方面的問題。

MoE具有固有的可伸縮性。隨著任務復雜性的增加,可以在不改變其他專家模型的情況下將更多專家無縫地集成到系統中,擴大專業知識的范圍。也就是說,MoE可以幫助將預先訓練過的專家打包到機器學習系統中。

混合專家模型在許多領域都有應用,包括推薦系統、語言建模和各種復雜的預測任務。有傳言稱,GPT-4是由多個專家組成的。盡管我們無法確認,但類似gpt -4的模型將通過MoE方法利用多個模型的力量來提供最佳結果。

Pytorch代碼

我們這里不討論Mixtral 8x7B這種大模型中使用的MOE技術,而是我們編寫一個簡單的、可以應用在任何任務中的自定義MOE,通過代碼我們可以了解MOE的工作原理,這樣對理解MOE在大模型中的工作方式是非常有幫助的。

下面我們將一段一段地介紹PyTorch的代碼實現。

導入庫:

import torch
 import torch.nn as nn
 import torch.optim as optim

定義專家模型:

class Expert(nn.Module):
     def __init__(self, input_dim, hidden_dim, output_dim):
         super(Expert, self).__init__()
         self.layer1 = nn.Linear(input_dim, hidden_dim)
         self.layer2 = nn.Linear(hidden_dim, output_dim)
 
     def forward(self, x):
         x = torch.relu(self.layer1(x))
         return torch.softmax(self.layer2(x), dim=1)

這里我們定義了一個簡單的專家模型,可以看到它是一個2層的mlp,使用了relu激活,最后使用softmax輸出分類概率。

定義門控模型:

# Define the gating model
 class Gating(nn.Module):
     def __init__(self, input_dim,
                  num_experts, dropout_rate=0.1):
         super(Gating, self).__init__()
 
         # Layers
         self.layer1 = nn.Linear(input_dim, 128)
         self.dropout1 = nn.Dropout(dropout_rate)
 
         self.layer2 = nn.Linear(128, 256)
         self.leaky_relu1 = nn.LeakyReLU()
         self.dropout2 = nn.Dropout(dropout_rate)
 
         self.layer3 = nn.Linear(256, 128)
         self.leaky_relu2 = nn.LeakyReLU()
         self.dropout3 = nn.Dropout(dropout_rate)
 
         self.layer4 = nn.Linear(128, num_experts)
 
     def forward(self, x):
         x = torch.relu(self.layer1(x))
         x = self.dropout1(x)
 
         x = self.layer2(x)
         x = self.leaky_relu1(x)
         x = self.dropout2(x)
 
         x = self.layer3(x)
         x = self.leaky_relu2(x)
         x = self.dropout3(x)
 
         return torch.softmax(self.layer4(x), dim=1)

門控模型更復雜,有三個線性層和dropout層用于正則化以防止過擬合。它使用ReLU和LeakyReLU激活函數引入非線性。最后一層的輸出大小等于專家的數量,并對這些輸出應用softmax函數。輸出權重,這樣可以將專家的輸出與之結合。

說明:其實門控網絡,或者叫路由網絡是MOE中最復雜的部分,因為它涉及到控制輸入到那個專家模型,所以門控網絡也有很多個設計方案,例如(如果我沒記錯的話)Mixtral 8x7B 只是取了8個專家中的top2。所以我們這里不詳細討論各種方案,只是介紹其基本原理和代碼實現。

完整的MOE模型:

class MoE(nn.Module):
     def __init__(self, trained_experts):
         super(MoE, self).__init__()
         self.experts = nn.ModuleList(trained_experts)
         num_experts = len(trained_experts)
         # Assuming all experts have the same input dimension
         input_dim = trained_experts[0].layer1.in_features
         self.gating = Gating(input_dim, num_experts)
 
     def forward(self, x):
         # Get the weights from the gating network
         weights = self.gating(x)
 
         # Calculate the expert outputs
         outputs = torch.stack(
            [expert(x) for expert in self.experts], dim=2)
 
         # Adjust the weights tensor shape to match the expert outputs
         weights = weights.unsqueeze(1).expand_as(outputs)
 
         # Multiply the expert outputs with the weights and
         # sum along the third dimension
         return torch.sum(outputs * weights, dim=2)

這里主要看前向傳播的代碼,通過輸入計算出權重和每個專家給出輸出的預測,最后使用權重將所有專家的結果求和最終得到模型的輸出。

這個是不是有點像“集成學習”。

測試

下面我們來對我們的實現做個簡單的測試,首先生成一個簡單的數據集:

# Generate the dataset
 num_samples = 5000
 input_dim = 4
 hidden_dim = 32
 
 # Generate equal numbers of labels 0, 1, and 2
 y_data = torch.cat([
     torch.zeros(num_samples // 3),
     torch.ones(num_samples // 3),
     torch.full((num_samples - 2 * (num_samples // 3),), 2)  # Filling the remaining to ensure exact num_samples
 ]).long()
 
 # Biasing the data based on the labels
 x_data = torch.randn(num_samples, input_dim)
 
 for i in range(num_samples):
     if y_data[i] == 0:
         x_data[i, 0] += 1  # Making x[0] more positive
     elif y_data[i] == 1:
         x_data[i, 1] -= 1  # Making x[1] more negative
     elif y_data[i] == 2:
         x_data[i, 0] -= 1  # Making x[0] more negative
 
 # Shuffle the data to randomize the order
 indices = torch.randperm(num_samples)
 x_data = x_data[indices]
 y_data = y_data[indices]
 
 # Verify the label distribution
 y_data.bincount()
 
 # Shuffle the data to ensure x_data and y_data remain aligned
 shuffled_indices = torch.randperm(num_samples)
 x_data = x_data[shuffled_indices]
 y_data = y_data[shuffled_indices]
 
 # Splitting data for training individual experts
 # Use the first half samples for training individual experts
 x_train_experts = x_data[:int(num_samples/2)]
 y_train_experts = y_data[:int(num_samples/2)]
 
 mask_expert1 = (y_train_experts == 0) | (y_train_experts == 1)
 mask_expert2 = (y_train_experts == 1) | (y_train_experts == 2)
 mask_expert3 = (y_train_experts == 0) | (y_train_experts == 2)
 
 # Select an almost equal number of samples for each expert
 num_samples_per_expert = \
 min(mask_expert1.sum(), mask_expert2.sum(), mask_expert3.sum())
 
 x_expert1 = x_train_experts[mask_expert1][:num_samples_per_expert]
 y_expert1 = y_train_experts[mask_expert1][:num_samples_per_expert]
 
 x_expert2 = x_train_experts[mask_expert2][:num_samples_per_expert]
 y_expert2 = y_train_experts[mask_expert2][:num_samples_per_expert]
 
 x_expert3 = x_train_experts[mask_expert3][:num_samples_per_expert]
 y_expert3 = y_train_experts[mask_expert3][:num_samples_per_expert]
 
 # Splitting the next half samples for training MoE model and for testing
 x_remaining = x_data[int(num_samples/2)+1:]
 y_remaining = y_data[int(num_samples/2)+1:]
 
 split = int(0.8 * len(x_remaining))
 x_train_moe = x_remaining[:split]
 y_train_moe = y_remaining[:split]
 
 x_test = x_remaining[split:]
 y_test = y_remaining[split:]
 
 print(x_train_moe.shape,"\n", x_test.shape,"\n",
       x_expert1.shape,"\n",
       x_expert2.shape,"\n", x_expert3.shape)

這段代碼創建了一個合成數據集,其中包含三個類標簽——0、1和2。基于類標簽對特征進行操作,從而在數據中引入一些模型可以學習的結構。

數據被分成針對個別專家的訓練集、MoE模型和測試集。我們確保專家模型是在一個子集上訓練的,這樣第一個專家在標簽0和1上得到很好的訓練,第二個專家在標簽1和2上得到更好的訓練,第三個專家看到更多的標簽2和0。

我們期望的結果是:雖然每個專家對標簽0、1和2的分類準確率都不令人滿意,但通過結合三位專家的決策,MoE將表現出色。

模型初始化和訓練設置:

# Define hidden dimension
 output_dim = 3
 hidden_dim = 32
 
 epochs = 500
 learning_rate = 0.001
 
 
 # Instantiate the experts
 expert1 = Expert(input_dim, hidden_dim, output_dim)
 expert2 = Expert(input_dim, hidden_dim, output_dim)
 expert3 = Expert(input_dim, hidden_dim, output_dim)
 
 # Set up loss
 criterion = nn.CrossEntropyLoss()
 
 # Optimizers for experts
 optimizer_expert1 = optim.Adam(expert1.parameters(), lr=learning_rate)
 optimizer_expert2 = optim.Adam(expert2.parameters(), lr=learning_rate)
 optimizer_expert3 = optim.Adam(expert3.parameters(), lr=learning_rate)

實例化了專家模型和MoE模型。定義損失函數來計算訓練損失,并為每個模型設置優化器,在訓練過程中執行權重更新。

訓練的步驟也非常簡單

# Training loop for expert 1
 for epoch in range(epochs):
    optimizer_expert1.zero_grad()
    outputs_expert1 = expert1(x_expert1)
    loss_expert1 = criterion(outputs_expert1, y_expert1)
    loss_expert1.backward()
    optimizer_expert1.step()
 
 # Training loop for expert 2
 for epoch in range(epochs):
    optimizer_expert2.zero_grad()
    outputs_expert2 = expert2(x_expert2)
    loss_expert2 = criterion(outputs_expert2, y_expert2)
    loss_expert2.backward()
    optimizer_expert2.step()
 
 # Training loop for expert 3
 for epoch in range(epochs):
    optimizer_expert3.zero_grad()
    outputs_expert3 = expert3(x_expert3)
    loss_expert3 = criterion(outputs_expert3, y_expert3)
    loss_expert3.backward()

每個專家使用基本的訓練循環在不同的數據子集上進行單獨的訓練。循環迭代指定數量的epoch。

下面是我們MOE的訓練

# Create the MoE model with the trained experts
 moe_model = MoE([expert1, expert2, expert3])
 
 # Train the MoE model
 optimizer_moe = optim.Adam(moe_model.parameters(), lr=learning_rate)
 for epoch in range(epochs):
    optimizer_moe.zero_grad()
    outputs_moe = moe_model(x_train_moe)
    loss_moe = criterion(outputs_moe, y_train_moe)
    loss_moe.backward()
    optimizer_moe.step()

MoE模型是由先前訓練過的專家創建的,然后在單獨的數據集上進行訓練。訓練過程類似于單個專家的訓練,但現在門控網絡的權值在訓練過程中更新。

最后我們的評估函數:

# Evaluate all models
 def evaluate(model, x, y):
    with torch.no_grad():
        outputs = model(x)
        _, predicted = torch.max(outputs, 1)
        correct = (predicted == y).sum().item()
        accuracy = correct / len(y)
    return accuracy

evaluate函數計算模型在給定數據上的精度(x代表樣本,y代表預期標簽)。準確度計算為正確預測數與預測總數之比。

結果如下:

accuracy_expert1 = evaluate(expert1, x_test, y_test)
 accuracy_expert2 = evaluate(expert2, x_test, y_test)
 accuracy_expert3 = evaluate(expert3, x_test, y_test)
 accuracy_moe = evaluate(moe_model, x_test, y_test)
 
 print("Expert 1 Accuracy:", accuracy_expert1)
 print("Expert 2 Accuracy:", accuracy_expert2)
 print("Expert 3 Accuracy:", accuracy_expert3)
 print("Mixture of Experts Accuracy:", accuracy_moe)
 
 #Expert 1 Accuracy: 0.466
 #Expert 2 Accuracy: 0.496
 #Expert 3 Accuracy: 0.378
 #Mixture of Experts Accuracy: 0.614

可以看到

專家1正確預測了測試數據集中大約46.6%的樣本的類標簽。

專家2表現稍好,正確預測率約為49.6%。

專家3在三位專家中準確率最低,正確預測的樣本約為37.8%。

而MoE模型顯著優于每個專家,總體準確率約為61.4%。

總結

我們測試的輸出結果顯示了混合專家模型的強大功能。該模型通過門控網絡將各個專家模型的優勢結合起來,取得了比單個專家模型更高的精度。門控網絡有效地學習了如何根據輸入數據權衡每個專家的貢獻,以產生更準確的預測。混合專家利用了各個模型的不同專業知識,在測試數據集上提供了更好的性能。

同時也說明我們可以在現有的任務上嘗試使用MOE來進行測試,也可以得到更好的結果。

責任編輯:華軒 來源: DeepHub IMBA
相關推薦

2025-02-17 03:00:00

LLMsMoELLM

2024-08-06 08:16:05

2024-01-10 17:37:17

概率token模型

2024-11-11 13:24:02

2024-07-26 11:40:33

2025-05-30 09:06:00

2024-01-07 20:20:46

2025-01-24 14:19:21

2025-03-11 00:35:00

DeepSeektoC業務

2024-11-21 10:21:06

2025-02-03 14:17:27

2025-03-11 09:42:00

2024-03-18 08:47:34

馬斯克GrokOpenAI

2025-02-19 15:30:00

模型訓練數據

2023-07-09 14:50:48

模型調優

2023-07-13 12:54:42

GPT-4OpenAI

2025-02-24 08:45:00

模型架構AI
點贊
收藏

51CTO技術棧公眾號

精品免费久久久久久久| 色综合天天天天做夜夜夜夜做| 97精品国产97久久久久久春色| gogo亚洲国模私拍人体| 女同视频在线观看| 丰满放荡岳乱妇91ww| 欧美激情亚洲一区| 国产精品熟妇一区二区三区四区 | 在线观看视频日韩| 精品成人免费观看| 日韩中文字幕三区| 国产在线中文字幕| 国产真实乱对白精彩久久| 欧美—级高清免费播放| 久久久男人的天堂| 成人视屏在线观看| 中文字幕欧美日本乱码一线二线| 国产精品男人的天堂| 日韩欧美一区二区三区四区 | 久色视频在线播放| 国产香蕉在线| 亚洲最大在线| 91久久精品网| 亚洲精品在线视频观看| 在线黄色av网站| 影音先锋亚洲精品| 中文字幕不卡av| 免费黄视频在线观看| 中文在线免费二区三区| 亚洲私人黄色宅男| 午夜美女久久久久爽久久| 爱爱的免费视频| 欧美国产视频| 精品久久久精品| 亚洲国产一区二区在线| 欧美一级免费片| 美女尤物国产一区| 欧美俄罗斯性视频| 538精品视频| 国产色噜噜噜91在线精品| 精品视频一区二区不卡| 黄色一级视频片| a天堂中文在线官网在线| 粉嫩绯色av一区二区在线观看| 国产成人精品在线| 日韩黄色精品视频| 一二三区不卡| 亚洲人成欧美中文字幕| 九九九九九九九九| 久久爱91午夜羞羞| 亚洲午夜精品在线| 亚洲一区二区三区视频播放| 一本一道无码中文字幕精品热| 牛牛国产精品| 亚洲男人天堂2023| 巨乳女教师的诱惑| 爱情电影网av一区二区| 中文字幕国产一区| 九九九久久久| 国产不卡精品视频| 美女网站色91| 26uuu久久噜噜噜噜| 久操免费在线视频| 国产欧美日韩视频在线| 狠狠做深爱婷婷久久综合一区| 成人在线免费观看网址| 九七电影韩国女主播在线观看| 久久久久久麻豆| 麻豆亚洲一区| 波多野结衣电车痴汉| 亚洲国产高清视频| 欧美极品美女视频网站在线观看免费 | 日本韩国一区| 99re66热这里只有精品3直播 | 99精品中文字幕在线不卡| 欧美精品在线视频| 亚洲最大综合网| 69堂精品视频在线播放| 久久青草欧美一区二区三区| 精品久久久三级| 深爱五月激情五月| 91网页版在线| 日韩成人在线资源| 国产精品久久久久一区二区国产 | 白丝校花扒腿让我c| 久久影院一区二区三区| 欧美一区二区三区免费在线看| 成年人免费大片| 成人免费观看在线观看| 天天av天天翘天天综合网| 免费一级特黄特色毛片久久看| av在线不卡免费| 欧美性xxxx18| 强伦女教师2:伦理在线观看| 深夜福利在线视频| 国产精品色婷婷| 亚洲精品国产精品国自产| 麻豆tv在线| 亚洲一区二区在线免费看| 97中文字幕在线| 国产区av在线| 中文字幕亚洲在| 嫩草影院中文字幕| 污片视频在线免费观看| 亚洲视频免费在线观看| 91社在线播放| 午夜成年人在线免费视频| 最好看的中文字幕久久| 久久久久久久久久久久久国产| 91蜜桃在线视频| 日韩欧美主播在线| 亚洲这里只有精品| 91麻豆精品国产综合久久久| 亚洲国产精久久久久久久| 国产性猛交96| 欧美日韩一区二区三区视频播放| 精品国产视频在线| 中文字幕亚洲精品在线| 亚洲欧美bt| 91美女福利视频高清| 丰满人妻妇伦又伦精品国产| 九九**精品视频免费播放| 91中文字幕一区| 免费在线黄色影片| 一区二区三区欧美久久| 国产淫片免费看| 日韩专区视频网站| 日韩av综合网站| 欧美日韩午夜视频| 久久国产主播| 国产成人av网| 国产又粗又猛又爽又| 国内精品伊人久久久久av一坑 | 成人午夜大片| 色老头一区二区三区| 国产成人无码精品亚洲| 国产一区二区三区在线观看精品| 日本精品免费| а√天堂8资源在线| 欧美一区二区网站| 91 视频免费观看| 国产一区二区三区四区| 91av在线播放| 亚洲精品第五页| 亚洲欧美激情小说另类| www.天天射.com| xxxx日韩| 欧美日韩成人网| 国产精品久久久久精| 久久久久久久久久电影| 国产日韩欧美精品在线观看| 国色天香久久精品国产一区| 日韩在线免费高清视频| 日韩在线观看第一页| 国产传媒一区在线| 亚洲精品一区二区三| 国产免费拔擦拔擦8x高清在线人| 日韩一区二区不卡| 免费在线观看a级片| 日韩高清一区二区| 美脚丝袜一区二区三区在线观看| ririsao久久精品一区| 日韩免费电影一区| 久久久久久久久久久网| 国产精品一卡二卡| 永久免费网站视频在线观看| 国产麻豆精品| 欧美精品在线观看| 午夜精品久久久久久久91蜜桃| 亚洲欧美日韩综合aⅴ视频| 999这里有精品| 欧美日韩激情| 国产精品视频色| 欧美性天天影视| 欧美伊人久久大香线蕉综合69| 欧美大波大乳巨大乳| 午夜一级在线看亚洲| 久久久久久久久久久久久久一区 | 91麻豆精品一二三区在线| 日韩在线观看精品| 97人妻人人澡人人爽人人精品| 亚洲国产成人一区二区三区| 色播五月综合网| 91亚洲一区| 国产xxx69麻豆国语对白| 性做久久久久久久久久| 亚洲一区二区综合| 丰满少妇一区二区| 蜜臀av一区二区| 亚洲精品tv久久久久久久久| 国产第一亚洲| 久久成人一区二区| 日韩一级片免费看| 色婷婷综合中文久久一本| 天天操天天摸天天舔| 韩国欧美国产1区| 中国一级黄色录像| 精品国产午夜肉伦伦影院| 国内精品视频一区| 亚洲欧美日韩免费| 一本久久a久久精品亚洲| 欧美激情久久久久久久| 日韩精品欧美精品| 国产青草视频在线观看| 99re8这里有精品热视频免费| 97香蕉超级碰碰久久免费软件| 飘雪影视在线观看免费观看 | 在线观看免费中文字幕| 99香蕉国产精品偷在线观看 | 精品国产一区二区三区av片| 国产精品v片在线观看不卡| 91在线看黄| 日韩一区国产二区欧美三区| 91av在线免费视频| 中文字幕色av一区二区三区| 免费日本黄色网址| 日日夜夜免费精品| 欧美黄色免费网址| 999久久久精品国产| 欧美日韩国产免费一区二区三区 | 亚洲欧美综合在线观看| 91麻豆精品国产自产在线| 无码aⅴ精品一区二区三区| 国产精品激情偷乱一区二区∴| 内射中出日韩无国产剧情| 国产精品中文字幕日韩精品| 国产黄色一级网站| 伊人久久婷婷| 日本精品免费视频| 欧美系列电影免费观看| 久久亚洲一区二区| 国产精品2区| 国产精品久久久999| 黄色软件视频在线观看| 久久免费精品日本久久中文字幕| 国产网站在线免费观看| 日韩亚洲欧美成人| 最新av网站在线观看| 日韩电影网在线| 欧美一级免费片| 亚洲第一色在线| 国产综合无码一区二区色蜜蜜| 91精品国产福利在线观看| 中文字幕一区二区三区四区免费看| 日本韩国精品在线| 中文字幕一区二区三区四区欧美| 狠狠躁夜夜躁人人爽天天天天97| 国产女同在线观看| 精品欧美一区二区三区| 成人午夜视频精品一区| 亚洲精品少妇30p| 久久免费精彩视频| 亚洲成人自拍偷拍| 日产欧产va高清| 精品毛片三在线观看| 久久久久久在线观看| 色婷婷综合久久久中文字幕| 日本特级黄色片| 一本到不卡精品视频在线观看| 国产一级久久久| 亚洲18色成人| 成年人免费高清视频| 色猫猫国产区一区二在线视频| av中文在线播放| 欧美日韩国产中文字幕 | 91福利国产成人精品照片| 日韩毛片一区二区三区| 色综合久久88色综合天天免费| 精品人妻无码一区二区性色| 亚洲在线观看免费视频| 日本黄色片视频| 欧洲激情一区二区| 国产强伦人妻毛片| 亚洲国产97在线精品一区| 秋霞av在线| 在线看日韩欧美| 黄色片网站在线| 久久久久成人网| 国产丝袜在线播放| 日本欧美中文字幕| 日韩在线观看不卡| 成人黄色av播放免费| 一区中文字幕电影| 欧美精品七区| 中文乱码免费一区二区三区下载| 国产原创中文在线观看| 日韩精品成人一区二区三区| 99re6在线观看| 成人性色生活片| 538精品视频| 亚洲成a人v欧美综合天堂| 国产精品尤物视频| 欧美美女一区二区| 四虎精品成人免费网站| 精品国产一区久久久| 日韩脚交footjobhd| 成人精品福利视频| 日韩在线黄色| 奇米777四色影视在线看| 免费欧美在线| 伊人久久久久久久久| 国产清纯在线一区二区www| 久久精品99国产精| 欧美日韩成人激情| 欧美成熟毛茸茸| 欧美精品videossex88| 日韩精品三区| 久久久综合香蕉尹人综合网| 青青草综合网| 国产一区二区三区精彩视频 | 国产精品女人久久久久久| 精品视频一区二区三区| 少妇免费毛片久久久久久久久| 18成人免费观看视频| 激情黄色小视频| 国产欧美一区二区精品婷婷 | 欧美丝袜第三区| 亚洲AV第二区国产精品| 欧美激情啊啊啊| 欧美在线一级| 欧洲精品一区色| av不卡免费看| 国产xxxxhd| 亚洲欧美在线aaa| 在线观看亚洲国产| 亚洲欧美精品一区二区| eeuss鲁一区二区三区| 国产精品成人av在线| 色爱综合av| 成年人午夜视频在线观看 | 中国美女乱淫免费看视频| 久久久高清一区二区三区| 欧美一级视频免费观看| 亚洲国产97在线精品一区| 免费av不卡| 国产精品入口夜色视频大尺度| 国内精品久久久久久久影视简单 | 美女视频第一区二区三区免费观看网站| 欧美在线一级片| 精品欧美激情精品一区| 视频一区二区三区国产| 97不卡在线视频| 国产美女撒尿一区二区| 精品少妇人欧美激情在线观看| 国产成人8x视频一区二区| 久久伊人成人网| 精品久久久久久久久久久院品网| 手机av在线播放| 成人三级在线| 黄色在线一区| 亚洲精品性视频| 国产精品国模大尺度视频| 中文字幕视频二区| 久久精品国产96久久久香蕉| 六九午夜精品视频| 中文字幕中文字幕一区三区| 狠狠色丁香婷婷综合久久片| 暗呦丨小u女国产精品| 日韩久久精品一区| heyzo高清在线| 免费试看一区| 日韩电影免费在线观看网站| 香蕉网在线播放| 欧美日韩裸体免费视频| 国产高清视频免费最新在线| 国产精品一区久久久| 91不卡在线观看| 日本不卡视频一区| 欧美小视频在线| 2021av在线| 91美女片黄在线观看游戏| 黄色综合网站| www.自拍偷拍| 欧美三级日韩三级| 羞羞污视频在线观看| 精品欧美国产一区二区三区不卡| 国产精品腿扒开做爽爽爽挤奶网站| 国产熟女一区二区| 日韩一级片网址| 92国产精品| 欧美日韩亚洲国产成人| 99久久久国产精品| 日韩国产亚洲欧美| 欧美成人剧情片在线观看| 欧美绝顶高潮抽搐喷水合集| 手机在线看福利| 综合电影一区二区三区 | 国产白丝精品91爽爽久久| 日日夜夜综合网| 久久精品在线视频| 日韩在线黄色| 91视频福利网| 一本到不卡精品视频在线观看 | 欧美中文字幕在线视频| 久久久综合色| 精品一区二区三区四区五区六区| 在线日韩一区二区| 91丝袜在线| 中文字幕一区二区三区在线乱码| av成人老司机|