精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

從幾個“補丁”中重建完整圖像 | 構建可擴展學習器的掩模自編碼器

開發
在這個視覺transformer系列的這一部分,我將使用PyTorch從零開始構建掩模自編碼器視覺transformer。

到目前為止,我們已經詳細轉換了各種重要的ViT架構。在這個視覺transformer系列的這一部分,我將使用PyTorch從零開始構建掩模自編碼器視覺transformer。不再拖延,讓我們直接進入主題!

掩模自編碼器

Mae是一種自監督學習方法,這意味著它沒有預先標記的目標數據,而是在訓練時利用輸入數據。這種方法主要涉及遮蔽圖像的75%的補丁。因此,在創建補?。℉/補丁大小,W/補丁大?。┲螅渲蠬和W是圖像的高度和寬度,我們遮蔽75%的補丁,只使用其余的補丁并將其輸入到標準的ViT中。這里的主要目標是僅使用圖像中已知的補丁重建缺失的補丁。

輸入(75%的補丁被遮蔽) | 目標(重建缺失的像素)

MAE主要包含這三個組件:

  • 隨機遮蔽
  • 編碼器
  • 解碼器

1.隨機掩蓋

這就像選擇圖像的隨機補丁,然后掩蓋其中的3/4一樣簡單。然而,官方實現使用了不同但更有效的技術。


def random_masking(x, mask_ratio):
        """
        Perform per-sample random masking by per-sample shuffling.
        Per-sample shuffling is done by argsort random noise.
        x: [N, L, D], sequence
        """

        B, T, D = x.shape  
        len_keep = int(T * (1 - mask_ratio))

        # creating noise of shape (B, T) to latter generate random indices
        noise = torch.rand(B, T, device=x.device)  

        # sorting the noise, and then ids_shuffle to keep the original indexe format
        ids_shuffle = torch.argsort(noise, dim=1)  
        ids_restore = torch.argsort(ids_shuffle, dim=1)

        # gathering the first few samples
        ids_keep = ids_shuffle[:, :len_keep]
        x = torch.gather(x, dim=1, index=ids_keep.unsqueeze(-1).repeat(1, 1, D))

        # generate the binary mask: 0 is keep, 1 is remove
        mask = torch.ones([B, T], device=x.device)
        mask[:, :len_keep] = 0 

        # unshuffle to get the binary mask
        mask = torch.gather(mask, dim=1, index=ids_restore)

        return x, mask, ids_restore
  • 假設輸入形狀是(B, T, C)。這里我們首先創建一個形狀為(B, T)的隨機張量,然后將其傳遞給argsort,這將為我們提供一個排序的索引張量——例如,torch.argsort([0.3, 0.4, 0.2]) = [2, 0, 1]。
  • 我們還將ids_shuffle傳遞給另一個argsort以獲取ids_restore。這只是一個具有原始索引格式的張量。
  • 接下來,我們收集我們想要保留的標記。
  • 生成二進制掩模,并將要保留的標記標記為0,其余標記為1。
  • 最后,對掩模進行解洗牌,這里我們創建的ids_restore將有助于生成表示,掩模應該具有的。即哪些索引的標記被遮蔽為0或1,與原始輸入有關?

注意:與在隨機位置創建隨機補丁不同,官方實現使用了不同的技術。

為圖像生成隨機索引。就像我們在ids_shuffle中所做的那樣。然后獲取前25%的索引(int(T*(1–3/4))或int(T/4)。我們只使用前25%的隨機索引并遮蔽其余部分。

然后我們用ids_restore中原始索引的順序幫助對掩模進行重新排序(解洗牌)。因此,在收集之前,掩模的前25%為0。但記住這些是隨機索引,這就是為什么我們重新排序以獲得掩模應該在的確切索引。

2.編碼器


class MaskedAutoEncoder(nn.Module):
    def __init__(self, emb_size=1024, decoder_emb_size=512, patch_size=16, num_head=16, encoder_num_layers=24, decoder_num_layers=8, in_channels=3, img_size=224):
        super().__init__()      
        self.patch_embed = PatchEmbedding(emb_size = emb_size)
        self.mask_token = nn.Parameter(torch.zeros(1, 1, decoder_emb_size))
        self.encoder_transformer = nn.Sequential(*[Block(emb_size, num_head) for _ in range(encoder_num_layers)])

    def encoder(self, x, mask_ratio):
        x = self.patch_embed(x)

        cls_token = x[:, :1, :]
        x = x[:, 1:, :] 

        x, mask, restore_id = random_masking(x, mask_ratio)

        x = torch.cat((cls_token, x), dim=1)

        x = self.encoder_transformer(x)

        return x, mask, restore_id

PatchEmbedding和Block是ViT模型中的標準實現。

我們首先獲取圖像的補丁嵌入(B, C, H, W)→(B, T, C),這里的PatchEmbedding實現還返回連接在嵌入張量x中的cls_token。如果你想使用timm庫獲取標準的PatchEmbed和Block,也可以這樣做,但這個實現效果相同。即from timm.models.vision_transformer import PatchEmbed, Block

由于我們已經有了cls_token,我們首先想要移除它,然后將其傳遞以生成遮蔽。x:(B K C),掩模:(B T)restore_id(B T),其中K是我們保留的標記的長度,即T/4。

然后我們將cls_token連接起來并傳遞給標準的編碼器_transformer。

3.器

解碼階段涉及將輸入嵌入維度更改為decoder_embedding_size?;叵胍幌?,輸入維度是(B, K, C),其中K是T/4。因此我們將未遮蔽的補丁與遮蔽的補丁連接起來,然后將它們輸入到另一個視覺transformer模型(解碼器)中,如圖1所示。

class MaskedAutoEncoder(nn.Module):
    def __init__(self, emb_size=1024, decoder_emb_size=512, patch_size=16, num_head=16, encoder_num_layers=24, decoder_num_layers=8, in_channels=3, img_size=224):
        super().__init__()      
        self.patch_embed = PatchEmbedding(emb_size = emb_size)
        self.decoder_embed = nn.Linear(emb_size, decoder_emb_size)
        self.decoder_pos_embed = nn.Parameter(torch.zeros(1, (img_size//patch_size)**2 + 1, decoder_emb_size), requires_grad=False)
        self.decoder_pred = nn.Linear(decoder_emb_size, patch_size**2 * in_channels, bias=True)
        self.mask_token = nn.Parameter(torch.zeros(1, 1, decoder_emb_size))
        self.encoder_transformer = nn.Sequential(*[Block(emb_size, num_head) for _ in range(encoder_num_layers)])
        self.decoder_transformer = nn.Sequential(*[Block(decoder_emb_size, num_head) for _ in range(decoder_num_layers)])
        self.project = self.projection = nn.Sequential(
            nn.Conv2d(in_channels=3, out_channels=patch_size**2 * in_channels, kernel_size=patch_size, stride=patch_size),
            Rearrange('b e (h) (w) -> b (h w) e'),
        )

    def encoder(self, x, mask_ratio):
        x = self.patch_embed(x)

        cls_token = x[:, :1, :]
        x = x[:, 1:, :] 

        x, mask, restore_id = random_masking(x, mask_ratio)

        x = torch.cat((cls_token, x), dim=1)

        x = self.encoder_transformer(x)

        return x, mask, restore_id

    def decoder(self, x, restore_id):

        x = self.decoder_embed(x)

        mask_tokens = self.mask_token.repeat(x.shape[0], restore_id.shape[1] + 1 - x.shape[1], 1)
        x_ = torch.cat([x[:, 1:, :], mask_tokens], dim=1) 
        x_ = torch.gather(x_, dim=1, index=restore_id.unsqueeze(-1).repeat(1, 1, x.shape[2]))  
        x = torch.cat([x[:, :1, :], x_], dim=1)  

        # add pos embed
        x = x + self.decoder_pos_embed

        x = self.decoder_transformer(x)

        # predictor projection
        x = self.decoder_pred(x)

        # remove cls token
        x = x[:, 1:, :]

        return x 

我們將輸入傳遞給decoder_embed。然后我們為所有我們遮蔽的標記創建mask_tokens,并將其與原始輸入x連接起來,不包括其cls_token。

現在張量具有前K個未遮蔽的標記,其余為遮蔽的標記,但現在我們想要按照索引的確切順序重新排序它們。我們可以借助ids_restore來實現。

現在ids_restore具有索引,當傳遞給torch.gather時,將對輸入進行解洗牌。因此,我們在隨機遮蔽中選擇的未遮蔽標記(ids_shuffle中的前幾個隨機索引)現在被重新排列在它們應該在的確切順序中。稍后我們再次將cls_token與重新排序的補丁連接起來。

現在我們將整個輸入傳遞給標準的視覺transformer,并移除cls_token并返回張量x以計算損失。

損失函數

掩模自編碼器在遮蔽和未遮蔽的補丁上進行訓練,并學習重建圖像中的遮蔽補丁。掩模自編碼器視覺transformer中使用的損失函數是均方誤差。


class MaskedAutoEncoder(nn.Module):
    def __init__(self, emb_size=1024, decoder_emb_size=512, patch_size=16, num_head=16, encoder_num_layers=24, decoder_num_layers=8, in_channels=3, img_size=224):
        super().__init__()      
        self.patch_embed = PatchEmbedding(emb_size = emb_size)
        self.decoder_embed = nn.Linear(emb_size, decoder_emb_size)
        self.decoder_pos_embed = nn.Parameter(torch.zeros(1, (img_size//patch_size)**2 + 1, decoder_emb_size), requires_grad=False)
        self.decoder_pred = nn.Linear(decoder_emb_size, patch_size**2 * in_channels, bias=True)
        self.mask_token = nn.Parameter(torch.zeros(1, 1, decoder_emb_size))
        self.encoder_transformer = nn.Sequential(*[Block(emb_size, num_head) for _ in range(encoder_num_layers)])
        self.decoder_transformer = nn.Sequential(*[Block(decoder_emb_size, num_head) for _ in range(decoder_num_layers)])
        self.project = nn.Sequential(
            nn.Conv2d(in_channels=3, out_channels=patch_size**2 * in_channels, kernel_size=patch_size, stride=patch_size),
            Rearrange('b e (h) (w) -> b (h w) e'),
        )

    def random_masking(x, mask_ratio):
        """
        Perform per-sample random masking by per-sample shuffling.
        Per-sample shuffling is done by argsort random noise.
        x: [N, L, D], sequence
        """

        B, T, D = x.shape  
        len_keep = int(T * (1 - mask_ratio))

        # creating noise of shape (B, T) to latter generate random indices
        noise = torch.rand(B, T, device=x.device)  

        # sorting the noise, and then ids_shuffle to keep the original indexe format
        ids_shuffle = torch.argsort(noise, dim=1)  
        ids_restore = torch.argsort(ids_shuffle, dim=1)

        # gathering the first few samples
        ids_keep = ids_shuffle[:, :len_keep]
        x = torch.gather(x, dim=1, index=ids_keep.unsqueeze(-1).repeat(1, 1, D))

        # generate the binary mask: 0 is keep, 1 is remove
        mask = torch.ones([B, T], device=x.device)
        mask[:, :len_keep] = 0 

        # unshuffle to get the binary mask
        mask = torch.gather(mask, dim=1, index=ids_restore)

        return x, mask, ids_restore

    def encoder(self, x, mask_ratio):
        x = self.patch_embed(x)

        cls_token = x[:, :1, :]
        x = x[:, 1:, :] 

        x, mask, restore_id = self.random_masking(x, mask_ratio)

        x = torch.cat((cls_token, x), dim=1)

        x = self.encoder_transformer(x)

        return x, mask, restore_id

    def decoder(self, x, restore_id):

        x = self.decoder_embed(x)

        mask_tokens = self.mask_token.repeat(x.shape[0], restore_id.shape[1] + 1 - x.shape[1], 1)
        x_ = torch.cat([x[:, 1:, :], mask_tokens], dim=1) 
        x_ = torch.gather(x_, dim=1, index=restore_id.unsqueeze(-1).repeat(1, 1, x.shape[2]))  
        x = torch.cat([x[:, :1, :], x_], dim=1)  

        # add pos embed
        x = x + self.decoder_pos_embed

        x = self.decoder_transformer(x)

        # predictor projection
        x = self.decoder_pred(x)

        # remove cls token
        x = x[:, 1:, :]

        return x

    def loss(self, imgs, pred, mask):
        """
        imgs: [N, 3, H, W]
        pred: [N, L, patch*patch*3]
        mask: [N, L], 0 is keep, 1 is remove, 
        """
        target = self.project(imgs)

        loss = (pred - target) ** 2
        loss = loss.mean(dim=-1)  # [N, L], mean loss per patch

        loss = (loss * mask).sum() / mask.sum()  # mean loss on removed patches
        return loss

    def forward(self, img):
        mask_ratio = 0.75

        x, mask, restore_ids = self.encoder(img, mask_ratio)
        pred = self.decoder(x, restore_ids) 
        loss  = self.loss(img, pred, mask) 
        return loss, pred, mask

在未遮蔽的補丁上訓練視覺transformer模型,將未遮蔽補丁的輸出與遮蔽補丁重新排序。

在遮蔽和未遮蔽的補丁結合在一起的原始形式上訓練視覺transformer模型。

計算解碼器預測輸出的最后一個維度(B, T, decoder embed)和圖像的原始補丁嵌入(B, T, patch embedding)之間的均方誤差損失。

源碼:https://github.com/mishra-18/ML-Models/blob/main/Vission Transformers/mae.py

責任編輯:趙寧寧 來源: 小白玩轉Python
相關推薦

2021-03-22 10:52:13

人工智能深度學習自編碼器

2021-03-29 11:37:50

人工智能深度學習

2024-06-18 08:52:50

LLM算法深度學習

2022-04-02 21:46:27

深度學習編碼器圖像修復

2025-04-10 11:52:55

2021-02-20 20:57:16

深度學習編程人工智能

2024-10-21 16:47:56

2017-07-19 13:40:42

卷積自編碼器降噪

2017-07-03 07:14:49

深度學習無監督學習稀疏編碼

2017-12-26 10:48:37

深度學習原始數據

2017-11-10 12:45:16

TensorFlowPython神經網絡

2017-05-08 22:40:55

深度學習自編碼器對抗網絡

2020-04-26 11:26:02

人臉合成編碼器數據

2022-09-13 15:26:40

機器學習算法數據

2025-04-10 06:30:00

2021-11-02 20:44:47

數字化

2018-05-21 08:22:14

自編碼器協同過濾深度學習

2012-04-10 16:55:22

PowerSmart編碼器

2012-04-01 16:40:45

編碼器

2025-04-11 00:16:00

模態編碼器MAECLIP
點贊
收藏

51CTO技術棧公眾號

女人天堂亚洲aⅴ在线观看| 91一区二区三区在线| 欧美精品黄色| 欧美日韩中字一区| 欧美精品欧美精品系列c| 久草视频在线免费看| 伊人亚洲精品| 国产欧美一区二区三区在线老狼| 国产综合在线看| 国内精品国产三级国产aⅴ久| www.av在线播放| 久久精品1区| 亚洲成人网久久久| av女优在线播放| 狠狠综合久久av一区二区| 亚洲二区三区不卡| 日韩一区二区三区电影 | 国产精品人妻一区二区三区| 亚洲春色h网| 黑人巨大精品欧美一区二区三区 | 污污的视频免费| 在线观看av黄网站永久| 免费久久精品视频| 色偷偷av一区二区三区| 91亚洲精品久久久蜜桃借种| 日韩大片在线永久免费观看网站| 久久99久久99| 久久6免费高清热精品| 成人一区二区三区仙踪林| 女囚岛在线观看| 丁香一区二区三区| 97国产suv精品一区二区62| 农村末发育av片一区二区| 第一av在线| 久久伊99综合婷婷久久伊| 国产精品久久97| 伊人在线视频观看| 盗摄牛牛av影视一区二区| 狠狠干狠狠久久| 亚洲午夜激情| 成人h动漫精品一区二区无码 | 久国内精品在线| 精品人妻在线视频| 澳门成人av网| 国产精品成人免费在线| 成人av片网址| 天天爱天天做天天爽| 国产精品99久久精品| 日韩视频一区二区三区| 日本中文字幕网址| 日本在线免费看| 粉嫩aⅴ一区二区三区四区 | 波多野结衣啪啪| 91精品国产自产在线观看永久∴| 亚洲成色777777在线观看影院| 成人免费xxxxx在线视频| fc2ppv国产精品久久| 91玉足脚交白嫩脚丫在线播放| 国产精品成人va在线观看| 欧美日韩黄色网| 亚洲精品亚洲人成在线观看| 欧美日韩成人在线一区| 妞干网在线观看视频| 国产福利电影在线| 国产成人在线看| 国产激情综合五月久久| 免费视频网站www| 国内精品久久久久久久影视简单| 日韩欧美亚洲另类制服综合在线 | 成人免费精品动漫网站| 亚洲国产视频二区| 色一情一伦一子一伦一区| www.-级毛片线天内射视视| 黄色av网站在线免费观看| 成人网男人的天堂| 成人免费网站在线看| 日韩不卡在线播放| 亚洲黄色影院| 欧美国产日本高清在线| 亚洲人做受高潮| 欧美裸体在线版观看完整版| 亚洲国产美女久久久久| 污污视频在线免费| 国产精品99| 91精品福利在线| 久久国产亚洲精品无码| 色呦呦久久久| 一卡二卡欧美日韩| 青少年xxxxx性开放hg| 中文日本在线观看| 日本一区二区三区四区 | 丰满人妻一区二区三区53视频| 欧美一区 二区 三区| 精品露脸国产偷人在视频| 无码av天堂一区二区三区| 成人免费看片| 自拍偷拍国产精品| 自拍偷拍亚洲色图欧美| 黄网在线观看| 久久久久久黄色| 欧美日韩精品免费观看视一区二区| 秋霞视频一区二区| 成人app下载| 国产在线欧美日韩| 深夜福利视频网站| 不卡的看片网站| 国产日韩一区二区| 天堂在线观看av| av亚洲精华国产精华| 国产一区不卡在线观看| 天堂av2024| 91在线视频免费91| 欧美乱偷一区二区三区在线| 精品视频一二区| 欧美激情一区二区三区| 亚洲视频精品一区| 很黄的网站在线观看| 一区二区三区久久久| 久久这里只有精品18| 免费v片在线观看| 91久久精品日日躁夜夜躁欧美| 毛片毛片毛片毛片毛片毛片毛片毛片毛片| 三级成人在线| 欧美日韩精品一区二区| 国内精品国产三级国产aⅴ久| 哺乳挤奶一区二区三区免费看| 欧美v日韩v国产v| 日本黄色录像片| 精品国产一区二区三区小蝌蚪 | 亚洲优女在线| 在线视频综合导航| 亚洲一二三不卡| 国产精品乱战久久久| 亚洲欧美日韩网| 久久午夜精品视频| 欧美三级免费| 日韩美女中文字幕| 国产三级精品在线观看| 成人午夜激情视频| 日韩中文字幕一区二区| 91高清在线观看视频| 天天综合网天天综合色| 一道本视频在线观看| 一区二区中文字幕在线观看| 亚洲精品午夜精品| 日韩在线观看免| 一本一本久久| 91精品久久久久久久久久久久久久 | 91麻豆精品国产无毒不卡在线观看 | 国产成人亚洲综合a∨猫咪| 国产一区二区三区无遮挡| 岛国大片在线观看| 亚洲一区二区影院| 蜜桃免费在线视频| 国产精品45p| 日韩中文字幕在线播放| 亚洲免费激情视频| 狠狠色2019综合网| 视频在线观看成人| 爱搞国产精品| 欧美精品色一区二区三区| 少妇被狂c下部羞羞漫画| 99热精品久久| 国产成人av网址| 俄罗斯嫩小性bbwbbw| 国产人伦精品一区二区| av免费看网址| 精品一区二区三区中文字幕 | 91九色蝌蚪嫩草| 国产美女性感在线观看懂色av| 一区二区三区四区激情 | 国产盗摄视频一区二区三区| 欧美日韩最好看的视频| 俄罗斯一级**毛片在线播放| 欧美精品在线一区二区| 欧美 日韩 国产 成人 在线观看| 欧美日韩1区| 成人黄色av网站| 韩日视频在线| 香蕉av福利精品导航 | 97se亚洲国产综合在线| 久久观看最新视频| 欧美电影在线观看网站| 一区二区三区视频免费| 日韩一级在线视频| 91免费观看视频| 久久久亚洲精品无码| 亚洲一区二区免费在线观看| 日韩有码在线播放| 亚洲无码久久久久| 国产精品久久久久影院亚瑟| 成人一区二区三| 伊人久久大香线蕉无限次| 55夜色66夜色国产精品视频| 欧美亚洲精品在线观看| 亚洲成人中文在线| 黄色免费看视频| 亚洲在线黄色| 国产精品视频一区二区三区经| 国产成人在线视频免费观看| 欧美日韩高清一区| 乱老熟女一区二区三区| 精品一区二区av| 大桥未久一区二区| 91亚洲精品在看在线观看高清| 色妞在线综合亚洲欧美| 在线不卡免费视频| 国产精品高潮久久久久无| 午夜在线观看av| 婷婷综合网站| 亚洲直播在线一区| 久久大胆人体| 亚洲福利影片在线| 国产精品九九九九九九| 国产一区二区在线看| 91嫩草国产丨精品入口麻豆| 蜜桃在线一区| 韩日精品中文字幕| 韩国福利在线| 欧美日韩一级大片网址| 国产成人av免费在线观看| 国产一区二区h| av网站手机在线观看| 日韩av字幕| 国产成人97精品免费看片| 91精品国产综合久久久久久豆腐| 欧美日韩视频在线一区二区| 黄色录像二级片| 福利视频网站一区二区三区| 欧美 日韩 亚洲 一区| 欧美猛男做受videos| 国产精品入口日韩视频大尺度| 麻豆传媒在线免费看| 精品久久久三级丝袜| 欧美啪啪小视频| 国产精品久久国产精麻豆99网站| 4438x全国最大成人| 国产精品永久| 色中文字幕在线观看| 精品久久对白| 成人福利在线观看| 高清在线视频不卡| 伊人久久精品视频| av高清一区二区| 日韩欧美国产一区二区| 中日韩一级黄色片| 久久综合九色综合97婷婷女人| 伊人影院综合在线| 亚洲国产精品第一区二区| 亚洲国产欧美日韩| 国产精品17p| 成人在线小视频| 中老年在线免费视频| 久久在线观看视频| 日本亚洲一区| 欧美一级欧美三级| 波多野结衣日韩| 一区二区三区av电影| 一区二区黄色片| 成人美女视频在线观看| 97超碰成人在线| 久久国产88| 国产高清av在线播放| 午夜影院欧美| 精品午夜一区二区| 日韩国产一二三区| 欧美激情综合色| 97在线观看免费观看高清 | 欧美一区二区三区少妇| 在线亚洲+欧美+日本专区| 国产五月天婷婷| 亚洲免费在线播放| 亚洲一区 欧美| 久久一夜天堂av一区二区三区| 丰满少妇xbxb毛片日本| 国产在线国偷精品免费看| 日日碰狠狠丁香久燥| 亚洲一区二区三区四区五区午夜 | 亚洲aaa视频| 久久嫩草精品久久久精品一| 一级黄色电影片| 久久国产精品99精品国产| 黄色影院一级片| 激情国产一区| av中文字幕av| 在线一区免费| 日本xxx免费| 亚洲精品一二三区区别| 亚洲欧美日韩综合一区| 精品理论电影在线| 日本不卡久久| av亚洲在线观看| 深夜福利成人| 欧州一区二区| 在线视频精品一区| 91麻豆国产自产在线观看亚洲| 日韩福利视频| 成人aaaa| 国产精品美女在线播放| 91精品国产91久久久久久密臀| 亚洲午夜精品久久| 欧美超碰在线| 国产精品波多野结衣| 图片小说视频色综合| 中文字幕一区二区三区精彩视频| 久久中文字幕av一区二区不卡| 亚洲国产精品一区在线观看不卡| 成人高清电影网站| 一区二区三区av在线| 小处雏高清一区二区三区| 国产高清免费在线| 欧美日韩视频| 亚洲熟妇无码一区二区三区| 免费视频一区二区三区在线观看| 男女视频一区二区三区| 美女性感视频久久| 国产精品999.| 成人黄色网址在线观看| 久久久久久久久免费看无码 | 亚洲妇女成熟| 欧美在线视频免费播放| 日本一区免费网站| 成人激情春色网| eeuss鲁片一区二区三区| 韩国成人av| 欧洲杯足球赛直播| 日本老太婆做爰视频| 99精品免费视频| 亚洲黄色a v| 国产酒店精品激情| 青青草视频成人| 国产精品毛片无遮挡高清| 久久久久久欧美精品se一二三四| 欧美日韩激情网| 曰批又黄又爽免费视频| 欧美一区二区三区日韩| 色婷婷中文字幕| 亚洲午夜精品久久久久久久久久久久| 岛国在线大片| 欧美黑人性视频| 日韩毛片一区| 国产精品久久久久免费| 欧美亚洲在线日韩| 福利视频一区二区三区四区| 日本vs亚洲vs韩国一区三区| 丰满人妻一区二区三区大胸| 久久女同精品一区二区| 三级影片在线看| 色综合久久久久综合体桃花网| 国产欧美第一页| 精品中文字幕久久久久久| www在线免费观看视频| 欧洲亚洲在线视频| 五月亚洲婷婷| 色播亚洲婷婷| 99riav1国产精品视频| 性生生活大片免费看视频| xf在线a精品一区二区视频网站| 国产精品视频一区二区三 | 欧美大片第1页| 精品网站在线| 久久99精品久久久久久三级| 久久精品影视| 美女黄色片视频| 99久久免费精品| 九九精品在线观看视频| 在线观看中文字幕不卡| 免费国产羞羞网站视频| 俺也去精品视频在线观看| 91久久国产综合久久91猫猫| caoporn国产精品免费公开| 波多野结衣在线播放一区| 日本www在线播放| 国产91丝袜在线观看| av最新在线观看| 精品视频在线视频| 国产成人天天5g影院在线观看| 18久久久久久| 国产精品丝袜在线播放| 国产精品av免费观看| 蜜桃一区二区三区在线| 四虎国产精品成人免费入口| 精品久久久久久久久久ntr影视| 亚洲国产日韩在线观看| 精品中文字幕在线2019| 成人日韩视频| japanese在线视频| 精品一区二区在线观看| 最新日韩免费视频| 欧美日韩国产成人在线91| 在线视频自拍| 国产欧美日韩视频| 成人看的羞羞网站| 成人亚洲精品777777大片| 中文字幕电影一区| 午夜久久久久久久久久影院| 亚洲老头老太hd| 日韩三区免费| 亚洲精品tv久久久久久久久| 免费成人av在线播放|