精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

我們距離GPT-4V真的很近了嗎? 原創

發布于 2024-3-28 09:42
瀏覽
0收藏

在 ChatGPT 引爆 AI 圈之后,很多人預言 2024 年將會是多模態的元年。的確,我們在 23 年的最后一季度見證了 GPT-4V 的發布,前不久Google 家的 Gemini 和 Anthropic 的 Claude 3 也同樣支持多模態(Multimodal to Text),并且 Gemini 1.5 中能夠從兩小時的視頻中準確“撈針”出其中一幀包含的畫面。


國內這方面的工作以 Qwen-VL 為代表,也同樣取得了非常不錯的效果。我們最近也在大視覺語言模型(LMM)做了一些嘗試,發布了 Reka Flash,能夠接受圖片、音頻和視頻的輸入,在 MMMU 上也靠著相對較小的基礎語言模型(21B)也排名能夠排名靠前(截至 2024 年 3 月 9 日,這各領域變化太快了誰知道明天會是什么樣呢哈哈),且 vibe test 下來感覺還行)。

我們距離GPT-4V真的很近了嗎?-AI.x社區


但是我們真的距離 GPT-4V 很近了嗎?The Dawn of LMMs 展現了很多目前無法被 benchmark 分數所涵蓋的能力,似乎還在提醒著我們,前面的路還很長。這篇文章,我將嘗試結合自己的經歷和公開的資料,分享一下對未來視覺語言模型發展的一些想法。


01 Why LMMs?

?

為什么大家都會預測視覺語言模型會在 2024 年爆發?我覺得原因主要有兩點:


1. 視覺的基礎模型眾多 + 數據充足:CV 的自監督學習隨著 BERT 開始就已經有一系列工作,CLIP、MAE 、DINO 等能夠很好地編碼圖片,很好地起到了 visual tokenizer 的效果。


此外,應對上下文的限制,QFormer、Perceiever 也已經被廣泛地驗證了其有效性。除了純文本以外,圖文對也是少數我們能夠輕易獲取到的大量的數據 (e.g,Laion5B),image captioning 本質也是一種 next token prediction。


2. 應用場景廣泛:這個也很直接,日常生活中大多數數據的呈現方式就是,圖片 + 文本 -> 文本的范式能夠極大擴充模型處理任務的范圍。


另外,隨著大語言模型發展催生出的一系列 Agent 研究,在瀏覽網頁的時候會依賴 html 作為輸入。如果能夠直接讓 Agent 看到屏幕,輸出對應的操作坐標,更加簡潔優雅。進一步地,Deepmind 的 RT 2 也驗證了視覺語言模型能夠很快地遷移到諸如 robotic 場景,在 embodied 環境中發揮重要的作用。


這兩個條件可謂是大視覺語言模型發展的天時和地利,我們也同樣可以用這一條路徑來進一步驗壓縮即智能這一想法,看看這一框架是否能夠在具備了更豐富模態信息后,背后世界模型的學習速率是否會進一步加快


關于這一點,之前我們的一個工作 VEC 就發現即使基于純文本 NTP 訓練的 LLMs 也能夠學習到視覺世界的一些基礎概念,但更 embodied 的一些知識則很難(或者以相當低的速率)被學習到,需要借助視覺語言模型來輔助學習。

02 模型架構

目前主流的 LMM 架構基本上是以大語言模型 LLM 為核心骨架,然后將圖片視覺信息整合到 LLM 的預測過程中,因而這個框架里一般有以下幾個組件:


1. 基座語言模型:負責處理多模態的 embedding,并且執行預測推理的功能。一般選擇能夠獲取到的最強、大小最合適的語言模型即可;


2. 視覺編碼器:負責將圖片信息編碼成一組向量,常用的選擇是 CLIP-style 的各個模型(e.g., CLIP-ViT-L/14),最新的 Prismatic VLM 表明,CLIP 得到的圖片表示缺少細粒度的信息,可以通過和另外的視覺編碼器結合來提升在 grounding 等任務上的性能。


3. 模態橋接(Modality Bridge):負責將視覺編碼器得到的圖片表示進行變換映射到新的空間方便 LLM 進行處理。這里的做法有一些不同的方案:


  • Image as Word Embedding:一種經典的嘗試是將視覺編碼器得到的圖片向量通過簡單的 MLP 映射到對應的 word embedding 維度,隨后就可以將圖片作為多個 word embeddings 進行統一的處理。這一方面的局限是視覺編碼器的分辨率往往是固定且比較小的(224 和 336)

?

而在很多場景下這樣的分辨率完全不夠用(OCR 識別、Agent 瀏覽等),可以通過 post-training 來提升圖片的分辨率也可以 bypass 掉 image encoder(沒有了預訓練分辨率的限制),直接將圖片切成小塊,隨后映射到 word embedding 空間。


Fuyu-8B 就是這樣一個思路,在高分辨率的場景下展現出了非常出色的性能。分辨率提升帶來的圖片向量數量平方級增長帶來的計算開銷,可以通過利用 QFormer 或者是 Perceiver 來映射到固定數量來解決。


  • Cross Attention to Visual Embedding:Deepmind 最早搞的 Flamingo就是通過在 LLM 中引入額外的 Gated Cross-Attention Layer,來在文本生成的過程中整合視覺端的信息:


我們距離GPT-4V真的很近了嗎?-AI.x社區


這種方案對區分不同模態有著更加強的先驗,但后續看到的一些開源實現和改進,都很難超越前一種方案。如果訓練量足夠大,那么在前一種方案中 LLM 也能夠自適應地學習到這種先驗,因而我個人覺得這個方案或許在 2 年前是有道理,但在今天 scaling law 的暴力美學下,可能更少先驗,更多數據會是樸實且有效的方案。


GPT-4V 是什么架構?雖然 tech report 里啥也沒說,但是我們從 GPT-4V 的收費計算的方式以及 API Doc,可能可以猜測一下背后視覺模塊的方案。收費模式分兩種:


  • Low Resolution: 這種模式下圖片會被算作 85 input token 進行收費;
  • High Resolution: 圖片首先在保持長寬比會被縮放 2K x 2K 的方塊內(花費 85 個 token)然后圖片的短邊將會被縮放到 768px,并且計算縮放后的圖片需要多少個 512 x 512 的 grid 來覆蓋。
  • ?

官方給出的示例:

我們距離GPT-4V真的很近了嗎?-AI.x社區


由此我們可以看到,一個 512 x 512 的 image tile 被 170 個 token 所表示。假設背后也是 VIT,那我們可以推測:


  1. 如果使用 QFormer 對輸出的 visual token 做降采樣,那原先的 visual tokens 在 300 - 1000 左右(參考 Qwen-VL 的 report,1024 個 patch 被壓縮到 256 個的效果相對最好),則意味著 VIT 的 patch size 最大可能是 28,最小可能是 16 的樣子;
  2. 如果沒有使用 QFormer 進行壓縮,那么以為著 512 x 512 的圖片可能被用了一個 40 的 patch size 。如果是用了這樣的 patch size,那么我們可以進一步推測 low resolution 原始的圖片可能會被統一放縮到 384 x 384 ,因此我們可以用差不多 85 個 token 來表示每個圖片。


最近開源的 LLaVA-Next 也采用了類似的方案,并且在一種 benchmark 上都取得了出色的性能,側面驗證了這種方法的有效性。還有一種是 adaptive 的搜索式的方案 V*,根據需要來切分圖片里的小塊重新交給模型,類似起到 re-attention 的效果,在小物體的檢測問題上面有很大的潛力。總的來說,這些方案都是為了解決輸入圖片分辨率不夠的問題

03 數據

數據一直是這波大語言模型發展的重中之重,從訓練和測評的角度,目前我個人的感受是:

  • LMM 依舊能夠通過構建高質量的訓練數據獲取性能躍遷的階段;
  • LMM 測評基準有了不少進展,但是依舊無法比較全面的 cover 多模態的能力。多模態下的 language modeling loss 也許依舊是一個金指標。

訓練數據

?

我們大致的可以將訓練分成兩個階段:Modality Alignment Training 和 Supervised fine tuning(SFT),前者為了圖片映射到 LLM 的語義空間,而后者則是激發模型的能力來做各種下游任務。


Alignment Dataset: 這塊早先大家會用開源的 Laion400M 和 Laion5B 進行對齊訓練,但實際情況可能是這些數據集中的 image-text pair 都過于 noisy,對于學習模態的 alignment 效率并不高。


一種解決思路是對 alignment數據集進行更加細粒度的表述,進而能夠幫助模型更好地學習圖片中物體的相關位置等關系,和LLM原先的知識掛上鉤。ShareGPT4V 就是一個很好的嘗試,驗證了利用 GPT-4V 重新標注 image captions,就能夠帶來明顯的提升。除了 ShareGPT4V 以外,CapsFusion 也展現了用更豐富的 caption 帶來的提升。


SFT Dataset: 學術界開源的比較好的訓練數據目前主要是 LLaVA 系列,其利用 bounding box 等輔助信息將圖片文本化后,利用 ChatGPT/GPT-4 來生成了大量的 pseudo multimodal pair (detailed captioning, reasoning and conversation)

這個范式非常有效,也是為什么 LLaVA 系列一出來效果很驚艷的原因。但他依舊存在著一些問題:


  1. 既然是 pseudo multimodal,那必然會引發 hallucination 問題(因為 ChatGPT 并沒有真正的 see the image)。這一點也是目前大家關注的重點。解決的方案有 LLaVA-RLHF,通過額外引入一個 Factual reward model 來提升 hallucination;Volcano 則是用 self-feedback 來 revise 輸出。或者更直接一點,我們用早先人工標注的數據做一下統一格式,在保真度方面就會有很大的提升,這方面我們做了 M3IT 來方便大家重新利用之前的數據集來做 SFT 。


  1. 任務的覆蓋面不夠廣,在重要的 OCR、Chart 場景下能力都有所欠缺。這點我們對比 Qwen、LLaVA 1.5 以及 LLaVA-Next 的性能就能看出來,使用了更多更豐富的多模態數據集,基本上都能對下游如 MMMU、MathVista 等測評數據集有所提升。


通過這些研究我們可以猜測,GPT-4V 背后一定是大量的數據工程,具體地可能體現在:


Alignment 端:相比于開源模型利用 CLIP 等作為 vision encoder,OpenAI 應該采用了強化版的 CLIP 模型(畢竟現在的 CLIP 還都是他們 2021 年的成果)。之前的 CLIP 不夠好的很大原因就在于圖片和文本的信息量不對等,caption 大多是簡單的幾個詞來描述物體,而圖片中則有豐富的顏色、位置等時空信息。


不妨可以想象一下,我們用現在的 GPT-4V 標注整個 web images(~ 10B level ?),提升文本端的豐富度并對 hallucination 做控制。在此數據集基礎上我們訓練一個 vision encoder,再迭代地更新 GPT-4V,相信會有一個明顯的提升;


SFT 端:我認為在足夠好的對齊 + 在基模型足夠強大這兩個條件下,可能只需要足夠多樣的(質量 >> 數量)的 prompting 數據就能夠在現在的 VQA、Captioning benchmark 上表現出色。因為客觀來說,現在的測評數據集也都集中在這兩個任務形式上,因此少量的 prompt 就能夠泛化到下游的數據集上。


測評基準

?

目前關注 LMM 測評的工作有很多,大致歸類一下:


綜合性 Benchmark:融合了各種多模態任務,綜合地評估 LMM 各個方面的能力,主要形式是 VQA,給定問題和圖片讓模型回答 Yes/No 或者是給出選項,代表的工作有 MME 還有 MM-Vet。


這里有一些有意思的事情是 MME 采用 Yes/No parsing 來評估,而 MM-Vet 則會采用 ChatGPT 打分的方式評估,前者其實對 GPT-4V 喜歡給出帶理由的回答的模型并不友好,模型可能回答正確但沒有被正確解析;而后者則容易傾向于 prefer ChatGPT style 的模型,偏好使用了接近數據的模型。


特定領域的 Benchmark:hallucination 是多模態更容易體現出來的一個問題,造成的潛在后果也挺大,這方面測評的 benchmark 像 POPE 和 MMHal。但是 POPE 有個問題這個數據集依賴于 COCO 的 tag,就我個人的經驗而言,那個 tag 的準確率并不高,POPE 上的分數因而會收到一定程度的影響。


此外,大家認為 math reasoning 可能是比較有挑戰性的任務,因此像 MMMU 和 MathVista 的關注度都比較高,目前 GPT-4V 也距離人類還是有很大差距。這塊我們最近的一個工作是意識到 ArXiv 上的很多 paper 天然也是多模態的,并且涵蓋了豐富的學科內容,因而我們構建了一個 Multimodal ArXiv,提供 captioning 和 QA (GPT-4V generated) 的數據集,能夠很有效地提升模型數學推理的能力。


這些基準上的分數依舊很難比較全面的反應模型的能力,模型會做題不代表這個模型可用性高。能夠給用戶體驗讓用戶有 wow 感覺的模型,才可能說真的是看到了 GPT-4V 的尾巴,而目前能做到這點的模型,還不多。

04 Future Directions

?

總體來看,我認為我們和 GPT4-V 的差距在于 (i) 基模型的指令跟隨和理解能力;(ii) 模態對齊的訓練質量和數量,以及 (iii) 多樣的 SFT 數據的構建。


其中 (i) 是國內很多公司和研究組努力的方向,相信在大伙的努力下我們會有一個強大的基模型,現在有的 Qwen 、Deepseek、Skywork 等系列模型都很有機會。


(ii) 目前開源出來數據集的量級還不夠大,而這件事情的投入(re-annotating the image world)應該也是巨大。但值得注意的是,DALLE 3 和 Sora 也是用了類似的方案來對 image/video的描述進行細節化,因而進一步提升了生成圖片和視頻的質量。做這件事情的意義可能對于我們去建模一個高分辨率的世界模型是有重大意義的。


(iii) 這件事情或許可以交給學術界來搞,定義和標注有意義的多模態任務,進而整合到 SFT 過程中即可。


除去這些看似比較 boring 的搞數據以外,還有什么值得探索的方向呢,這邊我也分析一些我個人比較感興趣的問題(帶貨環節):


1. LMM Hallucination 形成的原因?在文本領域的 Hallucination 的原因大家也都還在廣泛地討論中,那引入一個額外模態之后,hallucination 的來源會更多了嗎?是數據還是模型架構帶來的問題?如果我們能夠更清晰的看到模型內部的一些信號,或許會對理解這些問題更有幫助。


2. LMM 的安全性:ChatGPT 出來之后就有很多 Red Teaming 和 Jailbreaking的嘗試,那 GPT-4V 會不會也有這種安全性上的 concern 呢?


Red Teaming VLM 提供了一個很好的 benchmark 來做這方面的探索;此外,ImgTrojan 也發現之前 NLP 廣泛存在的后門攻擊同樣適用于 LMM,并且會成為更為隱蔽的特洛伊木馬來規避掉 safe alignment。這里后續的研究又可以進行攻擊、防御、消除的探索。


3. RLHF/DPO for LMM:前面提到的 alignment 和 sft 更多地還是依賴于人類標注的數據,當人類無法給出 ground-truth 的標注的時候,我們就需要構建一個 reward model 來告訴我們哪些回復是更合適的。


RLHF 和 DPO 已經在大語言模型上被驗證了有效性,但當存在額外的模態的時候,如何定義哪個回復是更好的(例如會有更多樣的偏見),如何更好地協調一致的 reward label 的標注等等都會帶來新的問題和挑戰。


我們的 VLFeedback 提供了一個很直給的方案,讓 GPT-4V 來標注不同的方面,并且也驗證了這個框架的有效性。但最近我們也發現 DPO 在不同基模型上的效果還不太一樣,依舊存在很多細節的問題,值得進一步的分析。


總的來說,LMM 在無論是學術界還是工業界,都依舊大有可為。

希望能和這一領域的研究者們一起,接近 GPT-4V,超越 OpenAI!


本文轉自 PaperWeekly ,作者:李磊


原文鏈接:??https://mp.weixin.qq.com/s/sz0cfChe9SXh5wDWHN-UEA??

?著作權歸作者所有,如需轉載,請注明出處,否則將追究法律責任
標簽
收藏
回復
舉報
回復
相關推薦
欧美久久久久久| 欧美激情成人在线视频| 久久婷婷国产91天堂综合精品| 精品无吗乱吗av国产爱色| 美女视频网站久久| 久久99热精品这里久久精品| 青青草视频网站| 666av成人影院在线观看| 亚洲欧洲av在线| 精品国产乱码久久久久久108| 国产主播第一页| 国产精品激情| 中文精品99久久国产香蕉| 婷婷激情5月天| av福利在线导航| 中文字幕精品三区| 国产激情一区二区三区在线观看 | 欧美日韩一区二区三区在线免费观看 | 欧美激情a∨在线视频播放| 欧美图片第一页| 日韩视频一二区| 欧洲av一区二区嗯嗯嗯啊| 日韩人妻无码精品久久久不卡| 超碰在线国产| 91偷拍与自偷拍精品| 96pao国产成视频永久免费| 免费看日韩毛片| 中文字幕av亚洲精品一部二部| 亚洲区一区二区| 日韩精品人妻中文字幕有码 | 国产一区在线观看免费| 国产亚洲精品美女久久久久久久久久| 日韩欧美自拍偷拍| 色婷婷一区二区三区av免费看| 欧美极品videos大乳护士| 亚洲人妖av一区二区| 性高潮久久久久久久久| 日韩av成人| 99riav久久精品riav| 97人人香蕉| 国产黄色一区二区| 国内精品伊人久久久久av一坑| 国产精品88a∨| 香蕉影院在线观看| 国产亚洲网站| 性色av一区二区三区免费| 免费在线观看黄视频| 中文字幕一区二区av| 色偷偷88888欧美精品久久久| 手机在线成人av| 九九热播视频在线精品6| 精品福利一二区| 影音先锋资源av| 国产精品毛片久久久| 精品国产乱子伦一区| 国产chinesehd精品露脸| 国产亚洲高清一区| 日韩一区二区中文字幕| 无码人妻一区二区三区免费n鬼沢| 国产精品一区二区三区www| 欧美高清dvd| 欧美性受xxxx黒人xyx性爽| 精品999日本久久久影院| 欧美一区二区三区人| 国产一级二级av| 一区二区三区视频免费视频观看网站| 欧美成va人片在线观看| 亚洲一区二区三区四区av| 国产精品乱战久久久| 亚洲精品影视在线观看| 欧洲美一区二区三区亚洲| japanese国产精品| 丝袜美腿亚洲一区二区| 欧美老熟妇一区二区三区| 欧美精品偷拍| 51ⅴ精品国产91久久久久久| 精品黑人一区二区三区| 美国十次了思思久久精品导航| 国产在线观看精品一区二区三区| 国产强被迫伦姧在线观看无码| 国产 欧美在线| 久久精品日韩| 欧美三级黄网| 亚洲高清视频的网址| 亚洲爆乳无码专区| 国产精品一站二站| 日韩av资源在线播放| 亚洲黄色小说视频| 五月精品视频| 91wwwcom在线观看| 一级特黄色大片| 99久久久精品免费观看国产蜜| 色姑娘综合网| 四虎亚洲精品| 欧美这里有精品| 少妇高潮一69aⅹ| 国产不卡一二三区| 欧美黑人国产人伦爽爽爽| 日本视频网站在线观看| 国产精品一二二区| 三区精品视频| 爱情岛亚洲播放路线| 欧美日韩亚洲综合在线 欧美亚洲特黄一级| 深爱五月综合网| 亚洲动漫在线观看| 久热精品在线视频| 五月婷婷激情五月| 成人av第一页| 三年中文高清在线观看第6集 | 国产精品三级网站| 色屁屁草草影院ccyycom| 国产精品美女久久久久久久久| 男人天堂av片| 中文幕av一区二区三区佐山爱| 亚洲精品二三区| 婷婷在线精品视频| 捆绑调教一区二区三区| 欧美日产一区二区三区在线观看| 性国产高清在线观看| 欧美亚洲日本国产| 黄色工厂在线观看| 亚洲区第一页| 97netav| 麻豆免费在线视频| 欧美日韩一级片在线观看| 能免费看av的网站| 国产精品久久久免费| 99久久综合狠狠综合久久止| 91在线观看| 在线精品视频免费观看| 无遮挡aaaaa大片免费看| 一区在线免费| 99久久国产免费免费| 久cao在线| 欧美日韩国产美女| 制服丨自拍丨欧美丨动漫丨| 老牛嫩草一区二区三区日本| 久久riav二区三区| 亚洲精品动漫| 亚洲精品视频免费在线观看| 黄色一级片免费看| www.99精品| 国产欧美日韩小视频| 日韩免费高清视频网站| 不卡av日日日| av一区二区三| 亚洲精品v日韩精品| 欧美污在线观看| 欧美在线看片| 91av一区二区三区| 欧美精品videossex少妇| 日韩欧美123| 久久精品视频6| 成年人网站91| 亚洲熟女乱色一区二区三区| 日日狠狠久久偷偷综合色| 欧美在线视频播放| 国产视频第一区| 欧美日韩国产另类一区| 日韩国产第一页| 国产成人在线网站| 黄色成人在线看| 少妇一区二区三区| 国产精品扒开腿做| 尤物视频在线免费观看| 3atv一区二区三区| 五月天婷婷丁香| 久久久www成人免费无遮挡大片| 欧美激情精品久久久久久小说| 国产va免费精品观看精品视频 | 国产伦精品一区二区三区免.费| 亚洲三级电影网站| 日批视频免费看| 羞羞视频在线观看欧美| 五月天久久综合网| 91精品导航| 日韩69视频在线观看| 日本中文在线观看| 精品国产免费人成电影在线观看四季 | 午夜亚洲福利在线老司机| 色综合久久av| 精品中文字幕一区二区三区四区| 欧美激情亚洲国产| 男人天堂亚洲二区| 欧美一区二区视频观看视频| 五月天婷婷网站| 国产亚洲一区二区三区在线观看 | av欧美精品.com| mm1313亚洲国产精品无码试看| 欧美独立站高清久久| 国产精品v欧美精品v日韩精品| 日韩伦理福利| 日韩色av导航| 视频国产在线观看| 制服丝袜日韩国产| 欧美性猛交bbbbb精品| 亚洲欧洲三级电影| 欧美丰满少妇人妻精品| 国产尤物一区二区| 黄色av免费在线播放| 欧美成人综合| 视频三区二区一区| 精品国产一区二区三区不卡蜜臂 | 中文字幕乱码亚洲精品一区| 国内自拍偷拍视频| 蜜桃久久精品一区二区| 精品人妻少妇一区二区| 99tv成人| 欧美日韩亚洲免费| 精品视频高潮| 成人在线国产精品| 你懂得影院夜精品a| 91国产高清在线| 毛片免费不卡| 最近免费中文字幕视频2019| 五月天婷婷在线观看| 日韩三级视频在线观看| 中文字幕人成人乱码亚洲电影| 午夜亚洲国产au精品一区二区| 欧美做爰啪啪xxxⅹ性| 久久精品亚洲精品国产欧美kt∨| 国产国语老龄妇女a片| 麻豆国产一区二区| 在线观看免费成人av| 在线午夜精品| 亚洲精品无码国产| 欧美在线不卡| 粉嫩av一区二区三区天美传媒 | 在线观看黄色国产| 色悠悠久久综合| 欧美三级一区二区三区| 亚洲影院免费观看| 欧美日韩午夜视频| 中文字幕永久在线不卡| 中文字幕第69页| 欧美激情综合五月色丁香| 国产精品一级黄片| 99久久精品国产麻豆演员表| 国产在线观看免费播放| 国产麻豆一精品一av一免费| xxww在线观看| 久久精品99国产精品| 在线观看高清免费视频| 日本不卡在线视频| 最新中文字幕免费视频| 视频一区欧美精品| 国产福利影院在线观看| 日本伊人色综合网| 日本在线一二三区| 精东粉嫩av免费一区二区三区| 少妇黄色一级片| 美女免费视频一区二区| 色播五月综合网| 久久99精品久久久久久国产越南| 国产三级三级看三级| 国内成人精品2018免费看| 亚洲免费成人在线视频| 国产一二精品视频| 日本wwwwwww| 成人av资源网站| www.88av| 国产日韩欧美精品综合| 999久久久国产| 亚洲欧美视频一区| 国产亚洲精品av| 高跟丝袜欧美一区| 亚洲图片欧美日韩| 欧美肥妇毛茸茸| 亚洲av无码国产综合专区| 亚洲黄页网在线观看| 韩国中文字幕2020精品| 久久久国产精彩视频美女艺术照福利| 色a资源在线| 欧美一级成年大片在线观看| 成人自拍视频网| 亚洲影院高清在线| 久久大胆人体视频| 色婷婷精品国产一区二区三区| 91综合在线| 国产曰肥老太婆无遮挡| 日韩不卡免费视频| 亚洲熟女乱综合一区二区| bt7086福利一区国产| 黄大色黄女片18免费| 亚洲精品免费看| 免费黄色网址在线| 在线电影欧美成精品| 日本xxxx人| 中文字幕日韩专区| 91在线超碰| 国产在线精品一区免费香蕉| 成人激情自拍| 深田咏美在线x99av| 在线播放精品| 日本在线观看免费视频| 国产成人精品免费在线| 69精品无码成人久久久久久| 亚洲欧美另类小说视频| 综合网在线观看| 日韩一二三区不卡| 粉嫩av在线播放| 久久久久久久亚洲精品| 色综合.com| 麻豆成人av| 国产精品v日韩精品v欧美精品网站 | 久久久午夜影院| 欧美精品第一页| 男人天堂综合| 国产综合在线视频| 激情久久免费视频| 一区二区在线高清视频| 国产精品久久777777毛茸茸 | 一区二区美女视频| 日韩精品在线观| 欧美xxxx视频| 国产一区二区在线免费视频| 日韩理论电影中文字幕| 成人在线观看毛片| 国内久久婷婷综合| 日韩精品电影一区二区三区| 天天免费综合色| 亚洲国产日韩在线观看| 丝袜美腿精品国产二区| 日韩欧美一区二区三区在线观看| 国产欧美一区二区三区不卡高清| 亚洲香蕉av| 中文字幕免费高清在线| 久久久久亚洲蜜桃| 日韩伦理在线视频| 欧美成人vr18sexvr| 日本天码aⅴ片在线电影网站| 成人亚洲欧美一区二区三区| 久久久影院免费| 四季av一区二区| 国产亚洲午夜高清国产拍精品| 成人免费区一区二区三区| 日韩精品一区二区三区蜜臀| 黄色网在线免费观看| 成人免费直播live| 91成人网在线观看| 色免费在线视频| 国产精品免费av| 中文字幕第315页| 中文字幕视频一区二区在线有码| 四虎4545www精品视频| 日韩啊v在线| 蜜臀av一区二区| 波多野结衣家庭教师在线观看| 欧美亚洲国产一区在线观看网站| 久久经典视频| 国产精品极品尤物在线观看| 成人在线免费小视频| 国产一级特黄a大片免费| 国产偷v国产偷v亚洲高清| 午夜久久久久久久久久影院| 国产香蕉精品视频一区二区三区| 日韩免费电影| 先锋在线资源一区二区三区| 狠狠色丁香婷综合久久| 久久国产精品波多野结衣av| 精品欧美乱码久久久久久 | 欧美性猛交丰臀xxxxx网站| 日韩a级作爱片一二三区免费观看| 清纯唯美日韩制服另类| 欧美色图国产精品| 天堂在线精品视频| 亚洲国产综合在线| 久草福利在线| 成人精品一区二区三区电影黑人| 欧美在线网站| 美女流白浆视频| 欧美视频一区二区三区…| av网站在线免费播放| 亚洲一区免费网站| 在线亚洲自拍| 国产福利在线导航| 欧美成人a在线| 三级成人在线| 99久re热视频精品98| 99久久久久久| 91好色先生tv| 午夜精品视频在线| 日韩综合一区| 色哟哟无码精品一区二区三区| 色综合久久久久网| 色影视在线观看| 国产中文一区二区| 免费高清在线一区| 日韩精品一卡二卡| 国产亚洲视频在线观看| 成人在线视频中文字幕| 国产精品视频黄色| 亚洲v中文字幕| 伊人免费在线| 久久久久久久久久久一区| 韩国女主播成人在线观看| 免费看毛片网站| 欧美乱大交xxxxx另类电影| 国产探花一区在线观看| 88av在线播放|