精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

寫Hudi異常:'Not an Avro data file' 解決方法

開發 前端
各種原因導致.rollback、.clean、.clean.requested和.clean.inflight文件大小為0,也就是空文件,而在archive和clean時無法處理空文件,就報錯上面的異常。

?前言

記錄寫Hudi時的一個異常的解決方法,其實這個異常從去年就發現并找到解決方法了,而且已經提交到社區merge了,PR:[HUDI-2675] Fix the exception 'Not an Avro data file' when archive and clean。之所以現在又要總結這個異常的處理方法是因為:我們生產環境用的 Hudi0.9.0版本,且沒有升級,因為升級Hudi版本可能會有不兼容的問題,需要測試,比較費時,所以目前還沒有升級版本,而這個PR合入的版本為0.11.0,所以本文主要總結在0.9.0版本如何解決這個問題,當然也適用于0.11.0版本之前的其他有同樣問題的版本。

異常信息

archive和clean時都會有這個異常,主要異常信息:

 Caused by: java.io.IOException: Not an Avro data file

異常產生原因

各種原因導致.rollback、.clean、.clean.requested和.clean.inflight?文件大小為0,也就是空文件,而在archive和clean時無法處理空文件,就報錯上面的異常。有一個已知原因,就是HDFS配了滿了之后會產生空文件,更多的是PMC也不清楚的未知原因,上面的PR中有體現。

解決方案

這是在不升級Hudi版本的前提下,如果可以升級Hudi版本,直接升級到Hudi最新版即可。

解決方案1

當發生該異常時,由運維人員刪除對應的空文件即可,當然這適用于表不多且異常偶發的情況,具體命令放在最后。但是當表比較多時,運維人員處理起來比較麻煩,這就需要第二種解決方案了。

解決方案2

基于Hudi0.9.0源碼將文章開頭提到的PR合進去,然后install本地倉庫或者公司自己的內部倉庫中,然后Maven pom依賴中引用自己的倉庫地址就可以了。基于0.9.0的代碼我已經提交,有需要的可以自行下載,其他版本就需要大家自己合了。

  • gitee: https://gitee.com/dongkelun/hudi/tree/0.9.0-fixNotAvro/
  • github: https://github.com/dongkelun/hudi/tree/0.9.0-fixNotAvro

Hudi maven install命令:

mvn clean install -DskipTest

驗證

直接本地運行測試用例中的testArchiveCompletedRollbackAndClean和testCleanEmptyInstants,這倆測試用例通過了應該就沒有問題

方案1具體處理方法

不管是什么原因導致的異常,不管用何種方式,只要確保找到正確的對應的大小為0的空文件刪掉即可,一定不要刪錯

異常信息1

ERROR [Timer-Driven Process Thread-4] o.a.hudi.table.HoodieTimelineArchiveLog Failed to archive commits, .commit file: 20220726050533.rollback
java.io.IOException: Not an Avro data file
at org.apache.avro.file.DataFileReader.openReader(DataFileReader.java:50)
at org.apache.hudi.common.table.timeline.TimelineMetadataUtils.deserializeAvroMetadata(TimelineMetadataUtils.java:178)
at org.apache.hudi.client.utils.MetadataConversionUtils.createMetaWrapper(MetadataConversionUtils.java:103)
at org.apache.hudi.table.HoodieTimelineArchiveLog.convertToAvroRecord(HoodieTimelineArchiveLog.java:341)
at org.apache.hudi.table.HoodieTimelineArchiveLog.archive(HoodieTimelineArchiveLog.java:305)
at org.apache.hudi.table.HoodieTimelineArchiveLog.archiveIfRequired(HoodieTimelineArchiveLog.java:128)
at org.apache.hudi.client.AbstractHoodieWriteClient.postCommit(AbstractHoodieWriteClient.java:439)
at org.apache.hudi.client.HoodieJavaWriteClient.postWrite(HoodieJavaWriteClient.java:187)
at org.apache.hudi.client.HoodieJavaWriteClient.insert(HoodieJavaWriteClient.java:129)
at org.apache.nifi.processors.javaHudi.JavaHudi.write(JavaHudi.java:523)
at org.apache.nifi.processors.javaHudi.JavaHudi.onTrigger(JavaHudi.java:404)
at org.apache.nifi.processor.AbstractProcessor.onTrigger(AbstractProcessor.java:27)
at org.apache.nifi.controller.StandardProcessorNode.onTrigger(StandardProcessorNode.java:1167)
at org.apache.nifi.controller.tasks.ConnectableTask.invoke(ConnectableTask.java:208)
at org.apache.nifi.controller.scheduling.TimerDrivenSchedulingAgent$1.run(TimerDrivenSchedulingAgent.java:117)
at java.util.concurrent.Executors$RunnableAdapter.call(Executors.java:511)
at java.util.concurrent.FutureTask.runAndReset(FutureTask.java:308)
at java.util.concurrent.ScheduledThreadPoolExecutor$ScheduledFutureTask.access$301(ScheduledThreadPoolExecutor.java:180)
at java.util.concurrent.ScheduledThreadPoolExecutor$ScheduledFutureTask.run(ScheduledThreadPoolExecutor.java:294)
at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1149)
at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:624)
at java.lang.Thread.run(Thread.java:748)

原因

.rollback文件大小為0

解決方法

在表元數據路徑下查看異常信息里的文件,確認是否大小為0

hadoop fs -ls hdfs://cluster1/apps/hive/tenant/zxqzk_smzt_mztgx/sam_exp/.hoodie/20220726050533.rollback
0 2022-07-26 07:05 hdfs://cluster1/apps/hive/tenant/zxqzk_smzt_mztgx/sam_exp/.hoodie/20220726050533.rollback

確認為0后,刪掉該文件即可

hadoop fs -rm -r hdfs://cluster1/apps/hive/tenant/zxqzk_smzt_mztgx/sam_exp/.hoodie/20220726050533.rollback

注意不要刪錯,也可將該文件改名避免刪錯再啟動組件驗證是否正常,如果還有異常,排查其他.rollback大小為0文件,一起刪掉

最好不要用grep的方式刪除,避免誤刪,只有配額不足導致的文件特別多的情況下才建議使用

查找所有符合條件的文件(一般只有一符合條件的文件,目前發現只有配額不足的情況才會有多個)

hadoop fs -ls -R  hdfs://cluster1/apps/hive/tenant/zxqzk_smzt_mztgx/sam_exp/.hoodie | grep .rollback | grep -v .rollback.inflight | awk '{ if ($5 == 0) print $8 }'

刪除所有符合條件的文件

hadoop fs -ls -R  hdfs://cluster1/apps/hive/tenant/zxqzk_smzt_mztgx/sam_exp/.hoodie | grep .rollback | grep -v .rollback.inflight | awk '{ if ($5 == 0) print $8 }'  | xargs hadoop fs -rm

異常信息2:

ERROR [Timer-Driven Process Thread-4] o.a.hudi.table.HoodieTimelineArchiveLog Failed to archive commits, .commit file: 20220726050533.rollback
java.io.IOException: Not an Avro data file
at org.apache.avro.file.DataFileReader.openReader(DataFileReader.java:50)
at org.apache.hudi.common.table.timeline.TimelineMetadataUtils.deserializeAvroMetadata(TimelineMetadataUtils.java:178)
at org.apache.hudi.client.utils.MetadataConversionUtils.createMetaWrapper(MetadataConversionUtils.java:103)
at org.apache.hudi.table.HoodieTimelineArchiveLog.convertToAvroRecord(HoodieTimelineArchiveLog.java:341)
at org.apache.hudi.table.HoodieTimelineArchiveLog.archive(HoodieTimelineArchiveLog.java:305)
at org.apache.hudi.table.HoodieTimelineArchiveLog.archiveIfRequired(HoodieTimelineArchiveLog.java:128)
at org.apache.hudi.client.AbstractHoodieWriteClient.postCommit(AbstractHoodieWriteClient.java:439)
at org.apache.hudi.client.HoodieJavaWriteClient.postWrite(HoodieJavaWriteClient.java:187)
at org.apache.hudi.client.HoodieJavaWriteClient.insert(HoodieJavaWriteClient.java:129)
at org.apache.nifi.processors.javaHudi.JavaHudi.write(JavaHudi.java:523)
at org.apache.nifi.processors.javaHudi.JavaHudi.onTrigger(JavaHudi.java:404)
at org.apache.nifi.processor.AbstractProcessor.onTrigger(AbstractProcessor.java:27)
at org.apache.nifi.controller.StandardProcessorNode.onTrigger(StandardProcessorNode.java:1167)
at org.apache.nifi.controller.tasks.ConnectableTask.invoke(ConnectableTask.java:208)
at org.apache.nifi.controller.scheduling.TimerDrivenSchedulingAgent$1.run(TimerDrivenSchedulingAgent.java:117)
at java.util.concurrent.Executors$RunnableAdapter.call(Executors.java:511)
at java.util.concurrent.FutureTask.runAndReset(FutureTask.java:308)
at java.util.concurrent.ScheduledThreadPoolExecutor$ScheduledFutureTask.access$301(ScheduledThreadPoolExecutor.java:180)
at java.util.concurrent.ScheduledThreadPoolExecutor$ScheduledFutureTask.run(ScheduledThreadPoolExecutor.java:294)
at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1149)
at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:624)
at java.lang.Thread.run(Thread.java:748)

異常原因

.clean文件大為0

解決方法

找到對應表元數據路徑下.clean文件大小為0 的文件并刪除,目前遇到的情況只有一個文件且是最新的.clean文件最好不要用grep的方式刪除,避免誤刪

hadoop fs -ls hdfs://cluster1/apps/hive/tenant/zxqzk_smzt_mztgx/sam_exp/.hoodie/20220726050533.rollback
0 2022-07-26 07:05 hdfs://cluster1/apps/hive/tenant/zxqzk_smzt_mztgx/sam_exp/.hoodie/20220726050533.rollback

異常信息3:

o.a.h.t.a.clean.BaseCleanActionExecutor Failed to perform previous clean operation, instant: [==>20211011143809__clean__REQUESTED]
org.apache.hudi.exception.HoodieIOException: Not an Avro data file
at org.apache.hudi.table.action.clean.BaseCleanActionExecutor.runPendingClean(BaseCleanActionExecutor.java:87)
at org.apache.hudi.table.action.clean.BaseCleanActionExecutor.lambda$execute$0(BaseCleanActionExecutor.java:137)
at java.util.ArrayList.forEach(ArrayList.java:1257)
at org.apache.hudi.table.action.clean.BaseCleanActionExecutor.execute(BaseCleanActionExecutor.java:134)
at org.apache.hudi.table.HoodieJavaCopyOnWriteTable.clean(HoodieJavaCopyOnWriteTable.java:188)
at org.apache.hudi.client.AbstractHoodieWriteClient.clean(AbstractHoodieWriteClient.java:660)
at org.apache.hudi.client.AbstractHoodieWriteClient.clean(AbstractHoodieWriteClient.java:641)
at org.apache.hudi.client.AbstractHoodieWriteClient.clean(AbstractHoodieWriteClient.java:672)
at org.apache.hudi.client.AbstractHoodieWriteClient.autoCleanOnCommit(AbstractHoodieWriteClient.java:505)
at org.apache.hudi.client.AbstractHoodieWriteClient.postCommit(AbstractHoodieWriteClient.java:440)
at org.apache.hudi.client.HoodieJavaWriteClient.postWrite(HoodieJavaWriteClient.java:187)
at org.apache.hudi.client.HoodieJavaWriteClient.insert(HoodieJavaWriteClient.java:129)
at org.apache.nifi.processors.javaHudi.JavaHudi.write(JavaHudi.java:401)
at org.apache.nifi.processors.javaHudi.JavaHudi.onTrigger(JavaHudi.java:305)
at org.apache.nifi.processor.AbstractProcessor.onTrigger(AbstractProcessor.java:27)
at org.apache.nifi.controller.StandardProcessorNode.onTrigger(StandardProcessorNode.java:1166)
at org.apache.nifi.controller.tasks.ConnectableTask.invoke(ConnectableTask.java:208)
at org.apache.nifi.controller.scheduling.TimerDrivenSchedulingAgent$1.run(TimerDrivenSchedulingAgent.java:117)
at java.util.concurrent.Executors$RunnableAdapter.call(Executors.java:511)
at java.util.concurrent.FutureTask.runAndReset(FutureTask.java:308)
at java.util.concurrent.ScheduledThreadPoolExecutor$ScheduledFutureTask.access$301(ScheduledThreadPoolExecutor.java:180)
at java.util.concurrent.ScheduledThreadPoolExecutor$ScheduledFutureTask.run(ScheduledThreadPoolExecutor.java:294)
at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1149)
at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:624)
at java.lang.Thread.run(Thread.java:748)
Caused by: java.io.IOException: Not an Avro data file
at org.apache.avro.file.DataFileReader.openReader(DataFileReader.java:50)
at org.apache.hudi.common.table.timeline.TimelineMetadataUtils.deserializeAvroMetadata(TimelineMetadataUtils.java:178)
at org.apache.hudi.common.util.CleanerUtils.getCleanerPlan(CleanerUtils.java:106)
at org.apache.hudi.table.action.clean.BaseCleanActionExecutor.runPendingClean(BaseCleanActionExecutor.java:84)
... 24 common frames omitted

異常原因

. clean.requested?  或者 . clean.inflight 

解決方法

刪除對應的大小為0的文件,文件名異常信息里已經有了

最好不要用grep的方式刪除,避免誤刪,只有配額不足導致的文件特別多的情況下才建議使用

hadoop fs -ls -R  hdfs://cluster1/apps/hive/tenant/zxqzk_smzt_mztgx/sam_exp/.hoodie | grep .clean.requested | awk '{ if ($5 == 0) print $8 }'  | xargs hadoop fs -rm

責任編輯:武曉燕 來源: 倫少的博客
相關推薦

2009-06-12 16:17:48

Hibernate l

2010-11-04 10:44:27

DB2 not fou

2009-12-25 10:01:23

WinForm程序

2018-01-18 10:46:01

服務器磁盤原因

2011-03-01 13:40:45

500 OOPS

2010-03-23 13:46:17

無線網卡分配IP地址

2022-10-28 07:10:51

HudiJavaHive

2011-09-16 15:36:47

網絡環路

2010-05-27 09:33:04

SVN沖突

2010-07-15 14:01:12

telnet亂碼

2022-10-13 07:35:52

數據配置MySQL

2009-09-10 09:35:25

Linq語句

2010-10-13 17:22:12

MySQL查詢亂碼

2010-04-20 16:46:41

Oracle數據庫密碼

2009-07-03 18:14:27

Servlet線程安全

2009-07-01 18:14:36

JSP亂碼

2009-12-17 10:09:02

ssh超時斷開

2011-07-04 10:09:19

Qt Creator BUG

2010-01-18 10:19:04

FreeBSDroot密碼

2023-04-06 15:21:34

IIoT自動化
點贊
收藏

51CTO技術棧公眾號

欧美日韩黄色网| 亚洲人成无码www久久久| 国产成人三级在线播放| 精品动漫3d一区二区三区免费| 亚洲国产精彩中文乱码av| 国产综合av在线| 在线免费av电影| 国产大片一区二区| 日本不卡高字幕在线2019| 后入内射无码人妻一区| gogo人体一区| 欧美日韩精品三区| 日韩一级性生活片| 在线播放毛片| 91免费版在线看| 91精品中文在线| 亚洲va在线观看| 欧美视频不卡| 中文字幕久热精品在线视频| 国产a级黄色片| 日本免费成人| 色综合色狠狠综合色| 三级在线免费观看| 黄网站在线观看| 国产999精品久久| 国产精品视频成人| 亚洲久久在线观看| 亚洲激情中文| 最近2019中文免费高清视频观看www99 | 亚洲三级在线观看视频| 爱草tv视频在线观看992| 成人免费在线观看入口| 欧美中日韩免费视频| 色婷婷中文字幕| 国产很黄免费观看久久| 国产欧美日韩免费看aⅴ视频| 免费日韩一级片| 亚洲无线一线二线三线区别av| 色av吧综合网| 国产精品无码无卡无需播放器| 色狼人综合干| 亚洲韩国欧洲国产日产av| 亚洲日本黄色片| 久久亚洲精品中文字幕| 欧美无砖砖区免费| 无码人妻丰满熟妇区毛片| 九色porny丨首页入口在线| 亚洲黄色小说网站| 玖玖精品在线视频| 国产在线更新| 亚洲欧美偷拍另类a∨色屁股| 日韩免费av一区二区三区| 九色视频在线观看免费播放| 91丨porny丨国产入口| 国产在线精品二区| 日本高清视频免费看| 成人av免费在线播放| 国产精品日韩一区二区三区| 内射后入在线观看一区| 成人av在线影院| 精品国产乱码久久久久久郑州公司 | 亚洲v国产v| 幼a在线观看| 亚洲日韩欧美一区二区在线| mm131午夜| 污污视频在线| 午夜精品久久久久久久99水蜜桃| 亚洲理论电影在线观看| f2c人成在线观看免费视频| 亚洲激情欧美激情| 青青草原成人| 蜜桃av在线免费观看| 亚洲情趣在线观看| 91.com在线| 国产精选在线| 色综合久久久网| 亚洲黄色小视频在线观看| 亚州精品国产| 精品久久久久久久一区二区蜜臀| 亚洲欧美日韩偷拍| 精品国产一区探花在线观看 | 最新日本在线观看| 亚洲高清视频的网址| 成人一级片网站| 黄页免费欧美| 精品捆绑美女sm三区 | 欧美在线导航| 在线成人激情黄色| 日本妇女毛茸茸| 国产手机视频一区二区| 国产精品视频免费在线| 国产高清免费观看| 91麻豆高清视频| 一区二区三区四区久久| 国产在线观看www| 欧美日韩五月天| 欧亚乱熟女一区二区在线| 国产精品探花在线观看| 美女久久久久久久久久久| 国产黄色片视频| 蜜臀av性久久久久蜜臀aⅴ四虎| 91麻豆精品秘密入口| 色综合成人av| 亚洲一区中文日韩| 爱情岛论坛成人| 精品少妇一区| 日韩在线www| 国产区一区二区三| 精品写真视频在线观看| 精品一卡二卡三卡四卡日本乱码| 91在线不卡| 午夜精品福利一区二区蜜股av| 亚洲人辣妹窥探嘘嘘| 国产美女撒尿一区二区| 色偷偷偷亚洲综合网另类 | 在线观看91精品国产入口| 日韩高清一二三区| 成人在线免费观看视频| 欧美亚洲成人网| 国产成人麻豆精品午夜在线| 亚洲国产精品二十页| 欧美日韩成人免费视频| 日本一区二区三区播放| 色综久久综合桃花网| 国产日产精品一区二区三区| 国产寡妇亲子伦一区二区| 亚洲欧美综合一区| 欧美舌奴丨vk视频| 亚洲激情中文字幕| 久久久久无码精品国产| 国产又粗又猛又爽又黄91精品| 色噜噜狠狠色综合网| 欧美特大特白屁股xxxx| 亚洲免费视频网站| 日本最新中文字幕| 成人免费不卡视频| 男女啪啪免费观看| 91麻豆精品一二三区在线| 在线观看久久久久久| 久久精品视频7| 91免费视频网| 成人综合视频在线| 欧美在线关看| 51精品国产黑色丝袜高跟鞋| 日韩中文字幕观看| 五月综合激情网| a天堂视频在线观看| 亚洲第一伊人| 韩国一区二区三区美女美女秀 | 亚洲一区免费观看| 亚洲欧美日韩中文字幕在线观看| 97视频精品| 91综合免费在线| jizz性欧美| 日韩欧美国产一二三区| 国产在线观看你懂的| 成人黄色大片在线观看 | 狠狠色狠狠色综合日日91app| 性欧美.com| 亚洲精品伊人| 久久97精品久久久久久久不卡 | 亚洲丝袜在线视频| 国产性生活视频| 中文字幕免费观看一区| 国内外成人免费在线视频| 国产精品精品国产一区二区| 91情侣在线视频| 九色porny丨国产首页在线| 亚洲欧美日韩一区二区在线 | 亚洲欧洲另类精品久久综合| 日韩毛片免费看| 欧美激情成人在线视频| 五十路在线观看| 欧美三区在线视频| 日本中文在线视频| 成人永久aaa| 久久精品午夜福利| 日韩欧美网址| 大波视频国产精品久久| 精品国产免费人成网站| 日韩一区二区三区国产| 亚洲精品无码久久久| 色婷婷激情久久| 任我爽在线视频| 成人av动漫在线| 午夜视频你懂的| 国产精品mv在线观看| 美乳视频一区二区| www.成人| 日韩美女主播视频| 国产美女av在线| 亚洲免费福利视频| 国产高清在线免费| 色欧美片视频在线观看| 中文字幕手机在线观看| 久久一区二区视频| 青娱乐国产精品视频| 久久久999| 国产免费内射又粗又爽密桃视频| 美女毛片一区二区三区四区最新中文字幕亚洲| 国产精品美女免费看| 91吃瓜在线观看| 久久精品国产久精国产思思| 无码国精品一区二区免费蜜桃| 欧美久久高跟鞋激| 性无码专区无码| 亚洲一区在线电影| 亚洲女同二女同志奶水| 91一区在线观看| 一区二区在线免费观看视频| 日韩电影一区二区三区| 国产黄色片免费在线观看| 99久久99视频只有精品| 欧美精品免费观看二区| 1204国产成人精品视频| 国产综合久久久久| 欧美亚洲韩国| 91精品国产成人| 女同视频在线观看| 久久精品国亚洲| yw视频在线观看| 亚洲香蕉在线观看| 天堂中文资源在线| 亚洲成人av资源网| 精品久久国产视频| 欧美放荡的少妇| 中文字幕在线播放av| 色婷婷精品大视频在线蜜桃视频| 久久夜色精品亚洲| 亚洲高清在线精品| 久久这里只有精品免费| 亚洲欧美一区二区视频| 超碰人人干人人| 日本一区二区三区久久久久久久久不| 免费a在线观看播放| 成人精品国产免费网站| 好吊操视频这里只有精品| 国产精品资源网站| 91丝袜超薄交口足| 激情六月婷婷久久| 久久人人爽av| 美女任你摸久久| 五月天亚洲视频| 美女精品一区二区| 亚洲成人天堂网| 美女视频一区二区| 奇米视频888| 久久99精品国产.久久久久| 久久久久久蜜桃一区二区| 蜜桃视频免费观看一区| 亚洲综合色在线观看| 毛片一区二区三区| 亚洲欧美日韩三级| 国产一区二区三区四区五区入口| 9l视频白拍9色9l视频| 极品少妇xxxx精品少妇| 五月六月丁香婷婷| 丁香一区二区三区| www.555国产精品免费| 成人18视频日本| 女人被狂躁c到高潮| 久久蜜桃av一区精品变态类天堂 | 欧美性xxxx极品hd欧美风情| 免费黄色网址在线| 在线观看区一区二| 亚洲天堂网在线观看视频| 欧美精品aⅴ在线视频| 99热在线只有精品| 亚洲激情视频在线| 高清国产福利在线观看| www.亚洲免费视频| 丁香花视频在线观看| 欧美一级淫片播放口| 精品肉辣文txt下载| 亚洲自拍中文字幕| 欧美人成在线观看ccc36| 日韩久久精品一区二区三区| 亚洲蜜桃视频| 国产a级一级片| 九九在线精品视频| 任你躁av一区二区三区| 2020日本不卡一区二区视频| 992在线观看| 亚洲成人久久影院| 国产第一页在线观看| 91精品国产麻豆国产自产在线 | 精品国产欧美成人夜夜嗨| 亚洲七七久久综合桃花剧情介绍| 4k岛国日韩精品**专区| 成人在线视频www| 国外成人免费视频| 久久一区91| 国产中文字幕二区| 久久精品国产在热久久| 波多野结衣视频播放| 亚洲天堂网中文字| 国产一级片av| 亚洲第一av网站| 日本在线免费中文字幕| 97在线日本国产| 亚洲综合资源| 日本在线视频一区| 99视频+国产日韩欧美| 中文字幕1234区| 国产日韩欧美精品综合| 日本熟女一区二区| 欧美疯狂性受xxxxx喷水图片| 欧美xxx.com| 久久久久国产精品免费网站| 四虎地址8848精品| 日本免费一区二区三区| 亚洲一级一区| 亚洲精品国产久| 国产精品久久久久久亚洲毛片 | 日本午夜在线观看| 在线免费视频一区二区| 色呦呦中文字幕| 萌白酱国产一区二区| 黄色成人在线观看网站| 日本黑人久久| 久久不射2019中文字幕| 黄色性视频网站| 亚洲最新在线观看| 国产亲伦免费视频播放| 少妇激情综合网| av免费在线一区| 午夜欧美性电影| 久久久夜精品| 88久久精品无码一区二区毛片| 亚洲成av人片在线观看无码| 成人毛片视频免费看| 欧美xxxx综合视频| 免费一级欧美片在线观看网站| 亚洲精品8mav| 免费视频一区二区| 精品熟妇无码av免费久久| 91福利视频网站| 黄色在线免费观看大全| 日本成熟性欧美| 九热爱视频精品视频| 欧美极品欧美精品欧美图片| 91蜜桃免费观看视频| 影音先锋亚洲天堂| 精品在线小视频| 欧美大片1688| 色视频一区二区三区| 青青草97国产精品免费观看无弹窗版 | 久久视频中文字幕| 精品中文字幕一区二区三区四区 | 波多野结衣乳巨码无在线观看| 亚洲在线免费视频| 欧美精选一区| 亚洲av成人无码一二三在线观看| 亚洲不卡av一区二区三区| 天天综合天天色| 秋霞午夜一区二区| 精品国产一区二区三区噜噜噜| 最新中文字幕免费视频| 国产精品久久久久影院色老大| 亚洲中文字幕在线观看| 久久久精品日本| 亚洲1区在线| 97国产精东麻豆人妻电影| 国产日韩欧美精品综合| 91麻豆成人精品国产免费网站| 久久影院模特热| 99这里只有精品视频| 国产二区视频在线播放| 国产欧美日韩视频一区二区| 国产精品久久久久久久免费| 欧美激情第一页xxx| 亚洲成在人线免费观看| 成人综合久久网| 亚洲国产精品一区二区www| 午夜小视频免费| 国产精品一区二区三区免费视频 | 男人天堂网在线视频| 国产va免费精品高清在线| 日韩在线观看电影完整版高清免费悬疑悬疑 | 日韩欧美123| 国产乱码精品一区二三赶尸艳谈| 欧美日韩一区在线播放| 老司机午夜精品| 国产午夜精品无码一区二区| 亚洲天堂av网| 91精品导航| 欧美伦理视频在线观看| 亚洲毛片av在线| 欧美性孕妇孕交| 亚洲自拍欧美另类| 日日摸夜夜添夜夜添精品视频| 日韩欧美综合视频| 亚洲精品小视频| 国产精品免费精品自在线观看| 干日本少妇首页| 亚洲精品国产品国语在线app| 九色国产在线观看| 成人av资源网| 久久99久久99| 欧美亚洲精品天堂|