精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

BAT大數據的面試題 快收藏!

大數據
一個Kafka的Message由一個固定長度的header和一個變長的消息體body組成。header部分由一個字節的magic(文件格式)和四個字節的CRC32(用于判斷body消息體是否正常)構成。
[[243244]]

1、kafka的message包括哪些信息

一個Kafka的Message由一個固定長度的header和一個變長的消息體body組成

header部分由一個字節的magic(文件格式)和四個字節的CRC32(用于判斷body消息體是否正常)構成。

當magic的值為1的時候,會在magic和crc32之間多一個字節的數據:attributes(保存一些相關屬性,

比如是否壓縮、壓縮格式等等);如果magic的值為0,那么不存在attributes屬性

body是由N個字節構成的一個消息體,包含了具體的key/value消息

2、怎么查看kafka的offset

0.9版本以上,可以用最新的Consumer client 客戶端,有consumer.seekToEnd() / consumer.position() 可以用于得到當前最新的offset:

3、hadoop的shuffle過程

一、Map端的shuffle

Map端會處理輸入數據并產生中間結果,這個中間結果會寫到本地磁盤,而不是HDFS。每個Map的輸出會先寫到內存緩沖區中,當寫入的數據達到設定的閾值時,系統將會啟動一個線程將緩沖區的數據寫到磁盤,這個過程叫做spill。

在spill寫入之前,會先進行二次排序,首先根據數據所屬的partition進行排序,然后每個partition中的數據再按key來排序。partition的目是將記錄劃分到不同的Reducer上去,以期望能夠達到負載均衡,以后的Reducer就會根據partition來讀取自己對應的數據。接著運行combiner(如果設置了的話),combiner的本質也是一個Reducer,其目的是對將要寫入到磁盤上的文件先進行一次處理,這樣,寫入到磁盤的數據量就會減少。最后將數據寫到本地磁盤產生spill文件(spill文件保存在{mapred.local.dir}指定的目錄中,Map任務結束后就會被刪除)。

最后,每個Map任務可能產生多個spill文件,在每個Map任務完成前,會通過多路歸并算法將這些spill文件歸并成一個文件。至此,Map的shuffle過程就結束了。

二、Reduce端的shuffle

Reduce端的shuffle主要包括三個階段,copy、sort(merge)和reduce。

首先要將Map端產生的輸出文件拷貝到Reduce端,但每個Reducer如何知道自己應該處理哪些數據呢?因為Map端進行partition的時候,實際上就相當于指定了每個Reducer要處理的數據(partition就對應了Reducer),所以Reducer在拷貝數據的時候只需拷貝與自己對應的partition中的數據即可。每個Reducer會處理一個或者多個partition,但需要先將自己對應的partition中的數據從每個Map的輸出結果中拷貝過來。

接下來就是sort階段,也成為merge階段,因為這個階段的主要工作是執行了歸并排序。從Map端拷貝到Reduce端的數據都是有序的,所以很適合歸并排序。最終在Reduce端生成一個較大的文件作為Reduce的輸入。

最后就是Reduce過程了,在這個過程中產生了最終的輸出結果,并將其寫到HDFS上。

4、spark集群運算的模式

Spark 有很多種模式,最簡單就是單機本地模式,還有單機偽分布式模式,復雜的則運行在集群中,目前能很好的運行在 Yarn和 Mesos 中,當然 Spark 還有自帶的 Standalone 模式,對于大多數情況 Standalone 模式就足夠了,如果企業已經有 Yarn 或者 Mesos 環境,也是很方便部署的。

  • standalone(集群模式):典型的Mater/slave模式,不過也能看出Master是有單點故障的;Spark支持ZooKeeper來實現 HA
  • on yarn(集群模式): 運行在 yarn 資源管理器框架之上,由 yarn 負責資源管理,Spark 負責任務調度和計算
  • on mesos(集群模式): 運行在 mesos 資源管理器框架之上,由 mesos 負責資源管理,Spark 負責任務調度和計算
  • on cloud(集群模式):比如 AWS 的 EC2,使用這個模式能很方便的訪問 Amazon的 S3;Spark 支持多種分布式存儲系統:HDFS 和 S3

5、HDFS讀寫數據的過程

讀:

  1. 跟namenode通信查詢元數據,找到文件塊所在的datanode服務器
  2. 挑選一臺datanode(就近原則,然后隨機)服務器,請求建立socket流
  3. datanode開始發送數據(從磁盤里面讀取數據放入流,以packet為單位來做校驗)
  4. 客戶端以packet為單位接收,現在本地緩存,然后寫入目標文件

寫:

  1. 根namenode通信請求上傳文件,namenode檢查目標文件是否已存在,父目錄是否存在
  2. namenode返回是否可以上傳
  3. client請求第一個 block該傳輸到哪些datanode服務器上
  4. namenode返回3個datanode服務器ABC
  5. client請求3臺dn中的一臺A上傳數據(本質上是一個RPC調用,建立pipeline),A收到請求會繼續調用B,然后B調用C,將真個pipeline建立完成,逐級返回客戶端
  6. client開始往A上傳第一個block(先從磁盤讀取數據放到一個本地內存緩存),以packet為單位,A收到一個packet就會傳給B,B傳給C;A每傳一個packet會放入一個應答隊列等待應答
  7. 當一個block傳輸完成之后,client再次請求namenode上傳第二個block的服務器。

6、RDD中reduceBykey與groupByKey哪個性能好,為什么

  • reduceByKey:reduceByKey會在結果發送至reducer之前會對每個mapper在本地進行merge,有點類似于在MapReduce中的combiner。這樣做的好處在于,在map端進行一次reduce之后,數據量會大幅度減小,從而減小傳輸,保證reduce端能夠更快的進行結果計算。
  • groupByKey:groupByKey會對每一個RDD中的value值進行聚合形成一個序列(Iterator),此操作發生在reduce端,所以勢必會將所有的數據通過網絡進行傳輸,造成不必要的浪費。同時如果數據量十分大,可能還會造成OutOfMemoryError。

通過以上對比可以發現在進行大量數據的reduce操作時候建議使用reduceByKey。不僅可以提高速度,還是可以防止使用groupByKey造成的內存溢出問題。

7、spark2.0的了解

  • 更簡單:ANSI SQL與更合理的API
  • 速度更快:用Spark作為編譯器
  • 更智能:Structured Streaming

8、rdd 怎么分區寬依賴和窄依賴

  • 寬依賴:父RDD的分區被子RDD的多個分區使用 例如 groupByKey、reduceByKey、sortByKey等操作會產生寬依賴,會產生shuffle
  • 窄依賴:父RDD的每個分區都只被子RDD的一個分區使用 例如map、filter、union等操作會產生窄依賴

9、spark streaming 讀取kafka數據的兩種方式

這兩種方式分別是:

Receiver-base

使用Kafka的高層次Consumer API來實現。receiver從Kafka中獲取的數據都存儲在Spark Executor的內存中,然后Spark Streaming啟動的job會去處理那些數據。然而,在默認的配置下,這種方式可能會因為底層的失敗而丟失數據。如果要啟用高可靠機制,讓數據零丟失,就必須啟用Spark Streaming的預寫日志機制(Write Ahead Log,WAL)。該機制會同步地將接收到的Kafka數據寫入分布式文件系統(比如HDFS)上的預寫日志中。所以,即使底層節點出現了失敗,也可以使用預寫日志中的數據進行恢復。

Direct

Spark1.3中引入Direct方式,用來替代掉使用Receiver接收數據,這種方式會周期性地查詢Kafka,獲得每個topic+partition的最新的offset,從而定義每個batch的offset的范圍。當處理數據的job啟動時,就會使用Kafka的簡單consumer api來獲取Kafka指定offset范圍的數據。

10、kafka的數據存在內存還是磁盤

Kafka最核心的思想是使用磁盤,而不是使用內存,可能所有人都會認為,內存的速度一定比磁盤快,我也不例外。在看了Kafka的設計思想,查閱了相應資料再加上自己的測試后,發現磁盤的順序讀寫速度和內存持平。

而且Linux對于磁盤的讀寫優化也比較多,包括read-ahead和write-behind,磁盤緩存等。如果在內存做這些操作的時候,一個是JAVA對象的內存開銷很大,另一個是隨著堆內存數據的增多,JAVA的GC時間會變得很長,使用磁盤操作有以下幾個好處:

  • 磁盤緩存由Linux系統維護,減少了程序員的不少工作。
  • 磁盤順序讀寫速度超過內存隨機讀寫。
  • JVM的GC效率低,內存占用大。使用磁盤可以避免這一問題。
  • 系統冷啟動后,磁盤緩存依然可用。

11、怎么解決kafka的數據丟失

producer端

宏觀上看保證數據的可靠安全性,肯定是依據分區數做好數據備份,設立副本數。

broker端:

topic設置多分區,分區自適應所在機器,為了讓各分區均勻分布在所在的broker中,分區數要大于broker數。

分區是kafka進行并行讀寫的單位,是提升kafka速度的關鍵。

Consumer端

consumer端丟失消息的情形比較簡單:如果在消息處理完成前就提交了offset,那么就有可能造成數據的丟失。由于Kafka consumer默認是自動提交位移的,所以在后臺提交位移前一定要保證消息被正常處理了,因此不建議采用很重的處理邏輯,如果處理耗時很長,則建議把邏輯放到另一個線程中去做。為了避免數據丟失,現給出兩點建議:

  • enable.auto.commit=false 關閉自動提交位移
  • 在消息被完整處理之后再手動提交位移

12、fsimage和edit的區別?

  • 大家都知道namenode與secondary namenode 的關系,當他們要進行數據同步時叫做checkpoint時就用到了fsimage與edit,fsimage是保存最新的元數據的信息,當fsimage數據到一定的大小事會去生成一個新的文件來保存元數據的信息,這個新的文件就是edit,edit會回滾最新的數據。

13、列舉幾個配置文件優化?

1)Core-site.xml 文件的優化

  • a、fs.trash.interval,默認值: 0;說明: 這個是開啟hdfs文件刪除自動轉移到垃圾箱的選項,值為垃圾箱文件清除時間。一般開啟這個會比較好,以防錯誤刪除重要文件。單位是分鐘。
  • b、dfs.namenode.handler.count,默認值:10;說明:hadoop系統里啟動的任務線程數,這里改為40,同樣可以嘗試該值大小對效率的影響變化進行最合適的值的設定。
  • c、mapreduce.tasktracker.http.threads,默認值:40;說明:map和reduce是通過http進行數據傳輸的,這個是設置傳輸的并行線程數。

14、datanode 首次加入 cluster 的時候,如果 log 報告不兼容文件版本,那需要namenode 執行格式化操作,這樣處理的原因是?

  • 1)這樣處理是不合理的,因為那么 namenode 格式化操作,是對文件系統進行格式化,namenode 格式化時清空 dfs/name 下空兩個目錄下的所有文件,之后,會在目錄 dfs.name.dir 下創建文件。
  • 2)文本不兼容,有可能時 namenode 與 datanode 的 數據里的 namespaceID、clusterID 不一致,找到兩個 ID 位置,修改為一樣即可解決。

15、MapReduce 中排序發生在哪幾個階段?這些排序是否可以避免?為什么?

  • 1)一個 MapReduce 作業由 Map 階段和 Reduce 階段兩部分組成,這兩階段會對數據排序,從這個意義上說,MapReduce 框架本質就是一個 Distributed Sort。
  • 2)在 Map 階段,Map Task 會在本地磁盤輸出一個按照 key 排序(采用的是快速排序)的文件(中間可能產生多個文件,但最終會合并成一個),在 Reduce 階段,每個 Reduce Task 會對收到的數據排序,這樣,數據便按照 Key 分成了若干組,之后以組為單位交給 reduce()處理。
  • 3)很多人的誤解在 Map 階段,如果不使用 Combiner便不會排序,這是錯誤的,不管你用不用 Combiner,Map Task 均會對產生的數據排序(如果沒有 Reduce Task,則不會排序,實際上 Map 階段的排序就是為了減輕 Reduce端排序負載)。
  • 4)由于這些排序是 MapReduce 自動完成的,用戶無法控制,因此,在hadoop 1.x 中無法避免,也不可以關閉,但 hadoop2.x 是可以關閉的。

16、hadoop的優化?

  • 1)優化的思路可以從配置文件和系統以及代碼的設計思路來優化
  • 2)配置文件的優化:調節適當的參數,在調參數時要進行測試
  • 3)代碼的優化:combiner的個數盡量與reduce的個數相同,數據的類型保持一致,可以減少拆包與封包的進度
  • 4)系統的優化:可以設置linux系統打開最大的文件數預計網絡的帶寬MTU的配置
  • 5)為 job 添加一個 Combiner,可以大大的減少shuffer階段的maoTask拷貝過來給遠程的 reduce task的數據量,一般而言combiner與reduce相同。
  • 6)在開發中盡量使用stringBuffer而不是string,string的模式是read-only的,如果對它進行修改,會產生臨時的對象,二stringBuffer是可修改的,不會產生臨時對象。
  • 7)修改一下配置:以下是修改 mapred-site.xml 文件

a、修改最大槽位數:槽位數是在各個 tasktracker 上的 mapred-site.xml 上設置的,默認都是 2 

  1. property  
  2. namemapred.tasktracker.map.tasks.maximum/name  
  3. value2/value  
  4. /property  
  5. property  
  6. namemapred.tasktracker.reduce.tasks.maximum/name  
  7. value2/value  
  8. /property 

b、調整心跳間隔:集群規模小于 300 時,心跳間隔為 300 毫秒

  • mapreduce.jobtracker.heartbeat.interval.min 心跳時間
  • mapred.heartbeats.in.second 集群每增加多少節點,時間增加下面的值
  • mapreduce.jobtracker.heartbeat.scaling.factor 集群每增加上面的個數,心跳增多少

c、啟動帶外心跳

  • mapreduce.tasktracker.outofband.heartbeat 默認是 false

d、配置多塊磁盤

  1. mapreduce.local.dir 

e、配置 RPC hander 數目

  • mapred.job.tracker.handler.count 默認是 10,可以改成 50,根據機器的能力

f、配置 HTTP 線程數目

  • tasktracker.http.threads 默認是 40,可以改成 100 根據機器的能力

g、選擇合適的壓縮方式,以 snappy 為例: 

  1. property  
  2. namemapred.compress.map.output/name  
  3. valuetrue/value  
  4. /property  
  5. property  
  6. namemapred.map.output.compression.codec/name  
  7. valueorg.apache.hadoop.io.compress.SnappyCodec/value  
  8. /property 

17、設計題

1)采集nginx產生的日志,日志的格式為user ip time url htmlId 每天產生的文件的數據量上億條,請設計方案把數據保存到HDFS上,并提供一下實時查詢的功能(響應時間小于3s)

A、某個用戶某天訪問某個URL的次數

B、某個URL某天被訪問的總次數

  • 實時思路是:使用Logstash + Kafka + Spark-streaming + Redis + 報表展示平臺
  • 離線的思路是:Logstash + Kafka + Elasticsearch + Spark-streaming + 關系型數據庫

A、B、數據在進入到Spark-streaming 中進行過濾,把符合要求的數據保存到Redis中

18、有 10 個文件,每個文件 1G,每個文件的每一行存放的都是用戶的 query,每個文件的query 都可能重復。要求你按照 query 的頻度排序。 還是典型的 TOP K 算法 ##,

解決方案如下:

1)方案 1:

順序讀取 10 個文件,按照 hash(query)%10 的結果將 query 寫入到另外 10 個文件(記為)中。這樣新生成的文件每個的大小大約也 1G(假設 hash 函數是隨機的)。 找一臺內存在 2G 左右的機器,依次對用 hash_map(query, query_count)來統計每個query 出現的次數。利用快速/堆/歸并排序按照出現次數進行排序。將排序好的 query 和對應的 query_cout 輸出到文件中。這樣得到了 10 個排好序的文件(記為)。 對這 10 個文件進行歸并排序(內排序與外排序相結合)。

2)方案 2:

一般 query 的總量是有限的,只是重復的次數比較多而已,可能對于所有的 query,一次性就可以加入到內存了。這樣,我們就可以采用 trie 樹/hash_map等直接來統計每個 query出現的次數,然后按出現次數做快速/堆/歸并排序就可以了。

3)方案 3:

與方案 1 類似,但在做完 hash,分成多個文件后,可以交給多個文件來處理,采用分布式的架構來處理(比如 MapReduce),最后再進行合并。

19、在 2.5 億個整數中找出不重復的整數,注,內存不足以容納這 2.5 億個整數 。

  • 方案 1:采用 2-Bitmap(每個數分配 2bit,00 表示不存在,01 表示出現一次,10 表示多次,11 無意義)進行,共需內存 2^32 * 2 bit=1 GB 內存,還可以接受。然后掃描這 2.5億個整數,查看 Bitmap 中相對應位,如果是 00 變 01,01 變 10,10 保持不變。所描完事后,查看 bitmap,把對應位是 01 的整數輸出即可。
  • 方案 2:也可采用與第 1 題類似的方法,進行劃分小文件的方法。然后在小文件中找出不重復的整數,并排序。然后再進行歸并,注意去除重復的元素。

20、騰訊面試題:給 40 億個不重復的 unsigned int 的整數,沒排過序的,然后再給一個數,如何快速判斷這個數是否在那 40 億個數當中? ##

方案 1:oo,申請 512M 的內存,一個 bit 位代表一個 unsigned int 值。讀入 40 億個數,設置相應的 bit 位,讀入要查詢的數,查看相應 bit 位是否為 1,為 1 表示存在,為 0 表示不存在。

方案 2:這個問題在《編程珠璣》里有很好的描述,大家可以參考下面的思路,探討一下: 又因為 2^32 為 40 億多,所以給定一個數可能在,也可能不在其中; 這里我們把 40 億個數中的每一個用 32 位的二進制來表示 ,假設這 40 億個數開始放在一個文件中。 然后將這 40 億個數分成兩類:

  • 1.最高位為 0
  • 2.最高位為 1

并將這兩類分別寫入到兩個文件中,其中一個文件中數的個數=20 億,而另一個=20 億(這相當于折半了); 與要查找的數的最高位比較并接著進入相應的文件再查找 再然后把這個文件為又分成兩類:

  • 1.次最高位為 0
  • 2.次最高位為 1

并將這兩類分別寫入到兩個文件中,其中一個文件中數的個數=10 億,而另一個=10 億(這相當于折半了); 與要查找的數的次最高位比較并接著進入相應的文件再查找。

.....

以此類推,就可以找到了,而且時間復雜度為 O(logn),方案 2 完。

3)附:這里,再簡單介紹下,位圖方法: 使用位圖法判斷整形數組是否存在重復 ,判斷集合中存在重復是常見編程任務之一,當集合中數據量比較大時我們通常希望少進行幾次掃描,這時雙重循環法就不可取了。

位圖法比較適合于這種情況,它的做法是按照集合中最大元素 max 創建一個長度為 max+1的新數組,然后再次掃描原數組,遇到幾就給新數組的第幾位置上 1,如遇到 5 就給新數組的第六個元素置 1,這樣下次再遇到 5 想置位時發現新數組的第六個元素已經是 1 了,這說明這次的數據肯定和以前的數據存在著重復。這 種給新數組初始化時置零其后置一的做法類似于位圖的處理方法故稱位圖法。它的運算次數最壞的情況為 2N。如果已知數組的最大值即能事先給新數組定長的話效 率還能提高一倍。

21、怎么在海量數據中找出重復次數最多的一個?

  • 方案 1:先做 hash,然后求模映射為小文件,求出每個小文件中重復次數最多的一個,并記錄重復次數。然后找出上一步求出的數據中重復次數最多的一個就是所求(具體參考前面的題)。

22、上千萬或上億數據(有重復),統計其中出現次數最多的錢 N 個數據。

  • 方案 1:上千萬或上億的數據,現在的機器的內存應該能存下。所以考慮采用 hash_map/搜索二叉樹/紅黑樹等來進行統計次數。然后就是取出前 N 個出現次數最多的數據了,可以用第 2 題提到的堆機制完成。

23、一個文本文件,大約有一萬行,每行一個詞,要求統計出其中最頻繁出現的前 10 個詞,給出思想,給出時間復雜度分析 ##。

  • 方案 1:這題是考慮時間效率。用 trie 樹統計每個詞出現的次數,時間復雜度是 O(nle)(le表示單詞的平準長度)。然后是找出出現最頻繁的前 10 個詞,可以用堆來實現,前面的題中已經講到了,時間復雜度是 O(nlg10)。所以總的時間復雜度,是 O(nle)與 O(nlg10)中較大的哪一 個。

24、100w 個數中找出最大的 100 個數 ##。

  • 方案 1:在前面的題中,我們已經提到了,用一個含 100 個元素的最小堆完成。復雜度為O(100wlg100)。
  • 方案 2:采用快速排序的思想,每次分割之后只考慮比軸大的一部分,知道比軸大的一部分在比 100 多的時候,采用傳統排序算法排序,取前 100 個。復雜度為 O(100w100)。
  • 方案 3:采用局部淘汰法。選取前 100 個元素,并排序,記為序列 L。然后一次掃描剩余的元素 x,與排好序的 100 個元素中最小的元素比,如果比這個最小的 要大,那么把這個最小的元素刪除,并把 x 利用插入排序的思想,插入到序列 L 中。依次循環,直到掃描了所有的元素。復雜度為 O(100w*100)。

25、有一千萬條短信,有重復,以文本文件的形式保存,一行一條,有重復。 請用 5 分鐘時間,找出重復出現最多的前 10 條。

  • 分析: 常規方法是先排序,在遍歷一次,找出重復最多的前 10 條。但是排序的算法復雜度最低為nlgn。
  • 可以設計一個 hash_table, hash_mapstring, int,依次讀取一千萬條短信,加載到hash_table 表中,并且統計重復的次數,與此同時維護一張最多 10 條的短信表。 這樣遍歷一次就能找出最多的前 10 條,算法復雜度為 O(n)。
責任編輯:未麗燕 來源: 搜狐
相關推薦

2018-10-23 10:35:20

react.jsReact面試題前端

2021-10-26 11:45:22

Vue面試前端

2015-09-25 10:44:02

大數據Hadoop

2014-09-19 11:17:48

面試題

2020-06-04 14:40:40

面試題Vue前端

2023-06-09 08:11:32

2023-11-13 07:37:36

JS面試題線程

2011-03-24 13:27:37

SQL

2018-06-28 09:34:26

架構師Python面試題

2018-04-16 12:38:37

大數據工程師面試

2018-09-11 10:04:27

程序員面試數據結構

2009-06-06 18:36:02

java面試題

2009-06-06 18:34:05

java面試題

2015-09-02 09:32:56

java線程面試

2020-09-21 11:10:06

Docker運維面試

2010-11-26 10:53:29

戴爾

2014-07-15 11:10:01

面試題面試

2010-04-27 13:49:04

Oracle數據庫

2018-01-02 09:23:38

數據分析算法阿里巴巴

2025-02-26 07:58:41

點贊
收藏

51CTO技術棧公眾號

欧美成人免费网站| 亚洲永久精品国产| 成人黄色短视频在线观看| 性欧美videos| 欧美一级三级| 欧美日韩你懂得| 久久手机在线视频| 黄色在线网站| 国产不卡视频在线播放| 欧美一区二区三区…… | 日韩女同强女同hd| 欧美亚洲在线日韩| 日韩欧美在线1卡| 黑人粗进入欧美aaaaa| 羞羞的网站在线观看| 久久久久久麻豆| 99国产盗摄| 看黄色一级大片| 国产一区二区三区四区三区四| 亚洲精品99999| 中文字幕线观看| 新片速递亚洲合集欧美合集| 亚洲在线视频网站| 综合视频免费看| 国产主播福利在线| 91香蕉国产在线观看软件| 91在线观看免费高清完整版在线观看 | 国产精品久久看| 久久久久久精| 性做久久久久久久| 久久99精品国产麻豆婷婷| 欧美一级电影在线| 久久精品视频8| 天天综合精品| 最近中文字幕日韩精品| 中文字字幕码一二三区| 2023国产精华国产精品| 91精品国产综合久久婷婷香蕉 | 日本一区二区不卡在线| 你懂的网址国产 欧美| 中文字幕最新精品| 色青青草原桃花久久综合 | 激情六月天婷婷| 日本福利在线| 国产精品视频免费看| 欧洲高清一区二区| 日本不卡视频一区二区| www.欧美日韩| 国内一区二区三区在线视频| 亚洲国产精品二区| 国产福利一区在线| 97碰碰视频| 亚洲国产精品suv| 高清在线不卡av| 国产精品免费观看高清| 日本高清视频免费观看| 成人午夜激情影院| 国产欧美日本在线| 天堂在线观看免费视频| 99免费精品视频| 麻豆久久久9性大片| 亚洲三区在线播放| 久久奇米777| 区一区二区三区中文字幕| 亚洲人妻一区二区| 国产亚洲人成网站| 一区二区不卡在线观看| a毛片在线观看| 一区二区三区不卡视频在线观看| 精品人妻人人做人人爽| 好看的中文字幕在线播放| 亚洲国产精品麻豆| 欧美日韩亚洲一| 欧美xxx网站| 欧美日本不卡视频| 潘金莲一级淫片aaaaa| 红杏一区二区三区| 亚洲色图激情小说| 国产视频精品免费| 欧美午夜不卡| 欧美在线视频在线播放完整版免费观看 | 极品白浆推特女神在线观看 | 国产激情视频一区二区三区欧美 | 欧美视频中文字幕在线| 欧美一级黄色片视频| 欧美大陆国产| 日韩欧美一级精品久久| 亚洲精品乱码久久| 日韩电影二区| 欧美日韩国产第一页| 黄色在线观看国产| 国产一区二区三区观看| 国产精品一区二| av福利精品| 天涯成人国产亚洲精品一区av| 欧美日韩在线免费播放| 国产精品中文| 亚洲男女自偷自拍图片另类| 性生交大片免费全黄| 在线亚洲精品| 91亚洲精品久久久| 欧美日韩国产中文字幕在线| 自拍av一区二区三区| av7777777| 国产精品一区二区三区www| 精品伊人久久97| 黑鬼狂亚洲人videos| 亚洲综合日本| 91久色国产| 久蕉在线视频| 亚洲国产精品久久久久婷婷884| 黑人粗进入欧美aaaaa| 国产成人aa在线观看网站站| 日韩有码片在线观看| 日韩欧美不卡视频| 国产精品原创巨作av| 日韩精品久久一区| heyzo高清中文字幕在线| 欧美日韩国产首页| 美女被到爽高潮视频| 亚洲日本久久| 91久久精品国产91久久性色tv| 91在线不卡| 色婷婷激情一区二区三区| 性感美女一区二区三区| 欧美r级电影| 国产精品视频中文字幕91| 天堂在线一二区| 亚洲一二三区不卡| 国产不卡的av| 久久中文字幕av一区二区不卡| 日本高清视频精品| 欧洲亚洲在线| 欧美日韩国产中文精品字幕自在自线| 无码人妻一区二区三区在线视频| 久久五月天小说| 国产精品久久久久久久app| 亚洲欧美自偷自拍| 欧美色videos| 色婷婷精品久久二区二区密| 亚洲黄网站黄| 国产精品手机视频| 波多野结衣久久| 精品欧美一区二区久久| 久久久无码精品亚洲国产| 国产一区在线视频| 中文字幕第一页亚洲| 91精品一区| 欧美成人精品xxx| 99热这里只有精品5| 亚洲免费在线电影| 原创真实夫妻啪啪av| 欧美一区网站| av在线不卡观看| 日本成人不卡| 亚洲国产免费av| 五月婷婷中文字幕| 99re8在线精品视频免费播放| 91成人在线观看喷潮教学| 亚州国产精品| 国产精品91久久久| 在线播放毛片| 91精品麻豆日日躁夜夜躁| 久久久久久久久97| 99精品欧美一区二区三区小说| 欧美精品一区免费| 欧美亚洲精品在线| 亚洲一区二区三区成人在线视频精品 | 看亚洲a级一级毛片| 精品中文字幕在线| 四虎影视在线播放| 欧美日韩中字一区| 妺妺窝人体色www在线下载| 白白色亚洲国产精品| 国语对白做受xxxxx在线中国| 中文字幕中文字幕精品| 国产日韩欧美黄色| 性国产高清在线观看| 亚洲黄色www| 波多野结衣激情视频| 亚洲欧洲av在线| 成人一区二区三区仙踪林| 香蕉视频成人在线观看| 亚洲成人av动漫| 视频精品国内| 国产精品精品一区二区三区午夜版 | 久久中文字幕一区| 亚洲欧美自偷自拍| 3d动漫精品啪啪1区2区免费| 日韩av男人天堂| 国产精品成人在线观看| 成年女人免费视频| 日本在线播放一区二区三区| 青青草综合在线| 国产精品免费大片| 97netav| 综合久久2023| 欧美日韩国产成人| eeuss影院www在线播放| 精品日韩欧美在线| 乱子伦一区二区三区| 亚洲影视在线观看| 波多野结衣家庭教师在线观看 | 成人毛片网站| 久久久加勒比| 全亚洲最色的网站在线观看| 中国av在线播放| 中文字幕不卡在线视频极品| 亚洲不卡免费视频| 欧美日韩一区成人| 香蕉影院在线观看| 亚洲成人在线观看视频| 天天鲁一鲁摸一摸爽一爽| 26uuu久久天堂性欧美| 少妇欧美激情一区二区三区| 日本不卡视频在线| 欧美亚洲国产成人| 亚洲天堂激情| 欧美日韩中文字幕在线播放| 日韩精品一区二区三区免费观看| 精品999在线观看| 大陆精大陆国产国语精品 | 欧美激情99| 亚洲精品免费在线视频| 国产美女久久| 国产精品久久久久一区二区| 亚洲欧美一区二区三区| 久久久亚洲影院| 性xxxxfjsxxxxx欧美| 久久视频在线看| 永久免费av在线| 色综合伊人色综合网| 国产黄在线播放| 亚洲精品自拍偷拍| 秋霞av鲁丝片一区二区| 欧美成人综合网站| www.激情五月| 日韩一区二区三区免费观看| 国产精品视频一区二区三区,| 欧美手机在线视频| 小泽玛利亚一区二区三区视频| 色域天天综合网| 久久久久久久久久成人| 一本到三区不卡视频| 中文字幕69页| 在线观看区一区二| 在线观看国产黄| 欧美精品在线一区二区三区| 国产免费的av| 日韩女优制服丝袜电影| www夜片内射视频日韩精品成人| 日韩一区二区中文字幕| www.国产.com| 亚洲精品理论电影| 日韩porn| 一区二区在线免费视频| 在线观看国产原创自拍视频| 精品国产一区二区三区在线观看 | 欧美亚洲成人精品| 网友自拍亚洲| 国产一区二区在线免费视频| 在线高清欧美| 国产精品久久久久久久久久久久冷| 99re热精品视频| 久久久久国产精品视频| 超碰成人久久| 2022中文字幕| 亚洲综合丁香| 手机av在线网| 成人永久免费视频| 中文字幕第4页| 国产精品美女久久久久aⅴ国产馆| av成人免费网站| 黄网站色欧美视频| 亚洲最新av网站| 精品三级在线看| 你懂的在线观看视频网站| 中文字幕在线国产精品| 免费在线观看的电影网站| 日本在线观看天堂男亚洲| 91精品视频一区二区| 国产亚洲欧美一区二区三区| 成人网18免费网站| 精品视频在线观看一区二区| 性欧美videos另类喷潮| 91av视频免费观看| 99久久婷婷国产| 亚洲一区电影在线观看| 亚洲第一福利视频在线| 五月天中文字幕| 亚洲变态欧美另类捆绑| 91在线不卡| 91超碰中文字幕久久精品| 看片一区二区| 久久精品99| 一本精品一区二区三区| 日本久久久精品视频| 国内成人精品2018免费看| 天堂久久久久久| 亚洲麻豆国产自偷在线| 波多野结衣 久久| 欧美r级电影在线观看| 国产免费av高清在线| 久久久中精品2020中文| 欧美男男gaygay1069| 久久综合中文色婷婷| 欧美精品麻豆| www.日本一区| 91香蕉视频在线| 久久精品国产av一区二区三区| 欧美日韩日日骚| 可以在线观看的av| 97久久精品国产| 免费观看性欧美大片无片| 日韩欧美三级一区二区| 99精品免费视频| 女女调教被c哭捆绑喷水百合| 中文字幕欧美三区| 亚洲 欧美 中文字幕| 亚洲成人av在线播放| 国产黄网站在线观看| 国产精品丝袜一区二区三区| 久草精品在线| 爱福利视频一区二区| av一二三不卡影片| 久久久精品91| 日韩片之四级片| 久cao在线| 国产一区私人高清影院| 狠狠色狠狠色综合婷婷tag| 日韩精品视频久久| 99久久亚洲一区二区三区青草 | 一本色道久久综合亚洲精品不| 一级片免费在线观看视频| 中文字幕一区二区三中文字幕 | 精品伦理精品一区| 91精品久久| 97伦理在线四区| 国产精品v亚洲精品v日韩精品| 黄色片免费网址| 亚洲卡通动漫在线| av男人天堂av| 欧美福利视频在线观看| 136国产福利精品导航网址应用| 久草视频这里只有精品| 成人av资源网站| 女人十八岁毛片| 亚洲欧洲偷拍精品| 国产精品毛片久久久久久久久久99999999| 欧美成人综合一区| 日韩二区在线观看| 欧美自拍偷拍网| 91精品在线麻豆| 狂野欧美性猛交xxxxx视频| 国产精品久久7| 一区二区三区成人精品| 永久免费看mv网站入口78| 91精品福利视频| 国产福利在线播放麻豆| www.成人av.com| 99精品免费视频| 在线看片中文字幕| 666欧美在线视频| 日韩另类在线| 麻豆av一区二区| 蜜臀久久久99精品久久久久久| 情侣偷拍对白清晰饥渴难耐| 日韩三级免费观看| 最新中文字幕在线播放| 天堂社区 天堂综合网 天堂资源最新版 | 国产精品毛片大码女人| 亚洲国产精品久久久久久6q| 97热在线精品视频在线观看| 欧美女王vk| 国产精品探花在线播放| 午夜精品久久久久久久| 大乳在线免费观看| www.av一区视频| 日韩中文字幕一区二区三区| www深夜成人a√在线| 亚洲国产精品视频在线观看| 亚洲成av在线| 中文字幕日韩精品无码内射| 久久久久综合网| 国产xxxxxx| 国产99久久久欧美黑人| 亚洲女同另类| 91激情视频在线观看| 日韩一区二区精品| 韩日成人影院| www.亚洲成人网| 国产欧美日韩久久| 可以免费看毛片的网站| 国产精品美女视频网站| 欧美日韩综合| 老司机精品免费视频| 亚洲精品福利免费在线观看| 综合久久av| 别急慢慢来1978如如2| 亚洲成人av电影在线|