精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

Hadoop集群系列8:Eclipse開發(fā)環(huán)境設(shè)置

開發(fā) 開發(fā)工具 大數(shù)據(jù) Hadoop
本文為Hadoop集群系列第八篇,今天我們講講Hadoop條件下,Eclipse開發(fā)環(huán)境設(shè)置。

1、Hadoop開發(fā)環(huán)境簡介

1.1 Hadoop集群簡介

  Java版本:jdk-6u31-linux-i586.bin

  Linux系統(tǒng):CentOS6.0

  Hadoop版本:hadoop-1.0.0.tar.gz

1.2 Windows開發(fā)簡介

  Java版本:jdk-6u31-windows-i586.exe

  Win系統(tǒng):Windows 7 旗艦版

  Eclipse軟件:eclipse-jee-indigo-SR1-win32.zip | eclipse-jee-helios-SR2-win32.zip

  Hadoop軟件:hadoop-1.0.0.tar.gz

  Hadoop Eclipse 插件:hadoop-eclipse-plugin-1.0.0.jar

  下載地址:http://downloa

1、Hadoop開發(fā)環(huán)境簡介

1.1 Hadoop集群簡介

  Java版本:jdk-6u31-linux-i586.bin

  Linux系統(tǒng):CentOS6.0

  Hadoop版本:hadoop-1.0.0.tar.gz

1.2 Windows開發(fā)簡介

  Java版本:jdk-6u31-windows-i586.exe

  Win系統(tǒng):Windows 7 旗艦版

  Eclipse軟件:eclipse-jee-indigo-SR1-win32.zip | eclipse-jee-helios-SR2-win32.zip

  Hadoop軟件:hadoop-1.0.0.tar.gz

  Hadoop Eclipse 插件:hadoop-eclipse-plugin-1.0.0.jar

  下載地址:http://download.csdn.net/detail/xia520pi/4113746

  備注:下面是網(wǎng)上收集的收集的"hadoop-eclipse-plugin-1.0.0.jar",除"版本2.0"是根據(jù)"V1.0"按照"常見問題FAQ_1"改的之外,剩余的"V3.0"、"V4.0"和"V5.0"和"V2.0"一樣是別人已經(jīng)弄好的,而且我已經(jīng)都測試過,沒有任何問題,可以放心使用。我們這里選擇第"V5.0"使用。記得在使用時重新命名為"hadoop-eclipse-plugin-1.0.0.jar"。

#p#

2、Hadoop Eclipse簡介和使用

2.1 Eclipse插件介紹

  Hadoop是一個強(qiáng)大的并行框架,它允許任務(wù)在其分布式集群上并行處理。但是編寫、調(diào)試Hadoop程序都有很大難度。正因為如此,Hadoop的開發(fā)者開發(fā)出了Hadoop Eclipse插件,它在Hadoop的開發(fā)環(huán)境中嵌入了Eclipse,從而實現(xiàn)了開發(fā)環(huán)境的圖形化,降低了編程難度。在安裝插件,配置Hadoop的相關(guān)信息之后,如果用戶創(chuàng)建Hadoop程序,插件會自動導(dǎo)入Hadoop編程接口的JAR文件,這樣用戶就可以在Eclipse的圖形化界面中編寫、調(diào)試、運行Hadoop程序(包括單機(jī)程序和分布式程序),也可以在其中查看自己程序的實時狀態(tài)、錯誤信息和運行結(jié)果,還可以查看、管理HDFS以及文件。總地來說,Hadoop Eclipse插件安裝簡單,使用方便,功能強(qiáng)大,尤其是在Hadoop編程方面,是Hadoop入門和Hadoop編程必不可少的工具。

2.2 Hadoop工作目錄簡介

  為了以后方便開發(fā),我們按照下面把開發(fā)中用到的軟件安裝在此目錄中,JDK安裝除外,我這里把JDK安裝在C盤的默認(rèn)安裝路徑下,下面是我的工作目錄:

系統(tǒng)磁盤(E:)

|---HadoopWorkPlat

|--- eclipse

|--- hadoop-1.0.0

|--- workplace

|---……

  按照上面目錄把Eclipse和Hadoop解壓到"E:\HadoopWorkPlat"下面,并創(chuàng)建"workplace"作為Eclipse的工作空間。

  備注:大家可以按照自己的情況,不一定按照我的結(jié)構(gòu)來設(shè)計。

2.3 修改系統(tǒng)管理員名字

  經(jīng)過兩天多次探索,為了使Eclipse能正常對Hadoop集群的HDFS上的文件能進(jìn)行修改和刪除,所以修改你工作時所用的Win7系統(tǒng)管理員名字,默認(rèn)一般為"Administrator",把它修改為"hadoop",此用戶名與Hadoop集群普通用戶一致,大家應(yīng)該記得我們Hadoop集群中所有的機(jī)器都有一個普通用戶——hadoop,而且Hadoop運行也是用這個用戶進(jìn)行的。為了不至于為權(quán)限苦惱,我們可以修改Win7上系統(tǒng)管理員的姓名,這樣就避免出現(xiàn)該用戶在Hadoop集群上沒有權(quán)限等都疼問題,會導(dǎo)致在Eclipse中對Hadoop集群的HDFS創(chuàng)建和刪除文件受影響。

  你可以做一下實驗,查看Master.Hadoop機(jī)器上"/usr/hadoop/logs"下面的日志。發(fā)現(xiàn)權(quán)限不夠,不能進(jìn)行"Write"操作,網(wǎng)上有幾種解決方案,但是對Hadoop1.0不起作用,詳情見"常見問題FAQ_2"。下面我們進(jìn)行修改管理員名字。

  首先"右擊"桌面上圖標(biāo)"我的電腦",選擇"管理",彈出界面如下:

  接著選擇"本地用戶和組",展開"用戶",找到系統(tǒng)管理員"Administrator",修改其為"hadoop",操作結(jié)果如下圖:

  最后,把電腦進(jìn)行"注銷"或者"重啟電腦",這樣才能使管理員才能用這個名字。

2.4 Eclipse插件開發(fā)配置

  第一步:把我們的"hadoop-eclipse-plugin-1.0.0.jar"放到Eclipse的目錄的"plugins"中,然后重新Eclipse即可生效。

系統(tǒng)磁盤(E:)

|---HadoopWorkPlat

|--- eclipse

|--- plugins

|--- hadoop-eclipse-plugin-1.0.0.jar

  上面是我的"hadoop-eclipse-plugin"插件放置的地方。重啟Eclipse如下圖:

  細(xì)心的你從上圖中左側(cè)"Project Explorer"下面發(fā)現(xiàn)"DFS Locations",說明Eclipse已經(jīng)識別剛才放入的Hadoop Eclipse插件了。

  第二步:選擇"Window"菜單下的"Preference",然后彈出一個窗體,在窗體的左側(cè),有一列選項,里面會多出"Hadoop Map/Reduce"選項,點擊此選項,選擇Hadoop的安裝目錄(如我的Hadoop目錄:E:\HadoopWorkPlat\hadoop-1.0.0)。結(jié)果如下圖:

  第三步:切換"Map/Reduce"工作目錄,有兩種方法:

  1)選擇"Window"菜單下選擇"Open Perspective",彈出一個窗體,從中選擇"Map/Reduce"選項即可進(jìn)行切換。

  2)在Eclipse軟件的右上角,點擊圖標(biāo)""中的"",點擊"Other"選項,也可以彈出上圖,從中選擇"Map/Reduce",然后點擊"OK"即可確定。

  切換到"Map/Reduce"工作目錄下的界面如下圖所示。

  第四步:建立與Hadoop集群的連接,在Eclipse軟件下面的"Map/Reduce Locations"進(jìn)行右擊,彈出一個選項,選擇"New Hadoop Location",然后彈出一個窗體。

  注意上圖中的紅色標(biāo)注的地方,是需要我們關(guān)注的地方。

  • Location Name:可以任意其,標(biāo)識一個"Map/Reduce Location"

  • Map/Reduce Master
    Host:192.168.1.2(Master.Hadoop的IP地址)
    Port:9001

  • DFS Master
    Use M/R Master host:前面的勾上。(因為我們的NameNode和JobTracker都在一個機(jī)器上。)
    Port:9000

  • User name:hadoop(默認(rèn)為Win系統(tǒng)管理員名字,因為我們之前改了所以這里就變成了hadoop。)

  備注:這里面的Host、Port分別為你在mapred-site.xml、core-site.xml中配置的地址及端口。不清楚的可以參考"Hadoop集群_第5期_Hadoop安裝配置_V1.0"進(jìn)行查看。

  接著點擊"Advanced parameters"從中找見"hadoop.tmp.dir",修改成為我們Hadoop集群中設(shè)置的地址,我們的Hadoop集群是"/usr/hadoop/tmp",這個參數(shù)在"core-site.xml"進(jìn)行了配置。

  點擊"finish"之后,會發(fā)現(xiàn)Eclipse軟件下面的"Map/Reduce Locations"出現(xiàn)一條信息,就是我們剛才建立的"Map/Reduce Location"。

  第五步:查看HDFS文件系統(tǒng),并嘗試建立文件夾和上傳文件。點擊Eclipse軟件左側(cè)的"DFS Locations"下面的"Win7ToHadoop",就會展示出HDFS上的文件結(jié)構(gòu)。

  右擊"Win7ToHadoopàuseràhadoop"可以嘗試建立一個"文件夾--xiapi",然后右擊刷新就能查看我們剛才建立的文件夾。

  創(chuàng)建完之后,并刷新,顯示結(jié)果如下:

  用SecureCRT遠(yuǎn)程登錄"Master.Hadoop"服務(wù)器,用下面命令查看是否已經(jīng)建立一個"xiapi"的文件夾。

hadoop fs -ls

  到此為止,我們的Hadoop Eclipse開發(fā)環(huán)境已經(jīng)配置完畢,不盡興的同學(xué)可以上傳點本地文件到HDFS分布式文件上,可以互相對比意見文件是否已經(jīng)上傳成功。

3、Eclipse運行WordCount程序

3.1 配置Eclipse的JDK

  如果電腦上不僅僅安裝的JDK6.0,那么要確定一下Eclipse的平臺的默認(rèn)JDK是否6.0。從"Window"菜單下選擇"Preference",彈出一個窗體,從窗體的左側(cè)找見"Java",選擇"Installed JREs",然后添加JDK6.0。下面是我的默認(rèn)選擇JRE。

  下面是沒有添加之前的設(shè)置如下:

  下面是添加完JDK6.0之后結(jié)果如下:

  接著設(shè)置Complier。

3.2 設(shè)置Eclipse的編碼為UTF-8

3.3 創(chuàng)建MapReduce項目

  從"File"菜單,選擇"Other",找到"Map/Reduce Project",然后選擇它。

  接著,填寫MapReduce工程的名字為"WordCountProject",點擊"finish"完成。

  目前為止我們已經(jīng)成功創(chuàng)建了MapReduce項目,我們發(fā)現(xiàn)在Eclipse軟件的左側(cè)多了我們的剛才建立的項目。

3.4 創(chuàng)建WordCount類

  選擇"WordCountProject"工程,右擊彈出菜單,然后選擇"New",接著選擇"Class",然后填寫如下信息:

  因為我們直接用Hadoop1.0.0自帶的WordCount程序,所以報名需要和代碼中的一致為"org.apache.hadoop.examples",類名也必須一致為"WordCount"。這個代碼放在如下的結(jié)構(gòu)中。

hadoop-1.0.0

|---src

|---examples

|---org

|---apache

|---hadoop

|---examples

  從上面目錄中找見"WordCount.java"文件,用記事本打開,然后把代碼復(fù)制到剛才建立的java文件中。當(dāng)然源碼有些變動,變動的紅色已經(jīng)標(biāo)記出。

  1.  package org.apache.hadoop.examples;  
  2. import java.io.IOException;  
  3. import java.util.StringTokenizer;  
  4. import org.apache.hadoop.conf.Configuration;  
  5. import org.apache.hadoop.fs.Path;  
  6. import org.apache.hadoop.io.IntWritable;  
  7. import org.apache.hadoop.io.Text;  
  8. import org.apache.hadoop.mapreduce.Job;  
  9. import org.apache.hadoop.mapreduce.Mapper;  
  10. import org.apache.hadoop.mapreduce.Reducer;  
  11. import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;  
  12. import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;  
  13. import org.apache.hadoop.util.GenericOptionsParser;  
  14. public class WordCount {  
  15. public static class TokenizerMapper  
  16. extends Mapper<Object, Text, Text, IntWritable>{  
  17. private final static IntWritable one = new IntWritable(1);  
  18. private Text word = new Text();  
  19. public void map(Object key, Text value, Context context  
  20. ) throws IOException, InterruptedException {  
  21. StringTokenizer itr = new StringTokenizer(value.toString());  
  22. while (itr.hasMoreTokens()) {  
  23. word.set(itr.nextToken());  
  24. context.write(word, one); }  
  25. }  
  26. }  
  27. public static class IntSumReducer  
  28. extends Reducer<Text,IntWritable,Text,IntWritable> {  
  29. private IntWritable result = new IntWritable();  
  30. public void reduce(Text key, Iterable values,  
  31. Context context  
  32. ) throws IOException, InterruptedException {  
  33. int sum = 0;  
  34. for (IntWritable val : values) {  
  35. sum += val.get();  
  36. }  
  37. result.set(sum);  
  38. context.write(key, result);  
  39. }  
  40. }  
  41. public static void main(String[] args) throws Exception {  
  42. Configuration conf = new Configuration();  
  43. conf.set("mapred.job.tracker""192.168.1.2:9001");  
  44. String[] ars=new String[]{"input","newout"};  
  45. String[] otherArgs = new GenericOptionsParser(conf, ars).getRemainingArgs();  
  46. if (otherArgs.length != 2) {  
  47. System.err.println("Usage: wordcount ");  
  48. System.exit(2);  
  49. }  
  50. Job job = new Job(conf, "word count");  
  51. job.setJarByClass(WordCount.class);  
  52. job.setMapperClass(TokenizerMapper.class);  
  53. job.setCombinerClass(IntSumReducer.class);  
  54. job.setReducerClass(IntSumReducer.class);  
  55. job.setOutputKeyClass(Text.class);  
  56. job.setOutputValueClass(IntWritable.class);  
  57. FileInputFormat.addInputPath(job, new Path(otherArgs[0]));  
  58. FileOutputFormat.setOutputPath(job, new Path(otherArgs[1]));  
  59. System.exit(job.waitForCompletion(true) ? 0 : 1);  
  60. }  

備注:如果不加"conf.set("mapred.job.tracker", "192.168.1.2:9001");",將提示你的權(quán)限不夠,其實照成這樣的原因是剛才設(shè)置的"Map/Reduce Location"其中的配置不是完全起作用,而是在本地的磁盤上建立了文件,并嘗試運行,顯然是不行的。我們要讓Eclipse提交作業(yè)到Hadoop集群上,所以我們這里手動添加Job運行地址。詳細(xì)參考"常見問題FAQ_3"。

3.5 運行WordCount程序

  選擇"Wordcount.java"程序,右擊一次按照"Run ASàRun on Hadoop"運行。然后會彈出如下圖,按照下圖進(jìn)行操作。

  運行結(jié)果如下:

  從上圖中我們得知我們的程序已經(jīng)運行成功了。

3.6 查看WordCount運行結(jié)果

  查看Eclipse軟件左側(cè),右擊"DFS LocationsàWin7ToHadoopàuseràhadoop",點擊刷新按鈕"Refresh",我們剛才出現(xiàn)的文件夾"newoutput"會出現(xiàn)。記得"newoutput"文件夾是運行程序時自動創(chuàng)建的,如果已經(jīng)存在相同的的文件夾,要么程序換個新的輸出文件夾,要么刪除HDFS上的那個重名文件夾,不然會出錯。

  打開"newoutput"文件夾,打開"part-r-00000"文件,可以看見執(zhí)行后的結(jié)果。

  到此為止,Eclipse開發(fā)環(huán)境設(shè)置已經(jīng)完畢,并且成功運行Wordcount程序,下一步我們真正開始Hadoop之旅。

4、常見問題FAQ

4.1 "error: failure to login"問題

  下面以網(wǎng)上找的"hadoop-0.20.203.0"為例,我在使用"V1.0"時也出現(xiàn)這樣的情況,原因就是那個"hadoop-eclipse-plugin-1.0.0_V1.0.jar",是直接把源碼編譯而成,故而缺少相應(yīng)的Jar包。具體情況如下

  詳細(xì)地址:http://blog.csdn.net/chengfei112233/article/details/7252404

  在我實踐嘗試中,發(fā)現(xiàn)hadoop-0.20.203.0版本的該包如果直接復(fù)制到eclipse的插件目錄中,在連接DFS時會出現(xiàn)錯誤,提示信息為: "error: failure to login"。

  彈出的錯誤提示框內(nèi)容為"An internal error occurred during: "Connecting to DFS hadoop".org/apache/commons/configuration/Configuration". 經(jīng)過察看Eclipse的log,發(fā)現(xiàn)是缺少jar包導(dǎo)致的。進(jìn)一步查找資料后,發(fā)現(xiàn)直接復(fù)制hadoop-eclipse-plugin-0.20.203.0.jar,該包中l(wèi)ib目錄下缺少了jar包。

  經(jīng)過網(wǎng)上資料搜集,此處給出正確的安裝方法:

  首先要對hadoop-eclipse-plugin-0.20.203.0.jar進(jìn)行修改。用歸檔管理器打開該包,發(fā)現(xiàn)只有commons-cli-1.2.jar 和hadoop-core.jar兩個包。將hadoop/lib目錄下的:

  • commons-configuration-1.6.jar ,

  • commons-httpclient-3.0.1.jar ,

  • commons-lang-2.4.jar ,

  • jackson-core-asl-1.0.1.jar

  • jackson-mapper-asl-1.0.1.jar

一共5個包復(fù)制到hadoop-eclipse-plugin-0.20.203.0.jar的lib目錄下,如下圖:

  然后,修改該包META-INF目錄下的MANIFEST.MF,將classpath修改為一下內(nèi)容:

Bundle-ClassPath:classes/,lib/hadoop-core.jar,lib/commons-cli-1.2.jar,lib/commons-httpclient-3.0.1.jar,lib/jackson-core-asl-1.0.1.jar,lib/jackson-mapper-asl-1.0.1.jar,lib/commons-configuration-1.6.jar,lib/commons-lang-2.4.jar

  這樣就完成了對hadoop-eclipse-plugin-0.20.203.0.jar的修改。

  最后,將hadoop-eclipse-plugin-0.20.203.0.jar復(fù)制到Eclipse的plugins目錄下。

  備注:上面的操作對"hadoop-1.0.0"一樣適用。

4.2 "Permission denied"問題

  網(wǎng)上試了很多,有提到"hadoop fs -chmod 777 /user/hadoop ",有提到"dfs.permissions 的配置項,將value值改為 false",有提到"hadoop.job.ugi",但是通通沒有效果。

  參考文獻(xiàn):

地址1:http://www.cnblogs.com/acmy/archive/2011/10/28/2227901.html

地址2:http://sunjun041640.blog.163.com/blog/static/25626832201061751825292/

   錯誤類型:org.apache.hadoop.security.AccessControlException: org.apache.hadoop.security .AccessControlException: Permission denied: user=*********, access=WRITE, inode="hadoop": hadoop:supergroup:rwxr-xr-x

   解決方案:

    我的解決方案直接把系統(tǒng)管理員的名字改成你的Hadoop集群運行hadoop的那個用戶。

4.3 "Failed to set permissions of path"問題

   參考文獻(xiàn):https://issues.apache.org/jira/browse/HADOOP-8089

   錯誤信息如下:

    ERROR security.UserGroupInformation: PriviledgedActionException as: hadoop cause:java.io.IOException Failed to set permissions of path:\usr\hadoop\tmp\mapred\staging\hadoop753422487\.staging to 0700 Exception in thread "main" java.io.IOException: Failed to set permissions of path: \usr\hadoop\tmp \mapred\staging\hadoop753422487\.staging to 0700

   解決方法:

Configuration conf = new Configuration();

conf.set("mapred.job.tracker", "[server]:9001");

   "[server]:9001"中的"[server]"為Hadoop集群Master的IP地址。

4.4 "hadoop mapred執(zhí)行目錄文件權(quán)"限問題

   參考文獻(xiàn):http://blog.csdn.net/azhao_dn/article/details/6921398

   錯誤信息如下:

   job Submission failed with exception 'java.io.IOException(The ownership/permissions on the staging directory /tmp/hadoop-hadoop-user1/mapred/staging/hadoop-user1/.staging is not as expected. It is owned by hadoop-user1 and permissions are rwxrwxrwx. The directory must be owned by the submitter hadoop-user1 or by hadoop-user1 and permissions must be rwx------)

   修改權(quán)限:

原文鏈接:http://www.cnblogs.com/xia520pi/archive/2012/05/20/2510723.html

 

【編輯推薦】

  1. Hadoop集群系列1:CentOS安裝配置
  2. Hadoop集群系列2:機(jī)器信息分布表
  3. Hadoop集群系列3:VSFTP安裝配置
  4. Hadoop集群系列4:SecureCRT使用
  5. Hadoop集群搭建過程中相關(guān)環(huán)境配置詳解
  6. Hadoop完全分布模式安裝實現(xiàn)詳解
責(zé)任編輯:彭凡 來源: 博客園
相關(guān)推薦

2012-06-20 09:19:19

Hadoop集群

2012-06-25 10:30:06

Hadoop集群

2012-07-05 10:51:57

Hadoop集群

2012-06-29 10:58:27

Hadoop集群

2012-06-13 09:56:53

2012-06-19 09:28:33

Hadoop集群

2012-06-19 15:51:22

集群系列2

2009-06-08 20:19:07

EclipseMinGWQt

2014-09-04 09:35:17

2018-07-10 15:15:11

2013-07-29 14:23:55

Eclipse開發(fā)環(huán)境Eclipse開發(fā)環(huán)境

2011-09-13 17:15:58

Eclipse And

2015-10-16 13:30:59

EclipsePython開發(fā)環(huán)境

2012-06-05 01:23:14

Ubuntueclipse

2012-08-22 15:25:43

Linux集群

2012-11-01 17:15:04

2011-06-17 17:01:22

Qt Eclipse Windows

2009-07-14 13:14:13

2011-06-17 16:47:12

Qt Eclipse Windows

2011-06-17 17:16:01

Qt Eclipse Linux
點贊
收藏

51CTO技術(shù)棧公眾號

国产精品网站一区| 日产国产欧美视频一区精品| 亚洲精品国产精品国自产观看浪潮 | 欧美精品性视频| 久久久久麻豆v国产精华液好用吗| 最新日韩精品| 亚洲你懂的在线视频| 精品久久久三级| 国产一区二区三区黄片| 一本久久综合| 精品国产一区二区三区久久狼黑人| 日本久久久久久久久久| 国产亚洲精品精品国产亚洲综合| 亚洲一区欧美一区| 一区二区视频在线观看| 香蕉久久一区二区三区| 国产一区免费电影| 日本国产一区二区三区| 欧美激情国产精品免费| 91影院成人| 亚洲男人天堂2024| 免费看91视频| 日韩国产91| 一本大道久久a久久综合| 狠狠噜天天噜日日噜| 91精品国产综合久久久久久豆腐| 岛国精品在线观看| 亚洲自拍偷拍区| 精品一区二区无码| 国产欧美日韩一区二区三区在线| 欧美精品一二区| 三级黄色在线观看| 欧美在线电影| 亚洲天堂一区二区三区| 精品国产av色一区二区深夜久久 | 狠狠久久综合| 色av综合在线| 国产欧美高清在线| 松下纱荣子在线观看| 亚洲永久免费av| 国产又粗又爽又黄的视频| 爱久久·www| 国产无人区一区二区三区| 久久综合伊人77777麻豆| 亚洲精品911| 国产99久久精品| 91一区二区三区| 国产wwwxxx| 国产裸体歌舞团一区二区| 国产日韩欧美视频在线| 一级特黄aa大片| 狠狠色综合播放一区二区| 国产又爽又黄的激情精品视频| 中文在线a天堂| 日本美女一区二区三区视频| 国产精品美腿一区在线看| 中文字幕精品无| 日日骚欧美日韩| 国产精品免费看久久久香蕉| 中文字幕欧美人妻精品| 国内外成人在线| 97av自拍| 亚洲aaaaaaa| 久久综合久久综合九色| 天天综合色天天综合色hd| 成年网站在线| 亚洲三级电影网站| 91网站在线观看免费| аⅴ资源天堂资源库在线| 欧美午夜xxx| 91插插插插插插插插| 欧美一级做a| 日韩欧美一区二区不卡| 中文字幕免费在线播放| 蜜乳av综合| 久久精品精品电影网| 69av视频在线| 免费在线观看成人av| 国产成人免费av| 国产女人18毛片18精品| 成人夜色视频网站在线观看| 欧美一区二区三区四区在线观看地址| 91成人高清| 亚洲综合色区另类av| 免费无码av片在线观看| 日韩专区视频网站| 亚洲国产精品va在线| 久久久久久国产免费a片| 午夜精品电影| 日韩av手机在线看| 国产欧美熟妇另类久久久| 99在线视频精品| 国产精品99久久久久久大便| 99爱在线视频| 欧美夫妻性生活| 黄色性生活一级片| 99国产精品一区二区| 97久久久久久| 精品国产无码一区二区| 国产午夜亚洲精品不卡| 国产精品videossex国产高清| 在线成人av观看| 日韩一区二区视频| 91成年人网站| 精品福利电影| 成人午夜黄色影院| 国产九色在线| 精品成人av一区| 国产探花在线观看视频| 欧美人与拘性视交免费看| 久久6免费高清热精品| 国产女优在线播放| av一区二区三区| 无码人妻精品一区二区蜜桃百度| 四虎成人在线| 亚洲国产欧美一区二区三区久久| 99自拍视频在线| 日韩国产高清在线| 精品免费视频123区| 日本无删减在线| 欧美日本在线一区| 亚洲AV无码成人精品区明星换面| 日韩香蕉视频| 国产精品区二区三区日本| 黄色成人影院| 精品视频免费看| 亚洲色成人网站www永久四虎| 在线观看视频日韩| av成人在线电影| 爆操欧美美女| 欧美一级在线视频| 午夜激情视频在线播放| 日韩av成人高清| 日韩av在线一区二区三区| 精品众筹模特私拍视频| 日韩午夜激情av| 欧美亚洲日本在线| 久久电影国产免费久久电影| 亚洲国产日韩综合一区| 精品欧美一区二区三区在线观看| 亚洲经典中文字幕| 日韩乱码一区二区| 99久久综合狠狠综合久久| www..com日韩| 国产精品对白久久久久粗| 欧美激情第1页| 噜噜噜久久,亚洲精品国产品| 亚洲一区免费观看| 欧美夫妇交换xxx| 亚洲高清资源| 精品综合久久| 久久精品女人天堂av免费观看| 亚洲日韩中文字幕在线播放| 日本黄色中文字幕| 国产欧美日韩激情| 特黄视频免费观看| 欧美欧美天天天天操| 国产激情美女久久久久久吹潮| 欧美性受ⅹ╳╳╳黑人a性爽| 欧美变态tickle挠乳网站| 亚欧洲精品在线视频| 91蜜桃视频在线| 在线免费视频a| 一本一本久久a久久综合精品| 亚洲自拍小视频免费观看| 欧美高清另类hdvideosexjaⅴ| 精品三级在线观看| 超碰中文字幕在线| 中文字幕巨乱亚洲| 一起草最新网址| 亚洲精品系列| 视频一区免费观看| 久久wwww| 欧美最猛性xxxxx(亚洲精品)| 国产特黄在线| 欧美一区二区三区在线电影| 国产精品变态另类虐交| 久久久久99精品一区| 亚洲综合激情视频| 影音先锋国产精品| 五月天色一区| 国产亚洲精品美女久久| 国产精品久久久久久久9999| caoporn免费在线| 亚洲精品99999| 97人妻人人澡人人爽人人精品| 亚洲国产中文字幕| 少妇愉情理伦三级| av一区二区不卡| 欧美大片久久久| 亚洲一区二区三区四区五区午夜| 亚洲午夜激情| 老司机成人在线| 成人黄色激情网| 日韩精品av| 久热精品视频在线观看一区| 亚洲欧美色视频| 在线播放中文字幕一区| 精品美女久久久久| 亚洲三级在线观看| 小早川怜子久久精品中文字幕| 国产剧情一区在线| 国产无套粉嫩白浆内谢的出处| 欧美区日韩区| 亚洲欧美国产一区二区| 奇米影视777在线欧美电影观看 | 中文字幕一区二区不卡 | 日韩高清电影免费| 亚洲一区二区三| 国产精品久久亚洲不卡| 97视频在线观看免费| 羞羞电影在线观看www| 中文字幕一区日韩电影| 飘雪影院手机免费高清版在线观看 | 国产91|九色| 18在线观看的| 久久久97精品| www.av在线播放| 精品小视频在线| 姝姝窝人体www聚色窝| 日韩欧美中文字幕制服| 一卡二卡在线观看| 欧美色综合网站| 国产精品suv一区| 亚洲成人av一区二区| 青青草原免费观看| 亚洲婷婷国产精品电影人久久| 日韩一级av毛片| 久久免费视频色| 人妻av一区二区| 高清国产午夜精品久久久久久| 在线免费看v片| 久久99在线观看| 亚洲人视频在线| 秋霞成人午夜伦在线观看| 免费黄色特级片| 久久久精品网| 午夜免费一区二区| 日日摸夜夜添夜夜添精品视频| 亚洲爆乳无码专区| 久久精品123| 国产无套粉嫩白浆内谢的出处| 午夜亚洲视频| 国产一区视频免费观看| 久久午夜精品一区二区| 日韩精品视频久久| 久久午夜影视| 五月激情婷婷在线| 国产一区二区三区免费| 日本黄色www| 国产91精品精华液一区二区三区 | 色婷婷精品久久二区二区蜜臂av | 亚洲精品网站在线播放gif| 深夜福利在线观看直播| 亚洲精品视频播放| 99视频在线观看地址| 自拍亚洲一区欧美另类| 91精品久久| 久久免费国产精品1| 免费成人在线电影| 国产精品黄色影片导航在线观看| 国产69精品久久久久9999人| 91亚洲精品在线| 午夜久久av| 精品午夜一区二区| 欧美日韩国产免费观看视频| 天天做天天爱天天高潮| 激情久久久久久| 国产成人无码精品久久久性色| 蜜桃av综合| 中文字幕一区二区三区四| 成人免费三级在线| 久久久久久久久久久久| 最新中文字幕一区二区三区| 亚洲国产精品成人无久久精品 | 91好色先生tv| 欧美va亚洲va在线观看蝴蝶网| 能在线看的av| 久久精品国亚洲| 少妇在线看www| 国产精品视频一区二区三区四| 日韩中文字幕一区二区高清99| 六十路精品视频| 忘忧草精品久久久久久久高清| 久久久久久久9| 日本不卡视频在线| 岛国精品一区二区三区| 国产欧美综合色| 国产精品18p| 欧美日韩激情一区二区| 神马午夜精品95| 久久精品最新地址| 天堂中文最新版在线中文| 成人国产精品av| 亚洲精品**不卡在线播he| 韩国黄色一级大片| 首页国产欧美久久| 师生出轨h灌满了1v1| 国产精品三级视频| 韩国av中文字幕| 日韩一区二区在线播放| freemovies性欧美| 26uuu另类亚洲欧美日本一| 国产视频网站一区二区三区| 欧洲精品在线一区| 日韩亚洲在线| 亚洲911精品成人18网站| 国产精品毛片久久久久久久| 三级黄色在线视频| 欧美成人精精品一区二区频| 亚洲成人影院麻豆| 青青草99啪国产免费| 77成人影视| 亚洲黄色网址在线观看| 麻豆91小视频| 亚洲一区视频在线播放| 懂色aⅴ精品一区二区三区蜜月| 亚洲精品国产suv一区| 久久精品国产96久久久香蕉| 国模视频一区| 欧美不卡在线一区二区三区| 亚洲人www| 日韩精品国产一区| 一区二区三区影院| 国产丝袜在线视频| 久久久91精品国产| 亚洲男女网站| 尤物国产精品| 蜜桃视频一区二区三区在线观看| 久久只有这里有精品| 好吊成人免视频| 色视频在线观看| 69久久夜色精品国产69乱青草| 91精品久久久久久综合五月天| 91精品国产毛片武则天| 国产资源在线一区| 中文字幕亚洲欧美日韩| 欧美一卡二卡三卡| 日皮视频在线观看| 99蜜桃在线观看免费视频网站| 欧美精品日本| 不许穿内裤随时挨c调教h苏绵| 夜夜揉揉日日人人青青一国产精品| 99久久免费国产精精品| 欧美成人免费网| 亚洲91网站| 欧美亚洲日本一区二区三区| 成人一区二区视频| 香蕉免费毛片视频| 亚洲精品视频中文字幕| 国产精品高清乱码在线观看| 日韩一区二区三区资源| 另类小说欧美激情| 一区二区成人免费视频| 精品国产露脸精彩对白| 中文字幕在线看片| 婷婷久久伊人| 国产一区二区三区精品视频| 久久黄色小视频| 日韩电影中文字幕一区| 免费亚洲电影| 欧美日韩在线免费观看视频| 国产成人综合视频| 欧美特黄aaaaaa| 中文字幕日韩高清| 亚洲精品国产九九九| 日韩在线一级片| 国产精品免费视频观看| 国产v在线观看| 欧美中文在线字幕| 日本a级不卡| 91porn在线| 日本高清不卡aⅴ免费网站| 看女生喷水的网站在线观看| 国产在线资源一区| 全部av―极品视觉盛宴亚洲| 免费在线一级片| 国产亚洲精品高潮| 日韩精品一区国产| 韩国日本在线视频| 亚洲天堂久久久久久久| 欧美性猛交 xxxx| 国产精品视频内| 一区二区三区精品视频在线观看| 成人黄色短视频| 亚洲国产精品久久久久| 成人在线视频观看| 黄色激情在线视频| 国产精品毛片高清在线完整版| 国产综合无码一区二区色蜜蜜| 国产精品27p| 亚洲美洲欧洲综合国产一区| 国产精品suv一区二区88| 日韩av一区在线观看| 国产日韩欧美中文在线| 老司机午夜av| 婷婷久久综合九色综合绿巨人| 人人干在线视频| 欧美日韩国产一二| 丰满岳乱妇一区二区三区|