精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

MongoDB vs MySQL,哪個效率更高?

數據庫 MySQL MongoDB
本文主要通過批量與非批量對比操作的方式介紹MongoDB的bulkWrite()方法的使用。順帶與關系型數據庫MySQL進行對比,比較這兩種不同類型數據庫的效率。

 [[437822]]

本文主要通過批量與非批量對比操作的方式介紹MongoDB的bulkWrite()方法的使用。順帶與關系型數據庫MySQL進行對比,比較這兩種不同類型數據庫的效率。如果只是想學習bulkWrite()的使用的看第一部分就行。

測試環境:win7旗艦版、16G內存、i3處理器、MongoDB3.0.2、mysql5.0

一、MongoDB批量操作

MongoDB對數據的操作分為Read Operations和Write Operations,Read Operations包含查詢操作,Write Operations包含刪除、插入、替換、更新幾種操作。MongoDB提供客戶端用bulk方式執行Write Operations,也就是批量寫操作。在java driver中,對應MongoCollection的bulkWrite()方法,先來看下這個方法簽名: 

  1. BulkWriteResult  com.mongodb.client.MongoCollection.bulkWrite(List<? extends WriteModel<? extends Document>> requests) 

這個方法要求傳入一個List集合,集合中的元素類型為WriteModel,它表示一個可用于批量寫操作的基類模型,它有以下幾個子類DeleteManyModel、DeleteOneModel、 InsertOneModel、ReplaceOneModel、 UpdateManyModel、UpdateOneModel,從名字可以看出來它對應了刪除、插入、替換、更新幾種操作。該方法返回一個BulkWriteResult對象,代表一個成功的批量寫操作結果,封裝了操作結果的狀態信息,如插入、更新、刪除記錄數等。

1、插入操作

(1)批量插入

代碼如下,該方法接收一個包含要進行插入的Document對象的集合參數,遍歷集合,使用Document構造InsertOneModel對象,每個InsertOneModel實例代表一個插入單個Document的操作,然后將該實例添加List集合中,調用bulkWrite()方法,傳入存儲所有插入操作的List集合完成批量插入。 

  1. public void bulkWriteInsert(List<Document> documents){  
  2.  List<WriteModel<Document>> requests = new ArrayList<WriteModel<Document>>();  
  3.  for (Document document : documents) {  
  4.   //構造插入單個文檔的操作模型  
  5.   InsertOneModel<Document>  iom = new InsertOneModel<Document>(document);  
  6.   requests.add(iom);  
  7.  }  
  8.  BulkWriteResult  bulkWriteResult = collection.bulkWrite(requests);  
  9.  System.out.println(bulkWriteResult.toString());  

測試:下面通過一個main函數測試下。首先構造10萬個Product實體對象,使用一個工具類將其轉換成json字符串,然后解析成Document對象,保存到一個list集合中,然后調用上面編寫的方法測試10萬個對象插入時間。 

  1. TestMongoDB instance = TestMongoDB.getInstance();  
  2. ArrayList<Document> documents = new ArrayList<Document>();  
  3. for (int i = 0; i < 100000; i++) {  
  4.  Product product = new Product(i,"書籍","追風箏的人",22.5);  
  5.  //將java對象轉換成json字符串  
  6.  String jsonProduct = JsonParseUtil.getJsonString4JavaPOJO(product);  
  7.  //將json字符串解析成Document對象  
  8.  Document docProduct = Document.parse(jsonProduct);  
  9.  documents.add(docProduct);  
  10.  
  11. System.out.println("開始插入數據。。。");  
  12. long startInsert = System.currentTimeMillis();  
  13. instance.bulkWriteInsert(documents);  
  14. System.out.println("插入數據完成,共耗時:"+(System.currentTimeMillis() - startInsert)+"毫秒"); 

結果:1560毫秒,多次測試基本在1.5秒左右

(2)逐條插入

下面再通過非批量插入10萬個數據對比下,方法如下: 

  1. public void insertOneByOne(List<Document> documents) throws ParseException{  
  2.  for (Document document : documents){  
  3.   collection.insertOne(document);  
  4.  }  

測試:10萬條數據 

  1. System.out.println("開始插入數據。。。");  
  2. long startInsert = System.currentTimeMillis();  
  3. instance.insertOneByOne(documents);  
  4. System.out.println("插入數據完成,共耗時:"+(System.currentTimeMillis() - startInsert)+"毫秒"); 

結果:12068毫秒,差距非常大。由此可見,MongoDB批量插入比逐條數據插入效率提高了非常多。

補充:

MongoCollection的insertMany()方法和bulkWrite()方法是等價的,測試時間差不多,不再貼圖。 

  1. public void insertMany(List<Document> documents) throws ParseException{  
  2.  //和bulkWrite()方法等價  
  3.  collection.insertMany(documents);  

2、刪除操作

(1)批量刪除

掌握了批量插入,批量刪除就是依葫蘆畫瓢了。構造DeleteOneModel需要一個Bson類型參數,代表一個刪除操作,這里使用了Bson類的子類Document。重點來了,這里的刪除條件使用文檔的_id字段,該字段在文檔插入數據庫后自動生成,沒插入數據庫前document.get("_id")為null,如果使用其他條件比如productId,那么要在文檔插入到collection后在productId字段上添加索引 

  1. collection.createIndex(new Document("productId", 1)); 

因為隨著collection數據量的增大,查找將越耗時,添加索引是為了提高查找效率,進而加快刪除效率。另外,值得一提的是DeleteOneModel表示至多刪除一條匹配條件的記錄,DeleteManyModel表示刪除匹配條件的所有記錄。為了防止一次刪除多條記錄,這里使用DeleteOneModel,保證一個操作只刪除一條記錄。當然這里不可能匹配多條記錄,因為_id是唯一的。

最新 MySQL 面試題整理好了,點擊Java面試庫小程序在線刷題。 

  1. public void bulkWriteDelete(List<Document> documents){  
  2.  List<WriteModel<Document>> requests = new ArrayList<WriteModel<Document>>();  
  3.  for (Document document : documents) {  
  4.   //刪除條件  
  5.   Document queryDocument = new Document("_id",document.get("_id"));  
  6.   //構造刪除單個文檔的操作模型,  
  7.   DeleteOneModel<Document>  dom = new DeleteOneModel<Document>(queryDocument);  
  8.   requests.add(dom);  
  9.  }  
  10.  BulkWriteResult bulkWriteResult = collection.bulkWrite(requests);  
  11.  System.out.println(bulkWriteResult.toString());  

測試:10萬條數據 

  1. System.out.println("開始刪除數據。。。");  
  2. long startDelete = System.currentTimeMillis(); 
  3. instance.bulkWriteDelete(documents);  
  4. System.out.println("刪除數據完成,共耗時:"+(System.currentTimeMillis() - startDelete)+"毫秒"); 

結果:2251毫秒

(2)逐條刪除

來看看在非批量下的刪除 

  1. public void deleteOneByOne(List<Document> documents){  
  2.  for (Document document : documents) {  
  3.   Document queryDocument = new Document("_id",document.get("_id"));  
  4.   DeleteResult deleteResult = collection.deleteOne(queryDocument);  
  5.  }  

測試:10萬條數據 

  1. System.out.println("開始刪除數據。。。");  
  2. long startDelete = System.currentTimeMillis();  
  3. instance.deleteOneByOne(documents);  
  4. System.out.println("刪除數據完成,共耗時:"+(System.currentTimeMillis() - startDelete)+"毫秒"); 

結果:12765毫秒,比批量刪除效率低很多

3、更新操作

(1)批量更新

再來看看批量更新,分UpdateOneModel和UpdateManyModel兩種,區別是前者更新匹配條件的一條記錄,后者更新匹配條件的所有記錄。對于ReplaceOneModel,表示替換操作,這里也歸為更新,現在以UpdateOneModel為例進行講解。UpdateOneModel構造方法接收3個參數,第一個是查詢條件,第二個參數是要更新的內容,第三個參數是可選的UpdateOptions,不填也會自動幫你new一個,代表批量更新操作未匹配到查詢條件時的動作,它的upser屬性值默認false,什么都不干,true時表示將一個新的Document插入數據庫,這個新的Document是查詢Document和更新Document的結合,但如果是替換操作,這個新的Document就是這個替換Document。

這里會有個疑惑:這和匹配到查詢條件后執行替換操作結果不一樣嗎?區別在于_id字段,未匹配查詢條件時插入的新的Document的_id是新的,而成功執行替換操作,_id是原先舊的。 

  1. public void bulkWriteUpdate(List<Document> documents){  
  2.  List<WriteModel<Document>> requests = new ArrayList<WriteModel<Document>>();  
  3.  for (Document document : documents) {  
  4.   //更新條件  
  5.   Document queryDocument = new Document("_id",document.get("_id"));  
  6.   //更新內容,改下書的價格 
  7.   Document updateDocument = new Document("$set",new Document("price","30.6"));  
  8.   //構造更新單個文檔的操作模型  
  9.   UpdateOneModel<Document> uom = new UpdateOneModel<Document>(queryDocument,updateDocument,new UpdateOptions().upsert(false));  
  10.   //UpdateOptions代表批量更新操作未匹配到查詢條件時的動作,默認false,什么都不干,true時表示將一個新的Document插入數據庫,他是查詢部分和更新部分的結合  
  11.   requests.add(uom);  
  12.  } 
  13.  BulkWriteResult bulkWriteResult = collection.bulkWrite(requests);  
  14.  System.out.println(bulkWriteResult.toString());  

測試:10萬條數據 

  1. System.out.println("開始更新數據。。。");  
  2. long startUpdate = System.currentTimeMillis();  
  3. instance.bulkWriteUpdate(documents);  
  4. System.out.println("更新數據完成,共耗時:"+(System.currentTimeMillis() - startUpdate)+"毫秒"); 

結果:3198毫秒

(2)逐條更新

對比非批量下的更新 

  1. public void updateOneByOne(List<Document> documents){  
  2.  for (Document document : documents) {  
  3.   Document queryDocument = new Document("_id",document.get("_id"));  
  4.   Document updateDocument = new Document("$set",new Document("price","30.6"));  
  5.   UpdateResult UpdateResult = collection.updateOne(queryDocument, updateDocument);  
  6.  }  

測試:10萬條數據 

  1. System.out.println("開始更新數據。。。");  
  2. long startUpdate = System.currentTimeMillis();  
  3. instance.updateOneByOne(documents);  
  4. System.out.println("更新數據完成,共耗時:"+(System.currentTimeMillis() - startUpdate)+"毫秒"); 

結果:13979毫秒,比批量更新效率低很多

4、混合批量操作

bulkWrite()方法可以對不同類型的寫操作進行批量處理,代碼如下: 

  1. public void bulkWriteMix(){  
  2.  List<WriteModel<Document>> requests = new ArrayList<WriteModel<Document>>();  
  3.   InsertOneModel<Document>  iom = new InsertOneModel<Document>(new Document("name","kobe"));  
  4.   UpdateManyModel<Document> umm = new UpdateManyModel<Document>(new Document("name","kobe"),  
  5.     new Document("$set",new Document("name","James")),new UpdateOptions().upsert(true));  
  6.   DeleteManyModel<Document>  dmm = new DeleteManyModel<Document>(new Document("name","James"));  
  7.   requests.add(iom);  
  8.   requests.add(umm);  
  9.   requests.add(dmm);  
  10.   BulkWriteResult bulkWriteResult = collection.bulkWrite(requests);  
  11.   System.out.println(bulkWriteResult.toString());  

注意:updateMany()、deleteMany()兩個方法和insertMany()不同,它倆不是批量操作,而是代表更新(刪除)匹配條件的所有數據。

最新 MySQL 面試題整理好了,點擊Java面試庫小程序在線刷題。

二、與MySQL性能對比

1、插入操作

(1)批處理插入

與MongoDB一樣,也是插入Product實體對象,代碼如下 

  1. public void insertBatch(ArrayList<Product> list) throws Exception{  
  2.  Connection conn = DBUtil.getConnection();  
  3.  try {  
  4.   PreparedStatement pst = conn.prepareStatement("insert into t_product value(?,?,?,?)");  
  5.   int count = 1 
  6.   for (Product product : list) {  
  7.    pst.setInt(1, product.getProductId());  
  8.    pst.setString(2, product.getCategory());
  9.    pst.setString(3, product.getName());  
  10.    pst.setDouble(4, product.getPrice());  
  11.    pst.addBatch();  
  12.    if(count % 1000 == 0){  
  13.     pst.executeBatch();  
  14.     pst.clearBatch();//每1000條sql批處理一次,然后置空PreparedStatement中的參數,這樣也能提高效率,防止參數積累過多事務超時,但實際測試效果不明顯  
  15.    }  
  16.    count++;  
  17.   }  
  18.   conn.commit();  
  19.  } catch (SQLException e) {  
  20.   e.printStackTrace();  
  21.  }  
  22.  DBUtil.closeConnection(conn);  

JDBC默認自動提交事務,切記在獲取連接后添加下面一行代碼,關閉事務自動提交。 

  1. connection.setAutoCommit(false); 

測試:10萬條數據 

  1. public static void main(String[] args) throws Exception {  
  2.             TestMysql test = new TestMysql();  
  3.             ArrayList<Product> list = new ArrayList<Product>();  
  4.             for (int i = 0; i < 1000; i++) {  
  5.                 Product product = new Product(i, "書籍", "追風箏的人", 20.5);  
  6.                 list.add(product);  
  7.             } 
  8.             System.out.println("MYSQL開始插入數據。。。");  
  9.             long insertStart = System.currentTimeMillis();  
  10.             test.insertBatch(list);  
  11.             System.out.println("MYSQL插入數據完成,共耗時:"+(System.currentTimeMillis() - insertStart)+"毫秒");  

結果:7389毫秒,多次測試基本7秒左右

(2)逐條插入

再來看看mysql逐條插入,代碼如下: 

  1. public void insertOneByOne(ArrayList<Product> list) throws Exception{  
  2.  Connection conn = DBUtil.getConnection();  
  3.  try {  
  4.   for (Product product : list) {  
  5.    PreparedStatement pst = conn.prepareStatement("insert into t_product value(?,?,?,?)");  
  6.    pst.setInt(1, product.getProductId());  
  7.    pst.setString(2, product.getCategory());  
  8.    pst.setString(3, product.getName());  
  9.    pst.setDouble(4, product.getPrice());  
  10.    pst.executeUpdate();  
  11.    //conn.commit();//加上這句每次插入都提交事務,結果將是非常耗時  
  12.   }  
  13.   conn.commit();  
  14.  } catch (SQLException e) {  
  15.   e.printStackTrace();  
  16.  }  
  17.  DBUtil.closeConnection(conn); 

測試:10萬條記錄 

  1. System.out.println("MYSQL開始插入數據。。。");  
  2. long insertStart = System.currentTimeMillis();  
  3. test.insertOneByOne(list);  
  4. System.out.println("MYSQL插入數據完成,共耗時:"+(System.currentTimeMillis() - insertStart)+"毫秒"); 

結果:8921毫秒,基本比批量慢1秒多。

2、刪除操作

(1)批處理刪除

刪除的where條件是productId,這里在建表的時候沒有添加主鍵,刪除異常的慢,查了半天不知道什么原因。切記添加主鍵,主鍵默認有索引,所有能更快匹配到記錄。 

  1. public void deleteBatch(ArrayList<Product> list) throws Exception{  
  2.   Connection conn = DBUtil.getConnection();  
  3.   try {  
  4.    PreparedStatement pst = conn.prepareStatement("delete from t_product where id = ?");//按主鍵查,否則全表遍歷很慢  
  5.    int count = 1 
  6.    for (Product product : list) {  
  7.     pst.setInt(1, product.getProductId());  
  8.     pst.addBatch();  
  9.     if(count % 1000 == 0){  
  10.      pst.executeBatch();  
  11.      pst.clearBatch();  
  12.     }  
  13.     count++;  
  14.    }  
  15.    conn.commit();  
  16.   } catch (SQLException e) { 
  17.    e.printStackTrace();  
  18.   }  
  19.   DBUtil.closeConnection(conn);  
  20.  } 

測試:10萬條數據。另外,MySQL 系列面試題和答案全部整理好了,微信搜索Java技術棧,在后臺發送:面試,可以在線閱讀。 

  1. System.out.println("MYSQL開始刪除數據。。。");  
  2. long deleteStart = System.currentTimeMillis();  
  3. test.deleteBatch(list);  
  4. System.out.println("MYSQL刪除數據完成,共耗時:"+(System.currentTimeMillis() - deleteStart)+"毫秒"); 

結果:7936毫秒

(2)逐條刪除

代碼如下 

  1. public void deleteOneByOne(ArrayList<Product> list) throws Exception{  
  2.  Connection conn = DBUtil.getConnection();  
  3.  PreparedStatement pst = null 
  4.  try {  
  5.   for (Product product : list) {  
  6.    pst = conn.prepareStatement("delete from t_product where id = ?");  
  7.    pst.setInt(1, product.getProductId());  
  8.    pst.executeUpdate();  
  9.    //conn.commit();//加上這句每次插入都提交事務,結果將是非常耗時  
  10.   }  
  11.   conn.commit(); 
  12.  } catch (SQLException e) {  
  13.   e.printStackTrace();  
  14.  }  
  15.  DBUtil.closeConnection(conn);  

測試:10萬條數據 

  1. System.out.println("MYSQL開始刪除數據。。。"); 
  2. long deleteStart = System.currentTimeMillis();  
  3. test.deleteOneByOne(list);  
  4. System.out.println("MYSQL刪除數據完成,共耗時:"+(System.currentTimeMillis() - deleteStart)+"毫秒"); 

結果:8752毫秒,比批處理刪除慢一秒左右。

3、更新操作

(1)批處理更新

代碼如下 

  1. public void updateBatch(ArrayList<Product> list) throws Exception{  
  2.  Connection conn = DBUtil.getConnection();  
  3.  try {  
  4.   PreparedStatement pst = conn.prepareStatement("update t_product set price=31.5 where id=?");  
  5.   int count = 1 
  6.   for (Product product : list) {  
  7.    pst.setInt(1, product.getProductId());  
  8.    pst.addBatch(); 
  9.    if(count % 1000 == 0){  
  10.     pst.executeBatch();  
  11.     pst.clearBatch();//每1000條sql批處理一次,然后置空PreparedStatement中的參數,這樣也能提高效率,防止參數積累過多事務超時,但實際測試效果不明顯  
  12.    }  
  13.    count++;  
  14.   }  
  15.   conn.commit();  
  16.  } catch (SQLException e) { 
  17.   e.printStackTrace();  
  18.  } 
  19.   DBUtil.closeConnection(conn);  

測試:10萬條數據 

  1. System.out.println("MYSQL開始更新數據。。。");  
  2. long updateStart = System.currentTimeMillis();  
  3. test.updateBatch(list);  
  4. System.out.println("MYSQL更新數據完成,共耗時:"+(System.currentTimeMillis() - updateStart)+"毫秒"); 

結果:8611毫秒

(2)逐條更新

代碼如下 

  1. public void updateOneByOne(ArrayList<Product> list) throws Exception{  
  2.   Connection conn = DBUtil.getConnection();  
  3.   try {  
  4.    for (Product product : list) {  
  5.     PreparedStatement pst = conn.prepareStatement("update t_product set price=30.5 where id=?");  
  6.     pst.setInt(1, product.getProductId());  
  7.     pst.executeUpdate();  
  8.     //conn.commit();//加上這句每次插入都提交事務,結果將是非常耗時  
  9.    }  
  10.    conn.commit();  
  11.   } catch (SQLException e) {  
  12.    e.printStackTrace();  
  13.   }  
  14.   DBUtil.closeConnection(conn);  
  15.  } 

測試:10萬條數據 

  1. System.out.println("MYSQL開始更新數據。。。");  
  2. long updateStart = System.currentTimeMillis();  
  3. test.updateOneByOne(list);  
  4. System.out.println("MYSQL更新數據完成,共耗時:"+(System.currentTimeMillis() - updateStart)+"毫秒"); 

結果:9430毫秒,比批處理更新慢了1秒左右

三、總結

本文主要是為了介紹bulkWrite()方法的使用,也就是MongoDB的批量寫操作,通過實驗可以看出MongoDB使用bulkWrite()方法進行大量數據的寫操作比使用常規的方法進行寫操作效率要高很多。文章也介紹了mysql幾種寫操作下批量和非批量的對比,可以看出他們批處理方式比非批處理快點,但沒有MongoDB那么明顯。

對于MongoDB與mysql的比較,批量操作下,MongoDB插入、刪除、更新都比mysql快,非批量操作下,MongoDB插入、刪除、更新都比mysql慢。當然只是一個初略的結論,文中并沒有進行100條、1000條、10000條或更大的這樣不同的數據對比,以及CPU內存使用情況進行監測,有興趣的可以嘗試下。 

 

責任編輯:龐桂玉 來源: Java編程愛好者
相關推薦

2020-02-26 10:33:31

邊緣計算云計算

2011-07-15 09:11:39

MySQLMongoDB

2012-09-07 10:09:54

MySQLMongoDB云計算

2021-03-19 11:45:13

云計算邊緣計算

2021-03-10 09:55:38

邊緣計算云計算IT行業

2014-12-05 09:59:17

程序員

2019-08-05 15:25:22

C語言數據庫Linux

2022-01-12 10:29:01

Windows 11Windows微軟

2009-06-08 15:36:21

運維管理自助服務摩卡

2020-11-03 14:30:02

MySQL5.7MyS8.0數據庫

2024-07-30 09:12:15

2024-01-01 18:57:01

Code技巧符號

2021-04-12 08:01:21

GridFlexbox網格

2018-12-11 12:38:23

UbuntuMint發行版

2019-11-25 10:20:54

CSS代碼javascript

2023-10-18 07:43:55

Redis數據存儲

2012-05-30 15:09:21

愛普生掃描儀

2009-12-21 16:51:50

無線路由器

2011-11-26 13:42:57

夏普復合一體機

2010-02-06 09:15:15

Power7新安騰
點贊
收藏

51CTO技術棧公眾號

精品国产乱码91久久久久久网站| 国产亚洲欧美日韩日本| 欧美激情videoshd| 亚洲欧美日本一区| 国产91精品在线| 夜夜嗨av一区二区三区| 欧美日韩日本网| 一级做a爱片性色毛片| 黄色精品网站| 国产一区二区日韩精品欧美精品| 香蕉网在线视频| 欧美黑人粗大| 亚洲综合丁香婷婷六月香| 麻豆91蜜桃| jizz中国女人| 视频在线观看91| 欧美精品videossex性护士| 一本加勒比北条麻妃| 麻豆久久一区| 色老汉av一区二区三区| 99久久久精品视频| 91精品专区| 久久这里只有精品6| 91九色露脸| 在线播放国产一区| 国产日韩一区| 精品少妇v888av| 中文字幕第二区| 亚洲精品无吗| 亚洲精品一区二区三区四区高清| 日韩在线一区视频| av亚洲一区| 色先锋资源久久综合| 日韩欧美精品免费| а√资源新版在线天堂| 国产精品网站在线| 日本一区二区不卡高清更新| 少妇精品视频一区二区| 国产黄色成人av| 国产女同一区二区| 中文字幕永久在线| 国产精品毛片一区二区三区| 欧美国产日韩中文字幕在线| 黑人狂躁日本娇小| 日韩在线观看一区| 一区二区三区四区精品| 精品国产成人亚洲午夜福利| 人体久久天天| 亚洲精品国产欧美| 亚洲激情 欧美| 国产精品色在线网站| 精品欧美一区二区三区精品久久 | 国产aⅴ激情无码久久久无码| 大陆精大陆国产国语精品| 欧美大片在线观看| 国产裸体视频网站| 日韩成人18| 精品乱人伦小说| 99精品一区二区三区无码吞精| 日韩三级网址| 日韩欧美成人午夜| 91人人澡人人爽| 9999久久久久| 亚洲黄色在线看| 国产三级国产精品| 国产一区日韩| 日韩中文字幕视频在线观看| 亚洲人与黑人屁股眼交| 亚洲综合色网| 久久久久久久久国产| 日韩欧美大片在线观看| 免费视频一区| 91精品久久久久久| 99久久国产免费| 成人午夜电影网站| 久久久久久久久久码影片| 精品成人一区二区三区免费视频| 久久久蜜臀国产一区二区| 色一情一乱一伦一区二区三区| 97超碰国产一区二区三区| 亚洲天堂av老司机| 欧美高清中文字幕| 伊人久久精品一区二区三区| 欧美亚洲国产怡红院影院| 色噜噜狠狠一区二区三区狼国成人| 国产一精品一av一免费爽爽| 亚洲国产精品网站| 东京热无码av男人的天堂| 小小影院久久| 国模视频一区二区| 欧美 亚洲 另类 激情 另类 | 亚洲激情 欧美| 国产一区二区亚洲| 欧美大荫蒂xxx| www五月天com| 国产剧情一区在线| 免费在线成人av| 黄色av电影在线观看| 亚洲成av人片在线观看无码| 免费黄色一级网站| 久久在线观看| 夜夜嗨av色综合久久久综合网| 在线观看成人毛片| 久久一二三区| 国产伦精品一区二区三区免 | 色综合久久中文| 日韩视频免费在线| 丁香六月婷婷综合| 国产黄色精品网站| 亚洲精品8mav| av日韩亚洲| 337p日本欧洲亚洲大胆色噜噜| 亚洲精品国产精品国自产网站| 国产精品多人| 成人国产精品久久久| 欧美女优在线观看| 亚洲国产精品一区二区尤物区| xxww在线观看| 啪啪亚洲精品| 91精品国产一区| 性生交生活影碟片| 亚洲国产精品av| 男人操女人免费软件| jizz18欧美18| 欧美大片在线看免费观看| 中文字幕在线观看视频一区| 97久久精品人人爽人人爽蜜臀 | 亚洲免费网站| 成人欧美一区二区三区视频xxx | 狠狠干狠狠操视频| 国产精品片aa在线观看| 97在线精品视频| 黄色www视频| 亚洲一二三级电影| 五月天六月丁香| 天天射综合网视频| 国产欧美一区二区三区视频| 免费av在线电影| 欧美色xxxx| 亚洲av无码一区二区三区网址| 欧美日本不卡| av资源一区二区| 青春草在线视频| 欧美成人aa大片| 久久免费在线观看视频| 国产乱码精品一区二区三区av | 久久riav| 午夜久久中文| 亚洲女人初尝黑人巨大| 日韩精品1区2区| 2021久久国产精品不只是精品| 男人日女人下面视频| 欧美sss在线视频| 91精品国产色综合久久不卡98| 五月婷婷六月丁香| 精品久久久香蕉免费精品视频| 大乳护士喂奶hd| 在线综合视频| 欧美三日本三级少妇三99| 三级成人黄色影院| 国产亚洲欧美日韩美女| 中文字幕乱码一区二区| 中文字幕亚洲精品在线观看| 亚洲精品免费一区亚洲精品免费精品一区 | 欧美日韩国产综合久久| 欧美风情第一页| 国产美女久久久久| 日韩国产小视频| 四虎5151久久欧美毛片| 国产精品日韩在线观看| 黄色大片在线播放| 日韩精品一区二区三区在线播放| 四虎永久在线精品| 久久午夜老司机| 波多野结衣国产精品| 欧美高清不卡| 久久综合九色欧美狠狠| 成人国产激情在线| 欧美理论电影在线播放| 日本美女一级视频| 日本道精品一区二区三区| 国产精品夜夜夜爽阿娇| 成人一区二区视频| 无码人妻精品一区二区三区66| 91精品国产成人观看| 韩国一区二区三区美女美女秀| 在线观看精品| 欧美激情综合色| 黄色片视频在线观看| 欧美一级在线视频| 久草视频一区二区| 一片黄亚洲嫩模| 男人舔女人下部高潮全视频| 国产精品综合视频| 欧美丰满熟妇xxxxx| 欧美日本一区| 日本在线播放一区| 91在线一区| 国产精品美女久久久久av超清| 男插女视频久久久| 一区二区中文字幕| 黄色福利在线观看| 欧美日韩国产另类一区| 天天操天天爽天天干| 国产精品久久久久桃色tv| a级片在线观看视频| 免费人成在线不卡| 欧美在线观看www| 在线看片不卡| 偷拍视频一区二区| 久久资源综合| 亚洲a在线播放| 成人国产精品一区二区免费麻豆 | 久久久久久久久久影院| 亚洲欧美自拍偷拍色图| 无码国产69精品久久久久同性| 粉嫩久久99精品久久久久久夜| 国产精品视频中文字幕| 国产精品一卡| 97视频在线免费| 中文av一区| 一区二区三区视频在线播放| 中文字幕精品影院| 狠狠色伊人亚洲综合网站色| 精品一区91| 成人激情在线播放| 久久91视频| 国产精品久久久久高潮| 自由日本语热亚洲人| 久久久免费在线观看| 日本伦理一区二区| 毛片精品免费在线观看| 在线免费av电影| 国产一区二区三区中文| 色视频在线看| 亚洲精品suv精品一区二区| 成人高潮片免费视频| 制服视频三区第一页精品| 国产精品久久777777换脸| 欧美美女bb生活片| 91在线精品入口| 在线播放欧美女士性生活| 亚洲天堂视频网| 欧美日韩国产小视频| 一级做a爰片久久毛片16| 欧美日韩不卡在线| 91久久精品国产91性色69| 欧美日韩久久一区二区| 亚洲字幕av一区二区三区四区| 欧美无砖专区一中文字| 久久久久久久久久成人| 欧洲精品视频在线观看| 亚洲精品毛片一区二区三区| 欧美四级电影网| 中文字幕有码视频| 欧美精品在线一区二区三区| 国产精品美女一区| 欧美mv日韩mv| 色一情一乱一乱一区91av| 日韩电影大片中文字幕| 你懂的在线免费观看| 一区二区三区精品99久久| 调教视频免费在线观看| 欧美成人合集magnet| bl在线肉h视频大尺度| 97视频在线观看播放| 欧美xxxxxx| 国产日韩在线看片| 一区二区三区国产好| 精品伦精品一区二区三区视频| 视频精品在线观看| 亚洲精品无人区| 欧美成人午夜| www一区二区www免费| 美女视频一区二区三区| 欧美色图校园春色| 91视视频在线直接观看在线看网页在线看| 一卡二卡三卡四卡| 中文字幕久久午夜不卡| 欧美三级小视频| 欧美色xxxx| 国产精品系列视频| 日韩精品视频中文在线观看| 都市激情在线视频| 欧美成人精品在线视频| 免费看男女www网站入口在线 | 成人性生交大片免费看中文视频| 久久资源亚洲| 欧美激情电影| 黄色网页免费在线观看| 久久99这里只有精品| 国产精品扒开腿做爽爽爽a片唱戏 亚洲av成人精品一区二区三区 | 素人fc2av清纯18岁| 国产精品成人免费精品自在线观看| 麻豆疯狂做受xxxx高潮视频| 一本大道久久a久久综合婷婷| 亚洲综合五月天婷婷丁香| 亚洲成人网久久久| 日本天堂在线观看| 青青青国产精品一区二区| 国产精品视频首页| 人偷久久久久久久偷女厕| 亚洲视频福利| 在线观看岛国av| 久久久99久久| 日本亚洲欧美在线| 欧美日韩国产一级片| 欧美美乳在线| 国内伊人久久久久久网站视频 | 欧美一区二区不卡视频| 久草在线免费福利资源| 欧美激情在线观看视频| 开心久久婷婷综合中文字幕| 欧美日韩一区综合| 精品成人国产| 日本人dh亚洲人ⅹxx| 中文字幕免费不卡| 亚洲天堂av片| 亚洲国产成人爱av在线播放| 久草免费在线观看| 国产精品午夜视频| 国产欧美日韩在线观看视频| 欧美啪啪免费视频| 懂色av一区二区三区免费看| 天海翼在线视频| 欧美视频在线一区| 国产中文字幕在线| 日韩69视频在线观看| 天天操综合520| 国产av国片精品| 国产成人精品综合在线观看| 久久久久久视频| 91精品国产综合久久国产大片| 成人jjav| 国产精品免费一区| 成人无号精品一区二区三区| 久久精品网站视频| 国产日产欧美一区| 精品国产午夜福利| 亚洲香蕉伊综合在人在线视看| 欧美gay视频| 日韩av电影在线观看| 日韩av一二三| 国产99在线 | 亚洲| 欧美系列在线观看| 在线播放毛片| 91精品久久久久久久| 自拍偷拍欧美专区| 中文字幕一二三| 亚洲一区二区三区国产| 六月丁香色婷婷| 57pao成人国产永久免费| 五月国产精品| 免费日韩视频在线观看| 国产午夜精品在线观看| 中文字幕乱码在线观看| 久久久www成人免费精品| 欧美久久亚洲| 五月丁香综合缴情六月小说| 99视频一区二区三区| 中文字幕一区在线播放| 在线色欧美三级视频| 四虎永久精品在线| 黄网站色视频免费观看| caoporm超碰国产精品| 日日骚av一区二区| 丝袜一区二区三区| 97视频一区| 国产精品欧美激情在线观看| 国产精品入口麻豆原神| 精品人妻一区二区三区日产乱码| 午夜美女久久久久爽久久| 综合伊思人在钱三区| 69久久久久久| 一区二区三区日韩精品| 天天av天天翘| 国产精品一区二区电影| 一精品久久久| 国精产品一区一区三区免费视频 | 国内免费久久久久久久久久久 | 中文字幕欧美精品日韩中文字幕| www.久久热| 国产69精品久久久久久久| 国产色综合一区| 亚洲成人77777| 91精品国产色综合久久不卡98口| 色小子综合网| 中文字幕第3页| 欧美日韩高清一区二区不卡| 国模雨婷捆绑高清在线| 亚洲狠狠婷婷综合久久久| 国产ts人妖一区二区| 黄色av一区二区| 欧美大片欧美激情性色a∨久久| 国产精品欧美在线观看| 在线播放av网址| 欧美三级视频在线观看| 国产盗摄——sm在线视频| 自拍偷拍一区二区三区| 26uuu久久天堂性欧美|