精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

Nacos Client服務(wù)訂閱之事件機制剖析

開發(fā) 前端
Nacos客戶端通過一個定時任務(wù),每6秒從注冊中心獲取實例列表,當(dāng)發(fā)現(xiàn)實例發(fā)生變化時,發(fā)布變更事件,訂閱者進行業(yè)務(wù)處理,然后更新內(nèi)存中和本地的緩存中的實例。

[[417668]]

本文轉(zhuǎn)載自微信公眾號「程序新視」,作者二師兄。轉(zhuǎn)載本文請聯(lián)系程序新視公眾號。

學(xué)習(xí)不用那么功利,二師兄帶你從更高維度輕松閱讀源碼~

上篇文章,我們分析了Nacos客戶端訂閱的核心流程:Nacos客戶端通過一個定時任務(wù),每6秒從注冊中心獲取實例列表,當(dāng)發(fā)現(xiàn)實例發(fā)生變化時,發(fā)布變更事件,訂閱者進行業(yè)務(wù)處理,然后更新內(nèi)存中和本地的緩存中的實例。

這篇文章為服務(wù)訂閱的第二篇,我們重點來分析,定時任務(wù)獲取到最新實例列表之后,整個事件機制是如何處理的。

回顧整個流程

先回顧一下客戶端服務(wù)訂閱的基本流程:

在第一步調(diào)用subscribe方法時,會訂閱一個EventListener事件。而在定時任務(wù)UpdateTask定時獲取實例列表之后,會調(diào)用ServiceInfoHolder#processServiceInfo方法對ServiceInfo進行本地處理,這其中就包括和事件處理。

監(jiān)聽事件的注冊

在subscribe方法中,通過如下方式進行了監(jiān)聽事件的注冊:

  1. @Override 
  2. public void subscribe(String serviceName, String groupName, List<String> clusters, EventListener listener) 
  3.         throws NacosException { 
  4.     if (null == listener) { 
  5.         return
  6.     } 
  7.     String clusterString = StringUtils.join(clusters, ","); 
  8.     changeNotifier.registerListener(groupName, serviceName, clusterString, listener); 
  9.     clientProxy.subscribe(serviceName, groupName, clusterString); 

這里的changeNotifier.registerListener便是進行具體的事件注冊邏輯。追進去看一下實現(xiàn)源碼:

  1. // InstancesChangeNotifier 
  2. public void registerListener(String groupName, String serviceName, String clusters, EventListener listener) { 
  3.     String key = ServiceInfo.getKey(NamingUtils.getGroupedName(serviceName, groupName), clusters); 
  4.     ConcurrentHashSet<EventListener> eventListeners = listenerMap.get(key); 
  5.     if (eventListeners == null) { 
  6.         synchronized (lock) { 
  7.             eventListeners = listenerMap.get(key); 
  8.             if (eventListeners == null) { 
  9.                 eventListeners = new ConcurrentHashSet<EventListener>(); 
  10.                 // 將EventListener緩存到listenerMap 
  11.                 listenerMap.put(key, eventListeners); 
  12.             } 
  13.         } 
  14.     } 
  15.     eventListeners.add(listener); 

可以看出,事件的注冊便是將EventListener存儲在InstancesChangeNotifier的listenerMap屬性當(dāng)中了。

這里的數(shù)據(jù)結(jié)構(gòu)為Map,key為服務(wù)實例信息的拼接,value為監(jiān)聽事件的集合。

事件注冊流程就這么簡單。這里有一個雙重檢查鎖的實踐案例,不知道你留意到?jīng)]?可以學(xué)習(xí)一下。

ServiceInfo的處理

上面完成了事件的注冊,現(xiàn)在就追溯一下觸發(fā)事件的來源。UpdateTask中獲取到最新實例會進行本地化處理,部分代碼如下:

  1. // 獲取緩存的service信息 
  2. ServiceInfo serviceObj = serviceInfoHolder.getServiceInfoMap().get(serviceKey); 
  3. if (serviceObj == null) { 
  4.     // 根據(jù)serviceName從注冊中心服務(wù)端獲取Service信息 
  5.     serviceObj = namingClientProxy.queryInstancesOfService(serviceName, groupName, clusters, 0, false); 
  6.     serviceInfoHolder.processServiceInfo(serviceObj); 
  7.     lastRefTime = serviceObj.getLastRefTime(); 
  8.     return

這部分邏輯在上篇文章中已經(jīng)分析過了,這里重點看serviceInfoHolder#processServiceInfo中的業(yè)務(wù)邏輯處理。先看流程圖,然后看代碼。

上述邏輯簡單說就是:判斷一下新的ServiceInfo數(shù)據(jù)是否正確,是否發(fā)生了變化。如果數(shù)據(jù)格式正確,且發(fā)生的變化,那就發(fā)布一個InstancesChangeEvent事件,同時將ServiceInfo寫入本地緩存。

下面看一下代碼實現(xiàn):

  1. public ServiceInfo processServiceInfo(ServiceInfo serviceInfo) { 
  2.     String serviceKey = serviceInfo.getKey(); 
  3.     if (serviceKey == null) { 
  4.         return null
  5.     } 
  6.     ServiceInfo oldService = serviceInfoMap.get(serviceInfo.getKey()); 
  7.     if (isEmptyOrErrorPush(serviceInfo)) { 
  8.         //empty or error push, just ignore 
  9.         return oldService; 
  10.     } 
  11.     // 緩存服務(wù)信息 
  12.     serviceInfoMap.put(serviceInfo.getKey(), serviceInfo); 
  13.     // 判斷注冊的實例信息是否已變更 
  14.     boolean changed = isChangedServiceInfo(oldService, serviceInfo); 
  15.     if (StringUtils.isBlank(serviceInfo.getJsonFromServer())) { 
  16.         serviceInfo.setJsonFromServer(JacksonUtils.toJson(serviceInfo)); 
  17.     } 
  18.     // 通過prometheus-simpleclient監(jiān)控服務(wù)緩存Map的大小 
  19.     MetricsMonitor.getServiceInfoMapSizeMonitor().set(serviceInfoMap.size()); 
  20.     // 服務(wù)實例已變更 
  21.     if (changed) { 
  22.         NAMING_LOGGER.info("current ips:(" + serviceInfo.ipCount() + ") service: " + serviceInfo.getKey() + " -> " 
  23.                 + JacksonUtils.toJson(serviceInfo.getHosts())); 
  24.         // 添加實例變更事件,會被推動到訂閱者執(zhí)行 
  25.         NotifyCenter.publishEvent(new InstancesChangeEvent(serviceInfo.getName(), serviceInfo.getGroupName(), 
  26.                 serviceInfo.getClusters(), serviceInfo.getHosts())); 
  27.         // 記錄Service本地文件 
  28.         DiskCache.write(serviceInfo, cacheDir); 
  29.     } 
  30.     return serviceInfo; 

可以對照流程圖和代碼中的注釋部分進行理解這個過程。

我們要講的重點是服務(wù)信息變更之后,發(fā)布的InstancesChangeEvent,也就是流程圖中標(biāo)紅的部分。

事件追蹤

上面的事件是通過NotifyCenter進行發(fā)布的,NotifyCenter中的核心流程如下:

NotifyCenter中進行事件發(fā)布,發(fā)布的核心邏輯是:

  • 根據(jù)InstancesChangeEvent事件類型,獲得對應(yīng)的CanonicalName;
  • 將CanonicalName作為Key,從NotifyCenter#publisherMap中獲取對應(yīng)的事件發(fā)布者(EventPublisher);
  • EventPublisher將InstancesChangeEvent事件進行發(fā)布。

NotifyCenter中的核心代碼實現(xiàn)如下:

  1. private static boolean publishEvent(final Class<? extends Event> eventType, final Event event) { 
  2.     if (ClassUtils.isAssignableFrom(SlowEvent.class, eventType)) { 
  3.         return INSTANCE.sharePublisher.publish(event); 
  4.     } 
  5.  
  6.     // 根據(jù)InstancesChangeEvent事件類型,獲得對應(yīng)的CanonicalName; 
  7.     final String topic = ClassUtils.getCanonicalName(eventType); 
  8.  
  9.     // 將CanonicalName作為Key,從NotifyCenter#publisherMap中獲取對應(yīng)的事件發(fā)布者(EventPublisher); 
  10.     EventPublisher publisher = INSTANCE.publisherMap.get(topic); 
  11.     if (publisher != null) { 
  12.         // EventPublisher將InstancesChangeEvent事件進行發(fā)布。 
  13.         return publisher.publish(event); 
  14.     } 
  15.     LOGGER.warn("There are no [{}] publishers for this event, please register", topic); 
  16.     return false

上述代碼中的INSTANCE為NotifyCenter的單例模式實現(xiàn)。那么,這里的publisherMap中key(CanonicalName)和value(EventPublisher)之間的關(guān)系是什么時候建立的呢?

這個是在NacosNamingService實例化時調(diào)用init方法中進行綁定的:

  1. // Publisher的注冊過程在于建立InstancesChangeEvent.class與EventPublisher的關(guān)系。 
  2. NotifyCenter.registerToPublisher(InstancesChangeEvent.class, 16384); 

registerToPublisher方法默認(rèn)采用了DEFAULT_PUBLISHER_FACTORY來進行構(gòu)建。

  1. public static EventPublisher registerToPublisher(final Class<? extends Event> eventType, final int queueMaxSize) { 
  2.     return registerToPublisher(eventType, DEFAULT_PUBLISHER_FACTORY, queueMaxSize); 

如果查看NotifyCenter中靜態(tài)代碼塊,會發(fā)現(xiàn)DEFAULT_PUBLISHER_FACTORY默認(rèn)構(gòu)建的EventPublisher為DefaultPublisher。

至此,我們得知,在NotifyCenter中它維護了事件名稱和事件發(fā)布者的關(guān)系,而默認(rèn)的事件發(fā)布者為DefaultPublisher。

DefaultPublisher的事件發(fā)布

查看DefaultPublisher的源碼,會發(fā)現(xiàn)它繼承自Thread,也就是說它是一個線程類。同時,它又實現(xiàn)了EventPublisher,也就是我們前面提到的發(fā)布者。

  1. public class DefaultPublisher extends Thread implements EventPublisher {} 

在DefaultPublisher的init方法實現(xiàn)如下:

  1. @Override 
  2. public void init(Class<? extends Event> type, int bufferSize) { 
  3.     // 守護線程 
  4.     setDaemon(true); 
  5.     // 設(shè)置線程名字 
  6.     setName("nacos.publisher-" + type.getName()); 
  7.     this.eventType = type; 
  8.     this.queueMaxSize = bufferSize; 
  9.     // 阻塞隊列初始化 
  10.     this.queue = new ArrayBlockingQueue<>(bufferSize); 
  11.     start(); 

也就是說,當(dāng)DefaultPublisher被初始化時,是以守護線程的方式運作的,其中還初始化了一個阻塞隊列,隊列的默認(rèn)大小為16384。

最后調(diào)用了start方法:

  1. @Override 
  2. public synchronized void start() { 
  3.     if (!initialized) { 
  4.         // start just called once 
  5.         super.start(); 
  6.         if (queueMaxSize == -1) { 
  7.             queueMaxSize = ringBufferSize; 
  8.         } 
  9.         initialized = true
  10.     } 

start方法中調(diào)用了super.start,此時等于啟動了線程,會執(zhí)行對應(yīng)的run方法。

run方法中只調(diào)用了如下方法:

  1. void openEventHandler() { 
  2.     try { 
  3.  
  4.         // This variable is defined to resolve the problem which message overstock in the queue. 
  5.         int waitTimes = 60; 
  6.         // for死循環(huán)不斷的從隊列中取出Event,并通知訂閱者Subscriber執(zhí)行Event 
  7.         // To ensure that messages are not lost, enable EventHandler when 
  8.         // waiting for the first Subscriber to register 
  9.         for (; ; ) { 
  10.             if (shutdown || hasSubscriber() || waitTimes <= 0) { 
  11.                 break; 
  12.             } 
  13.             ThreadUtils.sleep(1000L); 
  14.             waitTimes--; 
  15.         } 
  16.  
  17.         for (; ; ) { 
  18.             if (shutdown) { 
  19.                 break; 
  20.             } 
  21.             // // 從隊列取出Event 
  22.             final Event event = queue.take(); 
  23.             receiveEvent(event); 
  24.             UPDATER.compareAndSet(this, lastEventSequence, Math.max(lastEventSequence, event.sequence())); 
  25.         } 
  26.     } catch (Throwable ex) { 
  27.         LOGGER.error("Event listener exception : ", ex); 
  28.     } 

這里寫了兩個死循環(huán),第一個死循環(huán)可以理解為延時效果,也就是說線程啟動時最大延時60秒,在這60秒中每隔1秒判斷一下當(dāng)前線程是否關(guān)閉,是否有訂閱者,是否超過60秒。如果滿足一個條件,就可以提前跳出死循環(huán)。

而第二個死循環(huán)才是真正的業(yè)務(wù)邏輯處理,會從阻塞隊列中取出一個事件,然后通過receiveEvent方法進行執(zhí)行。

那么,隊列中的事件哪兒來的呢?此時,你可能已經(jīng)想到剛才DefaultPublisher的發(fā)布事件方法被調(diào)用了。來看看它的publish方法實現(xiàn):

  1. @Override 
  2. public boolean publish(Event event) { 
  3.     checkIsStart(); 
  4.     boolean success = this.queue.offer(event); 
  5.     if (!success) { 
  6.         LOGGER.warn("Unable to plug in due to interruption, synchronize sending time, event : {}", event); 
  7.         receiveEvent(event); 
  8.         return true
  9.     } 
  10.     return true

可以看到,DefaultPublisher的publish方法的確就是往阻塞隊列中存入事件。這里有個分支邏輯,如果存入失敗,會直接調(diào)用receiveEvent,和從隊列中取出事件執(zhí)行的方法一樣??梢岳斫鉃?,如果向隊列中存入失敗,則立即執(zhí)行,不走隊列了。

最后,再來看看receiveEvent方法的實現(xiàn):

  1. void receiveEvent(Event event) { 
  2.     final long currentEventSequence = event.sequence(); 
  3.  
  4.     if (!hasSubscriber()) { 
  5.         LOGGER.warn("[NotifyCenter] the {} is lost, because there is no subscriber."); 
  6.         return
  7.     } 
  8.  
  9.     // 通知訂閱者執(zhí)行Event 
  10.     // Notification single event listener 
  11.     for (Subscriber subscriber : subscribers) { 
  12.         // Whether to ignore expiration events 
  13.         if (subscriber.ignoreExpireEvent() && lastEventSequence > currentEventSequence) { 
  14.             LOGGER.debug("[NotifyCenter] the {} is unacceptable to this subscriber, because had expire"
  15.                     event.getClass()); 
  16.             continue
  17.         } 
  18.  
  19.         // Because unifying smartSubscriber and subscriber, so here need to think of compatibility. 
  20.         // Remove original judge part of codes. 
  21.         notifySubscriber(subscriber, event); 
  22.     } 

這里最主要的邏輯就是遍歷DefaultPublisher的subscribers(訂閱者集合),然后執(zhí)行通知訂閱者的方法。

那么有朋友要問了這subscribers中的訂閱者哪里來的呢?這個還要回到NacosNamingService的init方法中:

  1. // 將Subscribe注冊到Publisher 
  2. NotifyCenter.registerSubscriber(changeNotifier); 

該方法最終會調(diào)用NotifyCenter的addSubscriber方法:

  1. private static void addSubscriber(final Subscriber consumer, Class<? extends Event> subscribeType, 
  2.         EventPublisherFactory factory) { 
  3.  
  4.     final String topic = ClassUtils.getCanonicalName(subscribeType); 
  5.     synchronized (NotifyCenter.class) { 
  6.         // MapUtils.computeIfAbsent is a unsafe method. 
  7.         MapUtil.computeIfAbsent(INSTANCE.publisherMap, topic, factory, subscribeType, ringBufferSize); 
  8.     } 
  9.     // 獲取時間對應(yīng)的Publisher 
  10.     EventPublisher publisher = INSTANCE.publisherMap.get(topic); 
  11.     if (publisher instanceof ShardedEventPublisher) { 
  12.         ((ShardedEventPublisher) publisher).addSubscriber(consumer, subscribeType); 
  13.     } else { 
  14.         // 添加到subscribers集合 
  15.         publisher.addSubscriber(consumer); 
  16.     } 

其中核心邏輯就是將訂閱事件、發(fā)布者、訂閱者三者進行綁定。而發(fā)布者與事件通過Map進行維護、發(fā)布者與訂閱者通過關(guān)聯(lián)關(guān)系進行維護。

發(fā)布者找到了,事件也有了,最后看一下notifySubscriber方法:

  1. @Override 
  2. public void notifySubscriber(final Subscriber subscriber, final Event event) { 
  3.  
  4.     LOGGER.debug("[NotifyCenter] the {} will received by {}", event, subscriber); 
  5.     // 執(zhí)行訂閱者Event 
  6.     final Runnable job = () -> subscriber.onEvent(event); 
  7.     final Executor executor = subscriber.executor(); 
  8.  
  9.     if (executor != null) { 
  10.         executor.execute(job); 
  11.     } else { 
  12.         try { 
  13.             job.run(); 
  14.         } catch (Throwable e) { 
  15.             LOGGER.error("Event callback exception: ", e); 
  16.         } 
  17.     } 

邏輯比較簡單,如果訂閱者定義了Executor,那么使用它定義的Executor進行事件的執(zhí)行,如果沒有,那就創(chuàng)建一個線程進行執(zhí)行。

至此,整個服務(wù)訂閱的事件機制完成。

小結(jié)

整體來看,整個服務(wù)訂閱的事件機制還是比較復(fù)雜的,因為用到了事件的形式,邏輯就比較繞,而且這期間還摻雜了守護線程,死循環(huán),阻塞隊列等。需要重點理解NotifyCenter對事件發(fā)布者、事件訂閱者和事件之間關(guān)系的維護,而這一關(guān)系的維護的入口就位于NacosNamingService的init方法當(dāng)中。

下面再梳理一下幾個核心流程:

ServiceInfoHolder中通過NotifyCenter發(fā)布了InstancesChangeEvent事件;

NotifyCenter中進行事件發(fā)布,發(fā)布的核心邏輯是:

  • 根據(jù)InstancesChangeEvent事件類型,獲得對應(yīng)的CanonicalName;
  • 將CanonicalName作為Key,從NotifyCenter#publisherMap中獲取對應(yīng)的事件發(fā)布者(EventPublisher);
  • EventPublisher將InstancesChangeEvent事件進行發(fā)布。
  • InstancesChangeEvent事件發(fā)布:

通過EventPublisher的實現(xiàn)類DefaultPublisher進行InstancesChangeEvent事件發(fā)布;

  • DefaultPublisher本身以守護線程的方式運作,在執(zhí)行業(yè)務(wù)邏輯前,先判斷該線程是否啟動;
  • 如果啟動,則將事件添加到BlockingQueue中,隊列默認(rèn)大小為16384;
  • 添加到BlockingQueue成功,則整個發(fā)布過程完成;
  • 如果添加失敗,則直接調(diào)用DefaultPublisher#receiveEvent方法,接收事件并通知訂閱者;
  • 通知訂閱者時創(chuàng)建一個Runnable對象,執(zhí)行訂閱者的Event。
  • Event事件便是執(zhí)行訂閱時傳入的事件;

如果添加到BlockingQueue成功,則走另外一個業(yè)務(wù)邏輯:

  • DefaultPublisher初始化時會創(chuàng)建一個阻塞(BlockingQueue)隊列,并標(biāo)記線程啟動;
  • DefaultPublisher本身是一個Thread,當(dāng)執(zhí)行super.start方法時,會調(diào)用它的run方法;
  • run方法的核心業(yè)務(wù)邏輯是通過openEventHandler方法處理的;
  • openEventHandler方法通過兩個for循環(huán),從阻塞隊列中獲取時間信息;
  • 第一個for循環(huán)用于讓線程啟動時在60s內(nèi)檢查執(zhí)行條件;
  • 第二個for循環(huán)為死循環(huán),從阻塞隊列中獲取Event,并調(diào)用DefaultPublisher#receiveEvent方法,接收事件并通知訂閱者;
  • Event事件便是執(zhí)行訂閱時傳入的事件;

 

關(guān)于Nacos Client服務(wù)定義的事件機制就將這么多,下篇我們來講講故障轉(zhuǎn)移和緩存的實現(xiàn)。

 

責(zé)任編輯:武曉燕 來源: 程序新視界
相關(guān)推薦

2021-08-12 06:52:01

Nacos服務(wù)機制

2010-08-04 13:52:53

Flex事件機制

2020-12-23 07:37:17

瀏覽器HTML DOM0

2025-05-28 08:35:00

Nacos服務(wù)訂閱流程開發(fā)

2022-05-14 22:27:40

Nacos訂閱機制定時器

2022-05-19 07:39:43

Nacos訂閱機制線程類

2015-11-06 13:59:01

JavaScript事件處理

2021-08-10 07:00:00

Nacos Clien服務(wù)分析

2010-05-25 12:59:00

Subversion

2011-04-25 09:22:44

C#事件

2017-06-12 10:31:17

Redis源碼學(xué)習(xí)事件驅(qū)動

2011-08-11 13:53:45

JavaScript

2011-04-26 08:56:31

C#

2023-11-01 08:22:07

Spring發(fā)布器源對象

2011-08-02 17:58:09

iPhone開發(fā) 事件

2010-03-02 16:28:11

WCF發(fā)布訂閱

2021-05-27 22:46:00

Nacos Clien版本Nacos

2009-08-06 13:08:23

ASP.NET控件開發(fā)

2009-08-10 15:26:46

ASP.NET組件編程

2023-01-05 09:03:00

事件訂閱監(jiān)聽器函數(shù)
點贊
收藏

51CTO技術(shù)棧公眾號

色屁屁www国产馆在线观看| 少妇高潮av久久久久久| 另类视频一区二区三区| 一区二区三区免费| 精品久久一区二区三区蜜桃| 无码人妻av一区二区三区波多野| 久久免费大视频| 日韩欧美成人一区二区| 日本黄网站免费| 黄黄的网站在线观看| 91亚洲资源网| 91亚洲国产成人久久精品网站| 国产精品成人av久久| 成久久久网站| 亚洲精品福利在线观看| 欧美午夜精品理论片| 涩涩视频在线免费看| 中文字幕在线不卡视频| 久久99九九| 国产男男gay体育生白袜| 亚洲欧美日本国产专区一区| 久久久国产成人精品| 一级性生活毛片| 精品视频成人| 欧美日本韩国一区| 日韩在线视频在线观看| 日本天码aⅴ片在线电影网站| 国产午夜精品久久久久久久| 91亚洲国产精品| 艳妇乳肉豪妇荡乳av无码福利| 亚洲国产裸拍裸体视频在线观看乱了中文 | 视频在线99re| 亚洲 另类 春色 国产| 韩国av一区二区三区四区| 18久久久久久| 国产一国产二国产三| 99精品视频在线| 在线播放日韩av| av直播在线观看| 国产在线播放精品| 精品国产一区久久| 中文字幕一二三区| 国产一区二区三区免费在线| 欧美日韩一区二区三区高清| 无遮挡又爽又刺激的视频| 91桃色在线观看| 一区二区不卡在线播放| 米仓穗香在线观看| 国产美女在线观看| 亚洲青青青在线视频| 亚洲国产精品视频一区| 不卡在线视频| 国产女主播视频一区二区| 欧美精品v日韩精品v国产精品| 婷婷五月综合激情| 粉嫩av亚洲一区二区图片| 亚洲伊人第一页| 国产普通话bbwbbwbbw| 久久精品国产色蜜蜜麻豆| 国产精品免费一区豆花| 欧美 亚洲 另类 激情 另类| 日本欧美一区二区| 国产在线拍揄自揄视频不卡99| 亚洲天堂男人网| 美女www一区二区| 国产精品丝袜白浆摸在线| 亚洲综合五月天婷婷丁香| 美女视频一区二区| 成人免费大片黄在线播放| 99久久国产免费| 高清在线观看日韩| 精品国产91亚洲一区二区三区www 精品国产_亚洲人成在线 | 国产精品青草久久久久福利99| 日韩电影在线观看一区二区| 日韩精品一二三区| 国产精品一区电影| 国产青青草视频| 成人一区二区在线观看| 久久久久久久久四区三区| 岛国大片在线观看| 国产精品久久久久久久久图文区| av不卡在线免费观看| 美女精品导航| 日韩欧美国产骚| 手机av在线网| 丁香五月缴情综合网| 亚洲女人被黑人巨大进入al| 国产传媒视频在线| 国产精品v日韩精品v欧美精品网站 | 欧美精品18+| 国模大尺度视频| 久久夜色精品国产噜噜av小说| 亚洲欧洲国产一区| 神马久久精品综合| 中文日韩欧美| 国产欧美一区二区三区久久| 亚洲国产成人在线观看| 久久久久久一级片| 9色视频在线观看| 欧美黑人粗大| 欧美大片在线观看一区二区| 五月天综合视频| 最新国产精品久久久| 欧美最猛性xxxxx免费| 91精品人妻一区二区三区果冻| 成人黄色av电影| 亚洲精品人成| 两个人看的在线视频www| 欧美日韩国产大片| 人妻丰满熟妇av无码久久洗澡| 色呦哟—国产精品| 国产69精品久久久久久| 999久久久久久| 久久综合999| 99久久免费观看| 国产亚洲人成a在线v网站| 亚洲精品久久在线| 欧美日韩在线视频免费播放| 日韩和欧美一区二区三区| 国产成人亚洲欧美| 激情成人四房播| 在线观看日韩高清av| 一级特级黄色片| 亚洲精品成人| 国产日韩在线免费| 黄色毛片在线看| 亚洲成av人综合在线观看| 天天av天天操| 欧美gvvideo网站| 国产成人啪精品视频免费网| 亚欧洲精品视频| 性久久久久久久久久久久| 特黄特黄一级片| 三区四区不卡| 国产久一一精品| 国产区在线视频| 欧美性69xxxx肥| 成人免费毛片日本片视频| 欧美精品首页| 97人人干人人| 欧美性受ⅹ╳╳╳黑人a性爽| 在线不卡的av| 91精品少妇一区二区三区蜜桃臀| 秋霞电影一区二区| 日韩亚洲视频在线| 高清av一区二区三区| 国产亚洲免费的视频看| 免费又黄又爽又猛大片午夜| 久久精品男人天堂av| 免费在线观看日韩视频| 亚洲欧洲美洲国产香蕉| 2019最新中文字幕| 牛牛影视精品影视| 色伊人久久综合中文字幕| 欧美特黄一区二区三区| 国产精品嫩草99av在线| 免费试看一区| 日韩一级二级| 日韩中文理论片| 国产精品久久免费| 一区二区在线观看免费| 师生出轨h灌满了1v1| 亚洲国产专区校园欧美| 精品日本一区二区三区| 韩日成人影院| 中文字幕亚洲欧美日韩在线不卡| 午夜视频网站在线观看| 国产精品美女久久久久av爽李琼| 亚洲va综合va国产va中文| 亚洲激情中文在线| 精品国产乱码久久久久| 午夜日韩成人影院| www国产精品视频| 亚洲国产成人在线观看| 色综合久久99| 调教驯服丰满美艳麻麻在线视频| 久99久精品视频免费观看| 国产激情片在线观看| 久久综合五月婷婷| 国产精品99久久久久久www| 在线免费黄色| 精品日韩在线观看| 日本免费在线观看视频| 中文字幕一区av| 精品人妻二区中文字幕| 久久福利毛片| 国产免费xxx| 先锋影音国产精品| 91免费综合在线| 黄色在线观看www| 在线丨暗呦小u女国产精品| 国产极品久久久| 一本色道久久综合亚洲精品按摩| 免费精品在线视频| caoporn国产精品| 欧美在线aaa| 黄色亚洲免费| 在线视频不卡一区二区三区| 精品国产影院| 成人欧美在线视频| 成人免费短视频| 欧美成人免费播放| 成人欧美一区| 亚洲黄页网在线观看| 国产精品一二三四五区| 色8久久精品久久久久久蜜| 一级黄色录像视频| 国产精品天美传媒| 日韩免费高清一区二区| 国产一区二区在线视频| 能在线观看的av网站| 亚洲国产美女| 欧洲精品视频在线| 日韩视频在线观看| 精品国产乱码久久久久久108| 祥仔av免费一区二区三区四区| 欧美专区福利在线| 白白色在线观看| 欧美精品在线观看91| 亚洲1卡2卡3卡4卡乱码精品| 日韩精品免费在线播放| 亚洲国产av一区二区| 欧美一区二区视频在线观看2020| 波多野结衣一本一道| 天天操天天色综合| 久久老司机精品视频| 亚洲欧洲国产专区| 精品一区二区6| 国产午夜精品一区二区三区视频| 久久久久久久久免费看无码| 高清av一区二区| 黄色一级片免费播放| 久久国产精品色婷婷| 另类小说第一页| 美女黄网久久| 国产成人黄色片| 午夜在线精品| 国产男女激情视频| 国产精品毛片在线| 国产成人精品视频免费看| 日韩毛片一区| 欧美日韩中国免费专区在线看| 久久久久久久久毛片| 亚洲欧美一区二区久久| 日韩欧美视频免费观看| 国产精品视频麻豆| 国产精品麻豆免费版现看视频| 国产精品理论片| 精品视频第一页| 欧美韩国一区二区| a级黄色免费视频| 亚洲丝袜美腿综合| 国产大片免费看| 亚洲综合色在线| www.99re7.com| 午夜精品福利一区二区三区蜜桃| 日韩av无码中文字幕| 午夜国产精品一区| 人妻丰满熟妇av无码区| 在线观看日韩av先锋影音电影院| 中文字幕日本人妻久久久免费 | 97视频一区| 国产一区二区三区奇米久涩| 青青久久av| 欧美一区二区三区四区在线观看地址| 国产精品欧美日韩一区| 亚洲欧美一区二区原创| 911久久香蕉国产线看观看| 法国空姐在线观看免费| 影音先锋久久精品| 天天摸天天碰天天添| 日本视频在线一区| 亚洲成人av免费观看| 国产精品77777竹菊影视小说| 国产精品一区二区在线免费观看| 91免费观看在线| 久操视频在线观看免费| 亚洲欧美日韩电影| 偷偷操不一样的久久| 欧美性猛交xxxx黑人交| 国产日韩精品suv| 亚洲精品美女在线观看| 98在线视频| 久久免费视频这里只有精品| 顶臀精品视频www| 亚洲精品老司机| 探花视频在线观看| 欧美日本高清视频在线观看| 丰满少妇高潮在线观看| 亚洲小视频在线观看| 成人在线观看亚洲| 青草青草久热精品视频在线观看| 久久爱.com| 国产精品麻豆免费版| 人人狠狠综合久久亚洲婷婷| 国产制服91一区二区三区制服| 久久经典综合| 国产成人精品综合久久久久99 | 精品国产精品一区二区夜夜嗨| 九色在线观看视频| 欧美国产在线电影| 99久久亚洲国产日韩美女| 国产精品免费一区二区三区在线观看 | 国产一区二区电影| 女~淫辱の触手3d动漫| 亚洲欧美国产77777| 无码人妻一区二区三区线| 欧美成人综合网站| 日本亚洲精品| 国产成人综合亚洲| 国偷自产av一区二区三区| 亚洲在线播放电影| 久久一区中文字幕| 精品无码人妻少妇久久久久久| 国产精品青草综合久久久久99| 国产视频91在线| 日韩欧美国产综合| 免费在线观看av| 国产精品久久久久免费a∨大胸| 国产精品99久久免费观看| 国产香蕉一区二区三区| 秋霞午夜av一区二区三区| 野花社区视频在线观看| 亚洲高清在线视频| www夜片内射视频日韩精品成人| 在线观看久久av| 我爱我色成人网| 欧美区高清在线| 国产日韩亚洲| 日本护士做爰视频| 亚洲成人免费在线| 亚洲欧美激情在线观看| 另类美女黄大片| 婷婷激情成人| 四虎免费在线观看视频| 蜜桃91丨九色丨蝌蚪91桃色| 精品国产成人亚洲午夜福利| 色综合久久99| 黄色影院在线播放| 国产精品大陆在线观看| 国产成人黄色| 日韩欧美在线免费观看视频| 久久精品人人爽人人爽| 凹凸精品一区二区三区| 一级做a爰片久久毛片美女图片| 在线女人免费视频| 奇米精品在线| 欧美aⅴ一区二区三区视频| 日韩黄色中文字幕| 欧美日韩精品一区二区| 免费网站成人| 91精品在线国产| 欧美日韩精品| 超级砰砰砰97免费观看最新一期 | 噜噜噜久久亚洲精品国产品麻豆| av中文字幕亚洲| 国产区在线观看视频| 亚洲欧美日韩在线一区| 韩日精品一区| 亚洲自拍偷拍一区二区三区| 国产精品99久久久久久宅男| 麻豆chinese极品少妇| 日韩电影免费观看中文字幕 | 成人网欧美在线视频| 在线中文一区| 亚洲一区二区三区四区五区六区 | 99在线观看精品视频| 欧美激情一区二区三区在线视频观看| 国产精品一区二区三区美女| 久久综合色视频| 日本一区二区三区免费乱视频| 在线观看免费观看在线| 欧美成人剧情片在线观看| 日本中文字幕在线一区| 无码人妻精品一区二区三区66| 国产精品无遮挡| 亚洲精品无码久久久| 91黑丝在线观看| 日韩精品不卡一区二区| 夜夜夜夜夜夜操| 精品国产鲁一鲁一区二区张丽 | 欧美激情一区二区三区蜜桃视频| 国产精品一级视频| 性欧美在线看片a免费观看| 国内亚洲精品| 伊人av在线播放| 日本韩国欧美国产| 亚洲无线看天堂av| 日本一区高清在线视频| 国产美女精品一区二区三区| 国产精品7777777| 日韩午夜在线视频| 欧美一区 二区| 污污视频在线免费| 欧美伊人精品成人久久综合97| av免费网站在线观看| 日本精品一区二区| 成人高清在线视频| 一级特黄色大片| 日韩美女毛茸茸|