精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

Nacos 服務變更推送流程全解析

開發
本文將從一次服務下線的請求結合并結合源碼分析的方式來講解一下Nacos服務實例狀態變更時是如何實時推送的服務消費者的。

我們以Nacos 2.3.x版本為例,作為服務注冊中心,它的服務注冊和服務下線實時性感知相較于Consul的Raft一致性確認,亦或者Eureka定時拉取同步的機制來說做了很好的折中,既避免了實現的復雜性又能保證較好的實時性,所以本文將從一次服務下線的請求結合并結合源碼分析的方式來講解一下Nacos服務實例狀態變更時是如何實時推送的服務消費者的。

一、項目架構介紹

1. 服務通信流程

這里我們先簡單介紹的一下項目的架構,筆者將基于Nacos的源碼搭建一套基礎的服務注冊中心,然后提供兩個nacos-provider服務作為服務提供者(端口號分別是9001和9002),而nacos-consumer作為服務消費者通過nacos或者nacos-provider的信息發起服務調用。

基于這個架構,我們會嚴格按照如下步驟完成實驗和源碼分析:

  • 將9002端口的服務提供者下線,查看服務提供者如何完成服務下線通知。
  • 查看nacos收到該請求后,內部如何處理該消息,并將消息通知給消費者。
  • 消費者收到該請求后,如何更新本地緩存。

2. 服務提供者查詢接口

這里我們也給出服務提供者nacos-provider的http接口,可以看到該接口會返回當前服務的名稱和端口號:

@GetMapping("/provide")
    public String provide() {
        log.info("請求打到服務提供者provide上");
        Map<String, String> map = new HashMap<>();
        map.put("provider", env.getProperty("spring.application.name"));
        map.put("port", env.getProperty("server.port"));
        return JSONUtil.toJsonStr(map);
    }

3. 服務消費者

而服務消費者也通過feign聲明引入該調用:

@FeignClient(name = "nacos-provider")
public interface NacosProvider {


    @GetMapping("/provide")
    String provide();
}

后續我們就可以通過服務提供者的test接口調用到nacos-provider的provide接口:

@Resource
    private NacosProvider nacosProvider;

    @GetMapping("/test")
    public String test() {
        return nacosProvider.provide();
    }

需要注意的是,nacos-consumer如果沒有顯示調用nacos-provider是不會訂閱該提供者的所有實例信息,所以我們為了方便索性在服務啟動時主動發起訂閱:

@Component
publicclass TestRunner implements CommandLineRunner {

    privatefinalstatic Logger log = LoggerFactory
            .getLogger(TestRunner.class);
    @Override
    public void run(String... args) throws Exception {
        //主動向nacos發起服務訂閱請求
        NamingService naming = NamingFactory.createNamingService("127.0.0.1:8848");
        naming.subscribe("nacos-provider", event -> {
            if (event instanceof NamingEvent) {
                //日志打印監聽到的服務名稱和結果
                log.info("監聽到服務名稱:{},實例信息:{}", ((NamingEvent) event).getServiceName(),
                        ((NamingEvent) event).getInstances());
            }

        });
    }
}

二、基于服務提供者下線詳解Nacos實例狀態推送

1. 服務提供者優雅關閉并推送服務下線消息

基于上述架構,我們通過IDEA將9002的服務提供者關閉,注意如果用IDEA停止按鈕操作就會斷開調試的連接,我們就無法調試服務下線的源碼,正確是做法是如下代碼的方式主動獲取啟動時的上下文通過close方法顯示關閉:

@SpringBootApplication
@EnableDiscoveryClient
public class NacosProviderApplication {

    public static void main(String[] args) {
        ConfigurableApplicationContext context = SpringApplication.run(NacosProviderApplication.class, args);
        //主動將springboot容器關閉
        context.close();
    }

}

Spring上下文close方法執行關閉操作,此時spring就會遍歷所有的虛擬機鉤子即shutdown hook,對應我們的服務提供者在啟動時注冊的shutdown Hook即NacosAutoServiceRegistration的close方法就會發起服務下線請求,一旦完成服務下線請求通知之后,服務提供者就會銷毀RPC連接以及所有工作線程:

對應的我給出這個close方法的入口,因為NacosAutoServiceRegistration繼承自AbstractAutoServiceRegistration,所以它繼承了這個抽象類的shutdown hook方法destroy,這就使得spring boot容器關閉后,就會觸發下面這個方法:

@PreDestroy
 public void destroy() {
  stop();
 }

此時,這個stop方法在進行CAS樂觀鎖狀態修改后,執行如下兩件事:

  • 發起RPC下線請求。
  • 銷毀相關工作線程和nacos維護的RPC連接。
public void stop() {
  if (this.getRunning().compareAndSet(true, false) && isEnabled()) {
  //發起RPC下線請求
   deregister();
   //......
   //銷毀相關工作線程和nacos維護的RPC連接
   this.serviceRegistry.close();
  }
 }

此時deregister會通過getRegistration拿到nacos的元信息,再通過NacosServiceRegistry的deregister發起服務下線請求:

protected void deregister() {
  this.serviceRegistry.deregister(getRegistration());
 }

最終就會走到NacosNamingService的deregisterInstance,很直觀的看到,它通過RPC代理clientProxy傳入服務名、分組、和實例信息并調用deregisterService發起服務下線請求:

@Override
    public void deregisterInstance(String serviceName, String groupName, Instance instance) throws NacosException {
        clientProxy.deregisterService(serviceName, groupName, instance);
    }

對應我們給出發起調用時傳入的參數信息:

2. Nacos服務端基于RPC推送服務下線

隨后Nacos服務端GrpcRequestAcceptor收到該請求后,流程比較長,執行如下步驟:

  • 基于請求定位到處理器RequestHandler以服務下線為例就是InstanceRequestHandler。
  • InstanceRequestHandler發布一個ClientDeregisterServiceEvent事件,交由NotifyCenter投遞到任務隊列中。
  • NamingEventPublisher從隊列獲取到這個任務之后,找到ClientServiceIndexesManager處理該事件。
  • ClientServiceIndexesManager還是發布一個ServiceChangedEvent到上述的阻塞隊列中。
  • NamingSubscriberServiceV2Impl將其封成一個延遲任務提交到tasks中。

此時有個100ms執行一次的定時器也就是PushDelayTaskExecuteEngine,將任務取出分發給TaskExecuteWorker,這個執行者就會生成RPC請求將服務狀態變更通知給所有服務消費者。

總體來說,Nacos服務端收到下線請求后,為避免下線通知影響服務端整體性能,其內部設計了一套非常好的事件通知訂閱模型,當服務端收到請求后,其內部會根據請求類型找到相應的處理器發布事件,讓對應的訂閱者異步處理該消息。基于該消息最終會封裝成指定類型的任務,提交到工作線程池中的某個worker的隊列中讓其異步消費,由此種大量解耦結合線程池的方式基于了nacos服務端最大的吞吐量和調優空間。

對應的我們也給出整體的業務流程圖,讀者可以參考該圖了解一下全過程:

對應我們找到GrpcRequestAcceptor的request方法,可以看到它會基于該請求找到對應的處理器,然后調用處理器的handleRequest方法處理該請求:

@Override
    public void request(Payload grpcRequest, StreamObserver<Payload> responseObserver) {
        
        traceIfNecessary(grpcRequest, true);
        //需要使用的服務器類型,例如服務下線就是 InstanceRequest
        String type = grpcRequest.getMetadata().getType();
        long startTime = System.nanoTime();
        
        //......
        //基于type到容器中獲取到響應的處理器
        RequestHandler requestHandler = requestHandlerRegistry.getByRequestType(type);
        //......
        Request request = (Request) parseObj;
        try {
         //組裝連接信息
            Connection connection = connectionManager.getConnection(GrpcServerConstants.CONTEXT_KEY_CONN_ID.get());
            RequestMeta requestMeta = new RequestMeta();
            requestMeta.setClientIp(connection.getMetaInfo().getClientIp());
            requestMeta.setConnectionId(GrpcServerConstants.CONTEXT_KEY_CONN_ID.get());
            requestMeta.setClientVersion(connection.getMetaInfo().getVersion());
            requestMeta.setLabels(connection.getMetaInfo().getLabels());
            requestMeta.setAbilityTable(connection.getAbilityTable());
            connectionManager.refreshActiveTime(requestMeta.getConnectionId());
            //實際處理rpc請求的方法
            Response response = requestHandler.handleRequest(request, requestMeta);
           //......
        } catch (Throwable e) {
          //......
        }
        
    }

于是就找到了InstanceRequestHandler,該方法就會通過clientOperationService(也就是EphemeralClientOperationServiceImpl)發布ClientDeregisterServiceEvent事件:

private InstanceResponse deregisterInstance(Service service, InstanceRequest request, RequestMeta meta) {
//基于ClientDeregisterServiceEvent發布服務下線事件
        clientOperationService.deregisterInstance(service, request.getInstance(), meta.getConnectionId());
        //.....
        
    }

隨后NamingEventPublisher收到該事件后調用handleEvent找到對應的事件處理器處理器該事件:

private void handleEvents() {
        while (!shutdown) {
            try {
            //取出上述的任務
                final Event event = queue.take();
                handleEvent(event);//處理發布的事件
            } catch (InterruptedException e) {
              //......
            }
        }
    }

如下便是筆者的調試記錄,可以看到服務下線事件定位到了ClientServiceIndexesManager這個管理器進行處理:

于是就來到了ClientServiceIndexesManager的onEvent方法,再次發布一個ServiceChangedEvent事件到上述提到的同一個阻塞隊列中:

@Override
    public void onEvent(Event event) {
        if (event instanceof ClientOperationEvent.ClientReleaseEvent) {
            handleClientDisconnect((ClientOperationEvent.ClientReleaseEvent) event);
        } elseif (event instanceof ClientOperationEvent) {//處理服務注冊或者下線后的事件
            handleClientOperation((ClientOperationEvent) event);
        }
    }
    
    
    private void handleClientOperation(ClientOperationEvent event) {
        Service service = event.getService();
        String clientId = event.getClientId();
        if (event instanceof ClientOperationEvent.ClientRegisterServiceEvent) {//處理服務注冊事件,實際上就是發布一個ServiceChangedEvent事件
            addPublisherIndexes(service, clientId);
        } elseif (event instanceof ClientOperationEvent.ClientDeregisterServiceEvent) { //......
        } elseif (event instanceof ClientOperationEvent.ClientSubscribeServiceEvent) {
        //......
        } elseif (event instanceof ClientOperationEvent.ClientUnsubscribeServiceEvent) {
            //......
        }
    }

隊列會通知NamingSubscriberServiceV2Impl進行處理,它會將事件推送到延遲隊列中,這個隊列內部是采用并發安全的ConcurrentHashMap進行管理。

@Override
    public void onEvent(Event event) {
        if (event instanceof ServiceEvent.ServiceChangedEvent) {//給客戶端的服務改變事件
            // If service changed, push to all subscribers.
            ServiceEvent.ServiceChangedEvent serviceChangedEvent = (ServiceEvent.ServiceChangedEvent) event;
            Service service = serviceChangedEvent.getService();
            //將處理事件推送到隊列中
            delayTaskEngine.addTask(service, new PushDelayTask(service, PushConfig.getInstance().getPushTaskDelay()));
            MetricsMonitor.incrementServiceChangeCount(service);
        } else if (event instanceof ServiceEvent.ServiceSubscribedEvent) {
            //......
        }
    }

任務提交之后就會另外一個線程processingExecutor(100ms處理一次)會將其取出后找到任務處理器處理PushDelayTaskExecuteEngine,隨后,這個任務處理引擎將任務交給NacosExecuteTaskExecuteEngine這個任務處理引擎:

protected void processTasks() {//通過remove拿出隊列的數據
        Collection<Object> keys = getAllTaskKeys();
        for (Object taskKey : keys) {
            AbstractDelayTask task = removeTask(taskKey);
             //......
            //找到相應處理器即PushDelayTaskExecuteEngine
            NacosTaskProcessor processor = getProcessor(taskKey);
            try {
                // ReAdd task if process failed
                if (!processor.process(task)) {//PushDelayTaskExecuteEngine將任務交給NacosExecuteTaskExecuteEngine這個任務處理引擎
                    retryFailedTask(taskKey, task);
                }
            } catch (Throwable e) {
               //......
            }
        }
    }

最后PushDelayTaskExecuteEngine會將該任務交給NacosExecuteTaskExecuteEngine中的某個工作線程TaskExecuteWorker的阻塞隊列中,最后TaskExecuteWorker就會取出該任務并消費:

@Override
        public void run() {
            while (!closed.get()) {
                try {
                //取出任務并處理
                    Runnable task = queue.take();
                    long begin = System.currentTimeMillis();
                    task.run();
                   //......
                } catch (Throwable e) {
                    log.error("[TASK-FAILED] " + e, e);
                }
            }
        }
    }

最后這個服務下線的任務即PushExecuteTask就會遍歷所有客戶端并通知它們nacos-provider下線:

@Override
    public void run() {
        try {
            PushDataWrapper wrapper = generatePushData();
            ClientManager clientManager = delayTaskEngine.getClientManager();
            for (String each : getTargetClientIds()) {//逐個遍歷客戶端,然后事件推送
                Client client = clientManager.getClient(each);
           //......
           //通過RPC接口推送服務下線通知
                delayTaskEngine.getPushExecutor().doPushWithCallback(each, subscriber, wrapper,
                        new ServicePushCallback(each, subscriber, wrapper.getOriginalData(), delayTask.isPushToAll()));//發起RPC通知消費者
            }
        } catch (Exception e) {
          //......
        }
    }

3. 消費者更新實例緩存

服務消費者RpcClient收到該請求后,會基于請求類型定位到服務端請求處理器,以我們下線通知為例就是NamingPushRequestHandler,由該處理器更新客戶端中記錄9002端口號的服務提供者nacos-provider狀態更新為下線,后續服務消費者看到緩存中記錄的提供不可用時就會調用9001端口號的nacos-provider:

對應的我們給出RpcClient的處理服務端請求的方法handleServerRequest,該方法會遍歷所有的服務端請求處理器,只要有一個處理器處理結果非空,就說明找到相應的處理器處理了,直接將響應結果返回:

protected Response handleServerRequest(final Request request) {
        
       //.....
       //遍歷所有的服務端請求處理器
        for (ServerRequestHandler serverRequestHandler : serverRequestHandlers) {
            try {
            //交給該處理器看看能否處理,若能處理則返回值非空
                Response response = serverRequestHandler.requestReply(request);
                //若非空說明處理完成,直接返回結果
                if (response != null) {
                   //.....
                    return response;
                }
            } catch (Exception e) {
                 //.....
            }
            
        }
        returnnull;
    }

實際上上述的步驟會走到NamingPushRequestHandler處理服務端下線請求,該處理器會調用serviceInfoHolder將請求中的實例信息更新到緩存中,由此保證客戶端可以完成正確的服務調用:

@Override
    public Response requestReply(Request request) {
        if (request instanceof NotifySubscriberRequest) {
            NotifySubscriberRequest notifyRequest = (NotifySubscriberRequest) request;
            //從請求中拿到服務實例信息,并調用processServiceInfo更新緩存
            serviceInfoHolder.processServiceInfo(notifyRequest.getServiceInfo());
            return new NotifySubscriberResponse();
        }
        return null;
    }

最終ServiceInfoHolder的processServiceInfo就會基于入參拿到服務示例信息,并將緩存更新,然后發布一個實例更新的事件并將更新結果持久化到磁盤中:

public ServiceInfo processServiceInfo(ServiceInfo serviceInfo) {
//拿到服務實例緩存
        String serviceKey = serviceInfo.getKey();
        //若為空直接返回
        if (serviceKey == null) {
            returnnull;
        }
        //取出緩存中原有緩存信息
        ServiceInfo oldService = serviceInfoMap.get(serviceInfo.getKey());
       //......
       //基于請求更新緩存
        serviceInfoMap.put(serviceInfo.getKey(), serviceInfo);
        //比對新舊緩存變化
        boolean changed = isChangedServiceInfo(oldService, serviceInfo);
       //......
       //如果緩存發生變化,則發布一個實例更新的事件InstancesChangeEvent,并將更新結果采用零拷貝的方式持久化到磁盤中
        if (changed) {
            //.....
            //發布實例更新事件
            NotifyCenter.publishEvent(new InstancesChangeEvent(notifierEventScope, serviceInfo.getName(), serviceInfo.getGroupName(),
                    serviceInfo.getClusters(), serviceInfo.getHosts()));
            //零拷貝持久化        
            DiskCache.write(serviceInfo, cacheDir);
        }
        return serviceInfo;
    }

對應的我們給出下線9002端口的nacos-provider下線的請求值,可以看到基于這個結果,服務端給出的可用服務實例值僅有9001號端口的nacos-provider,服務消費者基于此信息更新緩存,保證了服務消費的正確性:

三、小結

本文以代碼示例為導向通過源碼的方式完成了Nacos服務實例狀態變更推送的講解,這里筆者也簡單的補充一下個人對于源碼閱讀的一些技巧:

  • 在閱讀源碼前,明確了解項目的設計理念和原理,即對項目有個基礎的認知。
  • 以問題為導向針對性的進行調試理解。
  • 適當查找一些高質量的源碼分析文章,針對性的梳理源碼結構。
  • 如果能夠明確源碼的最終斷點,我們可以采用以終為始的方式,在目標斷點上打住,結合調試的棧幀了解整體調用過程。
  • 調試過程中注意觀察各個類之間的繼承、聚合等關系,以便梳理設計架構和理念。
  • 最后一點,建議直接拉取源碼進行調試,方便注釋。
責任編輯:趙寧寧 來源: 寫代碼的SharkChili
相關推薦

2025-05-28 08:35:00

Nacos服務訂閱流程開發

2025-05-29 08:35:00

Nacos服務注冊開發

2021-09-06 09:46:26

Dubbo 服務端開發

2018-11-28 15:15:52

大數據AI安防

2010-02-06 09:38:42

Android調用服務

2021-08-12 06:52:01

Nacos服務機制

2022-01-14 14:50:14

SpringBootymlJava

2022-01-13 17:24:04

SpringBootYml監聽器

2025-07-02 08:10:01

StarRocks物化視圖MV

2021-04-19 07:57:23

Spring 源碼GetBean

2024-03-18 07:48:00

大語言模型NVIDIA生成式 AI

2024-11-11 09:51:46

Nginx部署負載

2012-05-30 09:26:57

服務器虛擬化

2022-03-11 23:35:53

云計算云變更IT

2010-12-16 11:03:07

2025-08-29 01:11:00

2020-06-05 13:37:17

網絡安全技術

2022-07-01 07:41:03

ZookeeperEurekaConsul

2019-07-28 21:05:47

ICMPIP網絡協議

2011-02-22 15:51:41

點贊
收藏

51CTO技術棧公眾號

一级黄色录像大片| 久久久久久成人网| 中老年在线免费视频| 91麻豆.com| 国产视频999| 国产性70yerg老太| 国产成人一区| 欧美一区二区黄色| 无码熟妇人妻av在线电影| 免费理论片在线观看播放老| 日本美女视频一区二区| 欧美成人全部免费| 色呦呦一区二区| **欧美日韩在线| 婷婷久久综合九色综合绿巨人| 日韩av大全| 欧美熟妇交换久久久久久分类| 国产精品久久久久久久av大片| 黄色成人在线网址| 亚洲主播在线观看| 欧美日本韩国国产| 国产美女自慰在线观看| 国产精品视频久久一区| 久久精品国产成人| 一本色道综合久久欧美日韩精品| av在线国产精品| 精品毛片三在线观看| 国产精品jizz在线观看老狼| 欧美色18zzzzxxxxx| 国产在线视频一区二区| 国产91精品青草社区| 欧美黑人猛猛猛| 精品久久久亚洲| 亚洲国产欧美一区二区三区同亚洲| 艹b视频在线观看| 亚洲日本天堂| 亚洲成av人片在线观看| 正在播放国产精品| 第三区美女视频在线| 91丨九色丨黑人外教| 成人在线精品视频| 中文字幕欧美在线观看| 午夜在线精品偷拍| 久久久久久久av| 欧美爱爱小视频| 亚洲精品二区三区| 日韩视频在线观看免费| 最新中文字幕av| 综合伊思人在钱三区| 亚洲精品美女久久久| 少妇熟女视频一区二区三区| 日韩精品第二页| 欧美性色黄大片手机版| 激情五月亚洲色图| 欧美free嫩15| 一本色道久久综合亚洲91| 免费看国产曰批40分钟| av在线私库| 亚洲成av人片一区二区梦乃| 亚洲熟妇无码另类久久久| 韩日毛片在线观看| 性做久久久久久久久| 久久久久久久久久网| 九色porny丨首页入口在线| 午夜视频在线观看一区| 日韩黄色片在线| 国产三级伦理在线| 五月婷婷久久丁香| 欧美日韩激情视频在线观看| 性爽视频在线| 91国产精品成人| 99sesese| 国产在线不卡一区二区三区| 日韩精品一区二区三区在线| 手机免费看av片| 日韩高清一级| 一区二区福利视频| 色哟哟一一国产精品| 亚洲综合激情在线| 久久全球大尺度高清视频| 久久艹免费视频| 老司机精品视频网站| 国产精品日韩久久久久| 国产精品伦理一区| 成人性生交大合| 久久精品99| www.国产精品.com| 亚洲精品国产精华液| 免费国产a级片| 欧美精选视频一区二区| 欧美日韩第一区日日骚| 无码人妻一区二区三区一| 久久精品色播| 最近2019年中文视频免费在线观看 | 激情亚洲成人| 欧美与黑人午夜性猛交久久久| 欧美国产一级片| 国产一区二区影院| 九九九九精品九九九九| 毛片免费不卡| 精品国产老师黑色丝袜高跟鞋| 在线免费视频a| 天堂va欧美ⅴa亚洲va一国产| 日韩禁在线播放| 少妇高潮在线观看| 国产亚洲欧洲| 91夜夜揉人人捏人人添红杏| 五月婷婷深深爱| 1区2区3区欧美| 国产在线青青草| 清纯唯美激情亚洲| 在线播放国产精品| 日本在线视频免费| 韩国av一区二区| 欧美性bbwbbwbbwhd| 97caopron在线视频| 欧美视频在线视频| 国产免费无码一区二区| 婷婷亚洲五月色综合| 欧美一级免费看| 亚洲黄色小说网| 中文字幕亚洲区| 97av视频在线观看| 激情av综合| 久久国产色av| 最近中文字幕在线观看| 91视频你懂的| 亚洲精品无码国产| 年轻的保姆91精品| 久久精品久久久久久国产 免费| 黄色在线免费观看| 波多野洁衣一区| 久久香蕉视频网站| 色999久久久精品人人澡69 | 午夜激情视频在线观看| 一本一本久久a久久精品综合麻豆| 国内自拍偷拍视频| 一区二区三区四区电影| 国产美女搞久久| 国产原创av在线| 色综合天天天天做夜夜夜夜做| 中文字幕一区二区三区人妻在线视频 | 欧美裸体bbwbbwbbw| 永久免费毛片在线观看| 日韩精品亚洲专区| 欧美一级片免费观看| 亚洲风情在线资源| 日韩精品在线观看网站| 国产系列精品av| 成人av网址在线| 精品少妇人欧美激情在线观看| 日本精品国产| 欧美精品一区在线播放| 国产欧美日韩综合精品一区二区三区| 中文成人综合网| 91国产精品视频在线观看| 国产一区二区在线| 国产精品久久久久久亚洲影视 | 日韩一级性生活片| 99re8这里有精品热视频免费| 欧美贵妇videos办公室| 性中国xxx极品hd| 天天影视涩香欲综合网| av网站免费在线播放| 久久福利一区| 亚洲a∨一区二区三区| 成人国产精品一区二区免费麻豆| 日韩中文字幕精品| 国产人妻精品一区二区三| 一区二区三区日韩在线观看| 最新中文字幕日本| 99xxxx成人网| 日韩精品极品视频在线观看免费| 电影一区二区| 久久中文字幕在线| 成人久久精品人妻一区二区三区| 亚洲成人免费在线观看| 素人fc2av清纯18岁| 日韩国产成人精品| 免费成人深夜夜行网站视频| 6080成人| 国产精国产精品| 大片免费在线看视频| 亚洲精品一区二区三区蜜桃下载 | 国产一区久久精品| 精品乱人伦小说| 无码人妻一区二区三区免费| 国产精品久久久久久户外露出| japan高清日本乱xxxxx| 亚洲综合二区| 杨幂一区欧美专区| a看欧美黄色女同性恋| 国产成+人+综合+亚洲欧美丁香花| 日本在线观看网站| 亚洲第一天堂av| 中文字幕在线观看高清| 亚洲香肠在线观看| 久久久久亚洲av无码a片| 国产精品中文欧美| av无码精品一区二区三区| 中文字幕av亚洲精品一部二部| 免费精品视频一区二区三区| 国产精品3区| 欧美最近摘花xxxx摘花| 免费的黄网站在线观看| 日韩大片免费观看视频播放 | 亚洲精品一区二区三区四区高清| 青青国产在线视频| 一区二区三区 在线观看视频| 中国毛片在线观看| 国产91高潮流白浆在线麻豆| 天天操天天摸天天爽| 亚洲一本视频| 一区二区在线观| 亚洲桃色综合影院| 91久久精品www人人做人人爽| 欧美电影免费观看| 欧美精品福利视频| 国产在线激情视频| 亚洲视频在线观看视频| 人妻偷人精品一区二区三区| 5月丁香婷婷综合| 懂色av中文字幕| 欧美日韩国产专区| 精品午夜福利在线观看| 亚洲色欲色欲www| 国产极品视频在线观看| 久久日韩精品一区二区五区| 99精品一区二区三区无码吞精| 极品尤物av久久免费看| 蜜臀久久99精品久久久酒店新书| 在线视频精品| 国产精品一线二线三线| 国内视频精品| 色一情一乱一乱一区91| 久久久久久美女精品| 亚洲蜜桃av| 欧美中文一区二区| 日本成人黄色| 国产不卡一区| 免费一区二区三区| 看全色黄大色大片免费久久久| 99在线观看视频| 精品一区二区三区视频在线播放| 国产免费一区视频观看免费| 视频精品导航| 国产精品视频公开费视频| 刘亦菲一区二区三区免费看| 日本久久久久久久| 中文字幕成在线观看| 欧美一区二三区| 高清不卡av| 日韩av高清不卡| 国精产品一区二区三区有限公司| 日本成人黄色片| 成年美女黄网站色大片不卡| 国产91精品青草社区| 台湾佬中文娱乐久久久| 国产z一区二区三区| julia一区二区三区中文字幕| 国产精品免费观看在线| 日韩欧乱色一区二区三区在线| 成人高h视频在线| 成人激情久久| 成人自拍网站| 神马香蕉久久| 日韩欧美亚洲日产国| 久久国产影院| 无码人妻精品一区二区蜜桃百度| 国内精品美女在线观看| 91免费视频网站在线观看| 老司机午夜精品视频| 性猛交ⅹ×××乱大交| 国产一区二区剧情av在线| 制服丝袜av在线| 97se亚洲国产综合在线| 国产视频不卡在线| 亚洲情趣在线观看| 99精品视频99| 欧美在线看片a免费观看| 国产农村老头老太视频| 亚洲精品国产欧美| 大胆av不用播放器在线播放| 另类少妇人与禽zozz0性伦| 啊啊啊久久久| 国产精品久久久久久久久借妻 | 91精品国产一区二区人妖| 亚洲高清视频在线播放| 亚洲欧美日韩区| 精品51国产黑色丝袜高跟鞋| 欧美精品激情blacked18| 性感美女一区二区在线观看| 91精品综合视频| 蜜桃久久久久| 亚洲欧洲精品一区| 亚洲日韩视频| 色天使在线观看| 99久久er热在这里只有精品15 | 99日在线视频| 99久久婷婷国产综合精品电影 | 亚洲精品国产精品乱码不卡| 亚洲欧美激情一区| 四虎av在线| 国产精品美女久久| 女人抽搐喷水高潮国产精品| 正在播放久久| 天堂va蜜桃一区二区三区| 久久久久99人妻一区二区三区| 国产日韩欧美综合一区| 日韩欧美三级在线观看| 欧美精品在线一区二区| 噜噜噜在线观看播放视频| 中文字幕亚洲字幕| 成人免费看黄| 国产一区二区精品在线| 欧美在线播放| 自拍偷拍一区二区三区四区| 91蝌蚪porny九色| 久久久久久久蜜桃| 7777精品伊人久久久大香线蕉的 | 91玉足脚交白嫩脚丫在线播放| 五月综合色婷婷| 欧美亚洲一区二区在线| 天堂91在线| 欧美激情视频三区| 成人在线分类| 在线观看国产一区| 免费在线观看不卡| 白白色免费视频| 欧美日韩激情网| 天天干视频在线| 久久99久久99精品中文字幕 | av软件在线观看| 成人国产在线激情| 日韩欧美一区二区三区免费看| 男人天堂999| 久久午夜老司机| 欧美三级午夜理伦| 亚洲激情电影中文字幕| av中文字幕电影在线看| 99国精产品一二二线| 中国成人一区| 波多野结衣网页| 亚洲婷婷综合色高清在线| 国产一区二区三区三州| www.日韩.com| 99久热在线精品视频观看| 青青草原国产免费| 久久99精品久久久久婷婷| 中文字幕美女视频| 51精品秘密在线观看| 黄色网页在线免费观看| 91免费精品国偷自产在线| 亚洲最新av| 91精品人妻一区二区三区蜜桃2 | 青少年xxxxx性开放hg| 免费av网站大全久久| 久久精品在线观看视频| 宅男在线国产精品| 伊人福利在线| 国产伦精品一区二区三区免费视频| 亚洲视频一区| 影音先锋黄色资源| 色网站国产精品| 77导航福利在线| 亚洲a在线观看| 亚洲婷婷免费| 亚洲av无码国产精品久久| 欧美一a一片一级一片| 麻豆传媒在线观看| 成人欧美一区二区| 久久精品一区二区三区中文字幕| 91精彩刺激对白露脸偷拍| 欧美视频一区二区三区| 搞黄网站在线观看| 国产日韩一区欧美| 日韩精品成人一区二区在线| 日韩国产第一页| 亚洲精品国产精品自产a区红杏吧 亚洲精品国产精品乱码不99按摩 亚洲精品国产精品久久清纯直播 亚洲精品国产精品国自产在线 | 在线视频免费一区二区| 国产一区二区三区视频在线 | 青青青伊人色综合久久| 婷婷久久综合网| 亚洲国产日韩欧美在线99| 欧美日韩视频免费观看| 欧美三级午夜理伦三级老人| 成人av在线资源网站| 中文字幕人妻一区二区在线视频 | 成人免费一区二区三区牛牛| 久久人人爽爽人人爽人人片av| 蜜桃一区二区三区在线| 久久久久香蕉视频| 亚洲色无码播放| 日韩精品一区二区三区中文| 久久精品.com| 综合久久久久综合| 日本一二三区在线视频| 亚洲一区二区久久久久久久| 久久一区视频| 国产成人精品av久久|