精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

測試小姐姐問我 gRPC 怎么用,我直接把這篇文章甩給了她

開發 前端
這篇咱們還是從實戰出發,主要介紹 gRPC 的發布訂閱模式,REST 接口和超時控制。個人感覺,超時控制還是最重要的,在平時的開發過程中需要多多注意。

[[430935]]

上篇文章 gRPC,爆贊 直接爆了,內容主要包括:簡單的 gRPC 服務,流處理模式,驗證器,Token 認證和證書認證。

這篇咱們還是從實戰出發,主要介紹 gRPC 的發布訂閱模式,REST 接口和超時控制。

發布和訂閱模式

發布訂閱是一個常見的設計模式,開源社區中已經存在很多該模式的實現。其中 docker 項目中提供了一個 pubsub 的極簡實現,下面是基于 pubsub 包實現的本地發布訂閱代碼:

  1. package main 
  2.  
  3. import ( 
  4.     "fmt" 
  5.     "strings" 
  6.     "time" 
  7.  
  8.     "github.com/moby/moby/pkg/pubsub" 
  9.  
  10. func main() { 
  11.     p := pubsub.NewPublisher(100*time.Millisecond, 10) 
  12.  
  13.     golang := p.SubscribeTopic(func(v interface{}) bool { 
  14.         if key, ok := v.(string); ok { 
  15.             if strings.HasPrefix(key"golang:") { 
  16.                 return true 
  17.             } 
  18.         } 
  19.         return false 
  20.     }) 
  21.     docker := p.SubscribeTopic(func(v interface{}) bool { 
  22.         if key, ok := v.(string); ok { 
  23.             if strings.HasPrefix(key"docker:") { 
  24.                 return true 
  25.             } 
  26.         } 
  27.         return false 
  28.     }) 
  29.  
  30.     go p.Publish("hi"
  31.     go p.Publish("golang: https://golang.org"
  32.     go p.Publish("docker: https://www.docker.com/"
  33.     time.Sleep(1) 
  34.  
  35.     go func() { 
  36.         fmt.Println("golang topic:", <-golang) 
  37.     }() 
  38.     go func() { 
  39.         fmt.Println("docker topic:", <-docker) 
  40.     }() 
  41.  
  42.     <-make(chan bool) 

這段代碼首先通過 pubsub.NewPublisher 創建了一個對象,然后通過 p.SubscribeTopic 實現訂閱,p.Publish 來發布消息。

執行效果如下:

  1. docker topic: docker: https://www.docker.com/ 
  2. golang topic: golang: https://golang.org 
  3. fatal error: all goroutines are asleep - deadlock! 
  4.  
  5. goroutine 1 [chan receive]: 
  6. main.main() 
  7.     /Users/zhangyongxin/src/go-example/grpc-example/pubsub/server/pubsub.go:43 +0x1e7 
  8. exit status 2 

訂閱消息可以正常打印。

但有一個死鎖報錯,是因為這條語句 <-make(chan bool) 引起的。但是如果沒有這條語句就不能正常打印訂閱消息。

這里就不是很懂了,有沒有大佬知道,歡迎留言,求指導。

接下來就用 gRPC 和 pubsub 包實現發布訂閱模式。

需要實現四個部分:

  1. proto 文件;
  2. 服務端: 用于接收訂閱請求,同時也接收發布請求,并將發布請求轉發給訂閱者;
  3. 訂閱客戶端: 用于從服務端訂閱消息,處理消息;
  4. 發布客戶端: 用于向服務端發送消息。

proto 文件

首先定義 proto 文件:

  1. syntax = "proto3"
  2.  
  3. package proto; 
  4.  
  5. message String { 
  6.     string value = 1; 
  7.  
  8. service PubsubService { 
  9.     rpc Publish (String) returns (String); 
  10.     rpc SubscribeTopic (String) returns (stream String); 
  11.     rpc Subscribe (String) returns (stream String); 

定義三個方法,分別是一個發布 Publish 和兩個訂閱 Subscribe 和 SubscribeTopic。

Subscribe 方法接收全部消息,而 SubscribeTopic 根據特定的 Topic 接收消息。

服務端

  1. package main 
  2.  
  3. import ( 
  4.     "context" 
  5.     "fmt" 
  6.     "log" 
  7.     "net" 
  8.     "server/proto" 
  9.     "strings" 
  10.     "time" 
  11.  
  12.     "github.com/moby/moby/pkg/pubsub" 
  13.     "google.golang.org/grpc" 
  14.     "google.golang.org/grpc/reflection" 
  15.  
  16. type PubsubService struct { 
  17.     pub *pubsub.Publisher 
  18.  
  19. func (p *PubsubService) Publish(ctx context.Context, arg *proto.String) (*proto.String, error) { 
  20.     p.pub.Publish(arg.GetValue()) 
  21.     return &proto.String{}, nil 
  22.  
  23. func (p *PubsubService) SubscribeTopic(arg *proto.String, stream proto.PubsubService_SubscribeTopicServer) error { 
  24.     ch := p.pub.SubscribeTopic(func(v interface{}) bool { 
  25.         if key, ok := v.(string); ok { 
  26.             if strings.HasPrefix(key, arg.GetValue()) { 
  27.                 return true 
  28.             } 
  29.         } 
  30.         return false 
  31.     }) 
  32.  
  33.     for v := range ch { 
  34.         if err := stream.Send(&proto.String{Value: v.(string)}); nil != err { 
  35.             return err 
  36.         } 
  37.     } 
  38.     return nil 
  39.  
  40. func (p *PubsubService) Subscribe(arg *proto.String, stream proto.PubsubService_SubscribeServer) error { 
  41.     ch := p.pub.Subscribe() 
  42.  
  43.     for v := range ch { 
  44.         if err := stream.Send(&proto.String{Value: v.(string)}); nil != err { 
  45.             return err 
  46.         } 
  47.     } 
  48.     return nil 
  49.  
  50. func NewPubsubService() *PubsubService { 
  51.     return &PubsubService{pub: pubsub.NewPublisher(100*time.Millisecond, 10)} 
  52.  
  53. func main() { 
  54.     lis, err := net.Listen("tcp"":50051"
  55.     if err != nil { 
  56.         log.Fatalf("failed to listen: %v", err) 
  57.     } 
  58.  
  59.     // 簡單調用 
  60.     server := grpc.NewServer() 
  61.     // 注冊 grpcurl 所需的 reflection 服務 
  62.     reflection.Register(server) 
  63.     // 注冊業務服務 
  64.     proto.RegisterPubsubServiceServer(server, NewPubsubService()) 
  65.  
  66.     fmt.Println("grpc server start ..."
  67.     if err := server.Serve(lis); err != nil { 
  68.         log.Fatalf("failed to serve: %v", err) 
  69.     } 

對比之前的發布訂閱程序,其實這里是將 *pubsub.Publisher 作為了 gRPC 的結構體 PubsubService 的一個成員。

然后還是按照 gRPC 的開發流程,實現結構體對應的三個方法。

最后,在注冊服務時,將 NewPubsubService() 服務注入,實現本地發布訂閱功能。

訂閱客戶端

  1. package main 
  2.  
  3. import ( 
  4.     "client/proto" 
  5.     "context" 
  6.     "fmt" 
  7.     "io" 
  8.     "log" 
  9.  
  10.     "google.golang.org/grpc" 
  11.  
  12. func main() { 
  13.     conn, err := grpc.Dial("localhost:50051", grpc.WithInsecure()) 
  14.     if err != nil { 
  15.         log.Fatal(err) 
  16.     } 
  17.     defer conn.Close() 
  18.  
  19.     client := proto.NewPubsubServiceClient(conn) 
  20.     stream, err := client.Subscribe( 
  21.         context.Background(), &proto.String{Value: "golang:"}, 
  22.     ) 
  23.     if nil != err { 
  24.         log.Fatal(err) 
  25.     } 
  26.  
  27.     go func() { 
  28.         for { 
  29.             reply, err := stream.Recv() 
  30.             if nil != err { 
  31.                 if io.EOF == err { 
  32.                     break 
  33.                 } 
  34.                 log.Fatal(err) 
  35.             } 
  36.             fmt.Println("sub1: ", reply.GetValue()) 
  37.         } 
  38.     }() 
  39.  
  40.     streamTopic, err := client.SubscribeTopic( 
  41.         context.Background(), &proto.String{Value: "golang:"}, 
  42.     ) 
  43.     if nil != err { 
  44.         log.Fatal(err) 
  45.     } 
  46.  
  47.     go func() { 
  48.         for { 
  49.             reply, err := streamTopic.Recv() 
  50.             if nil != err { 
  51.                 if io.EOF == err { 
  52.                     break 
  53.                 } 
  54.                 log.Fatal(err) 
  55.             } 
  56.             fmt.Println("subTopic: ", reply.GetValue()) 
  57.         } 
  58.     }() 
  59.  
  60.     <-make(chan bool) 

新建一個 NewPubsubServiceClient 對象,然后分別實現 client.Subscribe 和 client.SubscribeTopic 方法,再通過 goroutine 不停接收消息。

發布客戶端

  1. package main 
  2.  
  3. import ( 
  4.     "client/proto" 
  5.     "context" 
  6.     "log" 
  7.  
  8.     "google.golang.org/grpc" 
  9.  
  10. func main() { 
  11.     conn, err := grpc.Dial("localhost:50051", grpc.WithInsecure()) 
  12.     if err != nil { 
  13.         log.Fatal(err) 
  14.     } 
  15.     defer conn.Close() 
  16.     client := proto.NewPubsubServiceClient(conn) 
  17.  
  18.     _, err = client.Publish( 
  19.         context.Background(), &proto.String{Value: "golang: hello Go"}, 
  20.     ) 
  21.     if err != nil { 
  22.         log.Fatal(err) 
  23.     } 
  24.  
  25.     _, err = client.Publish( 
  26.         context.Background(), &proto.String{Value: "docker: hello Docker"}, 
  27.     ) 
  28.     if nil != err { 
  29.         log.Fatal(err) 
  30.     } 
  31.  

新建一個 NewPubsubServiceClient 對象,然后通過 client.Publish 方法發布消息。

當代碼全部寫好之后,我們開三個終端來測試一下:

終端1 上啟動服務端:

  1. go run main.go 

終端2 上啟動訂閱客戶端:

  1. go run sub_client.go 

終端3 上執行發布客戶端:

  1. go run pub_client.go 

這樣,在 終端2 上就有對應的輸出了:

  1. subTopic:  golang: hello Go 
  2. sub1:  golang: hello Go 
  3. sub1:  docker: hello Docker 

也可以再多開幾個訂閱終端,那么每一個訂閱終端上都會有相同的內容輸出。

源碼地址: https://github.com/yongxinz/go-example/tree/main/grpc-example/pubsub

REST 接口

gRPC 一般用于集群內部通信,如果需要對外提供服務,大部分都是通過 REST 接口的方式。開源項目 grpc-gateway 提供了將 gRPC 服務轉換成 REST 服務的能力,通過這種方式,就可以直接訪問 gRPC API 了。

但我覺得,實際上這么用的應該還是比較少的。如果提供 REST 接口的話,直接寫一個 HTTP 服務會方便很多。

proto 文件

第一步還是創建一個 proto 文件:

  1. syntax = "proto3"
  2.  
  3. package proto; 
  4.  
  5. import "google/api/annotations.proto"
  6.  
  7. message StringMessage { 
  8.   string value = 1; 
  9.  
  10. service RestService { 
  11.     rpc Get(StringMessage) returns (StringMessage) { 
  12.         option (google.api.http) = { 
  13.             get: "/get/{value}" 
  14.         }; 
  15.     } 
  16.     rpc Post(StringMessage) returns (StringMessage) { 
  17.         option (google.api.http) = { 
  18.             post: "/post" 
  19.             body: "*" 
  20.         }; 
  21.     } 

定義一個 REST 服務 RestService,分別實現 GET 和 POST 方法。

安裝插件:

  1. go get -u github.com/grpc-ecosystem/grpc-gateway/protoc-gen-grpc-gateway 

生成對應代碼:

  1. protoc -I/usr/local/include -I. \ 
  2.     -I$GOPATH/pkg/mod \ 
  3.     -I$GOPATH/pkg/mod/github.com/grpc-ecosystem/grpc-gateway@v1.16.0/third_party/googleapis \ 
  4.     --grpc-gateway_out=. --go_out=plugins=grpc:.\ 
  5.     --swagger_out=. \ 
  6.     helloworld.proto 

--grpc-gateway_out 參數可生成對應的 gw 文件,--swagger_out 參數可生成對應的 API 文檔。

在我這里生成的兩個文件如下:

  1. helloworld.pb.gw.go 
  2. helloworld.swagger.json 

REST 服務

  1. package main 
  2.  
  3. import ( 
  4.     "context" 
  5.     "log" 
  6.     "net/http" 
  7.  
  8.     "rest/proto" 
  9.  
  10.     "github.com/grpc-ecosystem/grpc-gateway/runtime" 
  11.     "google.golang.org/grpc" 
  12.  
  13. func main() { 
  14.     ctx := context.Background() 
  15.     ctx, cancel := context.WithCancel(ctx) 
  16.     defer cancel() 
  17.  
  18.     mux := runtime.NewServeMux() 
  19.  
  20.     err := proto.RegisterRestServiceHandlerFromEndpoint( 
  21.         ctx, mux, "localhost:50051"
  22.         []grpc.DialOption{grpc.WithInsecure()}, 
  23.     ) 
  24.     if err != nil { 
  25.         log.Fatal(err) 
  26.     } 
  27.  
  28.     http.ListenAndServe(":8080", mux) 

這里主要是通過實現 gw 文件中的 RegisterRestServiceHandlerFromEndpoint 方法來連接 gRPC 服務。

gRPC 服務

  1. package main 
  2.  
  3. import ( 
  4.     "context" 
  5.     "net" 
  6.  
  7.     "rest/proto" 
  8.  
  9.     "google.golang.org/grpc" 
  10.  
  11. type RestServiceImpl struct{} 
  12.  
  13. func (r *RestServiceImpl) Get(ctx context.Context, message *proto.StringMessage) (*proto.StringMessage, error) { 
  14.     return &proto.StringMessage{Value: "Get hi:" + message.Value + "#"}, nil 
  15.  
  16. func (r *RestServiceImpl) Post(ctx context.Context, message *proto.StringMessage) (*proto.StringMessage, error) { 
  17.     return &proto.StringMessage{Value: "Post hi:" + message.Value + "@"}, nil 
  18.  
  19. func main() { 
  20.     grpcServer := grpc.NewServer() 
  21.     proto.RegisterRestServiceServer(grpcServer, new(RestServiceImpl)) 
  22.     lis, _ := net.Listen("tcp"":50051"
  23.     grpcServer.Serve(lis) 

gRPC 服務的實現方式還是和以前一樣。

以上就是全部代碼,現在來測試一下:

啟動三個終端:

終端1 啟動 gRPC 服務:

  1. go run grpc_service.go 

終端2 啟動 REST 服務:

  1. go run rest_service.go 

終端3 來請求 REST 服務:

  1. $ curl localhost:8080/get/gopher 
  2. {"value":"Get hi:gopher"
  3.  
  4. $ curl localhost:8080/post -X POST --data '{"value":"grpc"}' 
  5. {"value":"Post hi:grpc"

源碼地址: https://github.com/yongxinz/go-example/tree/main/grpc-example/rest

超時控制

最后一部分介紹一下超時控制,這部分內容是非常重要的。

一般的 WEB 服務 API,或者是 Nginx 都會設置一個超時時間,超過這個時間,如果還沒有數據返回,服務端可能直接返回一個超時錯誤,或者客戶端也可能結束這個連接。

如果沒有這個超時時間,那是相當危險的。所有請求都阻塞在服務端,會消耗大量資源,比如內存。如果資源耗盡的話,甚至可能會導致整個服務崩潰。

那么,在 gRPC 中怎么設置超時時間呢?主要是通過上下文 context.Context 參數,具體來說就是 context.WithDeadline 函數。

proto 文件

創建最簡單的 proto 文件,這個不多說。

  1. syntax = "proto3"
  2.  
  3. package proto; 
  4.  
  5. // The greeting service definition. 
  6. service Greeter { 
  7.     // Sends a greeting 
  8.     rpc SayHello (HelloRequest) returns (HelloReply) {} 
  9.  
  10. // The request message containing the user's name
  11. message HelloRequest { 
  12.     string name = 1; 
  13.  
  14. // The response message containing the greetings 
  15. message HelloReply { 
  16.     string message = 1; 

客戶端

  1. package main 
  2.  
  3. import ( 
  4.     "client/proto" 
  5.     "context" 
  6.     "fmt" 
  7.     "log" 
  8.     "time" 
  9.  
  10.     "google.golang.org/grpc" 
  11.     "google.golang.org/grpc/codes" 
  12.     "google.golang.org/grpc/status" 
  13.  
  14. func main() { 
  15.     // 簡單調用 
  16.     conn, err := grpc.Dial("localhost:50051", grpc.WithInsecure()) 
  17.     defer conn.Close() 
  18.  
  19.     ctx, cancel := context.WithDeadline(context.Background(), time.Now().Add(time.Duration(3*time.Second))) 
  20.     defer cancel() 
  21.  
  22.     client := proto.NewGreeterClient(conn) 
  23.     // 簡單調用 
  24.     reply, err := client.SayHello(ctx, &proto.HelloRequest{Name"zzz"}) 
  25.     if err != nil { 
  26.         statusErr, ok := status.FromError(err) 
  27.         if ok { 
  28.             if statusErr.Code() == codes.DeadlineExceeded { 
  29.                 log.Fatalln("client.SayHello err: deadline"
  30.             } 
  31.         } 
  32.  
  33.         log.Fatalf("client.SayHello err: %v", err) 
  34.     } 
  35.     fmt.Println(reply.Message) 

通過下面的函數設置一個 3s 的超時時間:

  1. ctx, cancel := context.WithDeadline(context.Background(), time.Now().Add(time.Duration(3*time.Second))) 
  2. defer cancel() 

然后在響應錯誤中對超時錯誤進行檢測。

服務端

  1. package main 
  2.  
  3. import ( 
  4.     "context" 
  5.     "fmt" 
  6.     "log" 
  7.     "net" 
  8.     "runtime" 
  9.     "server/proto" 
  10.     "time" 
  11.  
  12.     "google.golang.org/grpc" 
  13.     "google.golang.org/grpc/codes" 
  14.     "google.golang.org/grpc/reflection" 
  15.     "google.golang.org/grpc/status" 
  16.  
  17. type greeter struct { 
  18.  
  19. func (*greeter) SayHello(ctx context.Context, req *proto.HelloRequest) (*proto.HelloReply, error) { 
  20.     data := make(chan *proto.HelloReply, 1) 
  21.     go handle(ctx, req, data) 
  22.     select { 
  23.     case res := <-data: 
  24.         return res, nil 
  25.     case <-ctx.Done(): 
  26.         return nil, status.Errorf(codes.Canceled, "Client cancelled, abandoning."
  27.     } 
  28.  
  29. func handle(ctx context.Context, req *proto.HelloRequest, data chan<- *proto.HelloReply) { 
  30.     select { 
  31.     case <-ctx.Done(): 
  32.         log.Println(ctx.Err()) 
  33.         runtime.Goexit() //超時后退出該Go協程 
  34.     case <-time.After(4 * time.Second): // 模擬耗時操作 
  35.         res := proto.HelloReply{ 
  36.             Message: "hello " + req.Name
  37.         } 
  38.         // //修改數據庫前進行超時判斷 
  39.         // if ctx.Err() == context.Canceled{ 
  40.         //  ... 
  41.         //  //如果已經超時,則退出 
  42.         // } 
  43.         data <- &res 
  44.     } 
  45.  
  46. func main() { 
  47.     lis, err := net.Listen("tcp"":50051"
  48.     if err != nil { 
  49.         log.Fatalf("failed to listen: %v", err) 
  50.     } 
  51.  
  52.     // 簡單調用 
  53.     server := grpc.NewServer() 
  54.     // 注冊 grpcurl 所需的 reflection 服務 
  55.     reflection.Register(server) 
  56.     // 注冊業務服務 
  57.     proto.RegisterGreeterServer(server, &greeter{}) 
  58.  
  59.     fmt.Println("grpc server start ..."
  60.     if err := server.Serve(lis); err != nil { 
  61.         log.Fatalf("failed to serve: %v", err) 
  62.     } 

服務端增加一個 handle 函數,其中 case <-time.After(4 * time.Second) 表示 4s 之后才會執行其對應代碼,用來模擬超時請求。

如果客戶端超時時間超過 4s 的話,就會產生超時報錯。

下面來模擬一下:

服務端:

  1. $ go run main.go 
  2. grpc server start ... 
  3. 2021/10/24 22:57:40 context deadline exceeded 

客戶端:

  1. $ go run main.go 
  2. 2021/10/24 22:57:40 client.SayHello err: deadline 
  3. exit status 1 

源碼地址: https://github.com/yongxinz/go-example/tree/main/grpc-example/deadline

總結

本文主要介紹了 gRPC 的三部分實戰內容,分別是:

  1. 發布訂閱模式
  2. REST 接口
  3. 超時控制

個人感覺,超時控制還是最重要的,在平時的開發過程中需要多多注意。

本文轉載自微信公眾號「AlwaysBeta」

 

責任編輯:姜華 來源: AlwaysBeta
相關推薦

2021-05-19 08:31:15

壓測數據結構與算法工具

2025-06-23 08:20:00

PaimonFluss大數據

2020-11-12 10:37:29

微服務

2021-02-22 13:32:19

MySQLSQL索引

2022-05-23 09:41:27

分庫分表數據庫算法

2020-04-28 09:15:58

HashMapJava數組

2017-11-10 14:12:35

2019-05-30 09:32:49

2021-04-14 14:28:14

Python點攢抖音

2024-02-19 00:00:00

后管系統權限

2019-11-04 15:00:50

MySQL索引B+樹

2019-11-05 14:06:07

MySQLB+索引

2021-03-08 10:25:37

MySQL數據庫索引

2020-04-20 13:11:21

HashMap底層存儲

2021-03-08 12:47:42

MySQL查詢數據

2021-09-30 09:59:23

OSPF網絡協議網絡技術

2020-11-25 08:25:02

二叉樹節點

2019-10-21 10:01:58

Python素描技術

2022-05-27 08:18:00

HashMapHash哈希表

2020-05-26 10:20:56

Python開發工具
點贊
收藏

51CTO技術棧公眾號

最好看的中文字幕| 欧美亚州在线观看| 极品颜值美女露脸啪啪| www国产精品| 久久精品一级| 国产99精品在线观看| 91av在线播放视频| 永久免费未视频| av综合网址| 色综合天天狠狠| 婷婷视频在线播放| 无码国产精品一区二区免费16| 久久亚洲美女| 欧美黄色片在线观看| 一本色道久久综合亚洲精品图片| 成人自拍视频| 日本国产一区二区| 日韩精品一区二区免费| 在线免费观看黄| 99综合电影在线视频| 国产精自产拍久久久久久| 豆国产97在线 | 亚洲| 日韩精品首页| 亚洲欧美国产一本综合首页| 日本一区二区三区在线免费观看| 欧美成人资源| 欧美日韩福利| 国产精品亚洲第一区在线暖暖韩国| 欧美成人免费观看| 国产黄色录像视频| 希岛爱理av免费一区二区| 91精品啪在线观看国产60岁| 动漫av免费观看| av蜜臀在线| 亚洲激情六月丁香| 一区二区三区四区国产| 国产露出视频在线观看| 91亚洲精华国产精华精华液| 亚洲综合在线做性| 91精品国产乱码久久久| 人妖欧美一区二区| 国产mv免费观看入口亚洲| 黄色片视频网站| 一区二区视频欧美| 久久99精品久久久久久噜噜 | 日韩专区第三页| 欧美人xxx| 国产精品乱码久久久久久| 国产福利一区二区三区视频在线| 在线视频免费一区二区| 久久精品成人av| 日韩母乳在线| 亚洲毛片在线观看.| 欧洲一级黄色片| 日韩电影在线观看完整免费观看| 欧美精品一区二区在线播放| 国产精品一级无码| 亚洲综合影院| 亚洲成人黄色网址| 女同性恋一区二区三区| 日韩高清影视在线观看| 亚洲欧美国产高清va在线播| 美女爆乳18禁www久久久久久| 日本精品影院| 亚洲香蕉av在线一区二区三区| 在线观看国产精品一区| 久久综合国产| 欧美日韩xxx| 日韩三级一区二区三区| 免费看的黄色欧美网站| 国产脚交av在线一区二区| 日本欧美黄色片| 免费黄色激情视频| 午夜精品久久久久久久四虎美女版| 这里只有精品丝袜| 青青操在线视频观看| 欧美韩国一区| 97不卡在线视频| 五月婷婷激情五月| 国产一区二区三区蝌蚪| 国产精品二区二区三区| 欧美成人片在线| 国产精品美女久久久久久久久久久| 一区二区不卡在线观看| 手机在线免费av| 岛国视频午夜一区免费在线观看| 97公开免费视频| 国产精品久一| 亚洲免费视频网站| 亚洲一级片在线播放| 综合日韩在线| 日韩av免费在线| 国产情侣一区二区| 91麻豆swag| 欧美精品一区二区性色a+v| a级片免费在线观看| 久本草在线中文字幕亚洲| 久久久久9999亚洲精品| 伊人久久青草| 激情黄产视频在线免费观看| 欧美午夜精品久久久久久孕妇| 久久久久久国产精品日本| 婷婷综合一区| 九九热这里只有在线精品视| 久久人妻免费视频| 国产一区三区三区| 欧美日韩一区在线视频| 日本片在线看| 欧美午夜精品电影| 亚洲久久久久久| 在线一区电影| 国产精品视频网站| 天天操天天干天天插| 综合激情成人伊人| 香蕉视频网站入口| 偷拍视屏一区| 欧美激情性做爰免费视频| 懂色av蜜臀av粉嫩av喷吹| www..com久久爱| 欧美少妇一区二区三区| 国产一区二区色噜噜| 日本vs亚洲vs韩国一区三区 | 黄色一级片一级片| 在线免费高清一区二区三区| 91久久精品国产91久久性色| 日本啊v在线| 亚洲一区二区美女| 欧美日韩理论片| 久久综合成人| 国产啪精品视频| 黄色大片在线看| 欧美午夜宅男影院在线观看| 色婷婷狠狠18禁久久| 91免费精品| 国产精品一二区| 黄色软件在线| 色素色在线综合| 18禁裸乳无遮挡啪啪无码免费| 亚洲高清毛片| 国产综合 伊人色| 69av成人| 日韩www在线| 五月天婷婷综合网| 99re这里只有精品首页| 成品人视频ww入口| 欧美日韩人妻精品一区二区三区| 69堂免费精品视频在线播放| 亚洲欧洲在线视频| 国产精品第5页| 久久麻豆一区二区| 国产美女三级视频| 国产日韩视频在线| 国产成人午夜视频网址| 国产亚洲依依| 欧美中文字幕亚洲一区二区va在线 | 亚洲精品久久久久中文字幕二区 | 丝瓜av网站精品一区二区| 青青草久久网络| 78精品国产综合久久香蕉| 中文字幕av一区中文字幕天堂 | 日本午夜免费一区二区| 色视频www在线播放国产成人| 中文字幕乱码一区二区| 国产精品欧美久久久久一区二区| 在线播放日韩av| 久久精品无码一区| 日本成人中文字幕在线视频| 亚洲电影网站| 欧美1区2区3| 2018国产精品视频| av中文字幕一区二区三区| 欧美日韩成人高清| 欧美精品一级片| 99久久久免费精品国产一区二区 | 强制捆绑调教一区二区| 一区二区三区四区视频在线观看 | www.99re7| 成人美女视频在线看| 97xxxxx| 99热精品久久| 国偷自产av一区二区三区小尤奈| 不卡av影片| 精品国产一区二区三区在线观看 | 亚洲视频电影图片偷拍一区| 亚洲天天综合网| 亚洲一区二区精品久久av| 性欧美13一14内谢| 国产一区二区三区日韩 | 久久久久中文字幕| 四虎电影院在线观看| 欧美日韩一区二区三区高清| 国产高潮流白浆| 97精品视频在线观看自产线路二| 校园春色 亚洲色图| 国语精品一区| 亚洲不卡中文字幕| 久久av偷拍| 日本一区二区不卡| 91cn在线观看| 亚洲一区二区久久久| 精品国产区一区二| 91成人国产精品| 久久精品人妻一区二区三区| 日本一区二区三区dvd视频在线| 亚洲成人手机在线观看| 久久亚洲视频| 久久久久久av无码免费网站下载| 欧洲杯什么时候开赛| 粉嫩av免费一区二区三区| 国产亚洲一区二区手机在线观看 | 久久国产免费观看| 国产欧美精品国产国产专区| 少妇精品无码一区二区三区| 精品一区二区在线视频| 97香蕉超级碰碰久久免费的优势| 中文字幕无人区二| 亚洲制服少妇| 中文字幕色呦呦| 日韩黄色大片网站| 久久99导航| av成人app永久免费| 国产一区二区香蕉| 免费亚洲电影| 国产91ⅴ在线精品免费观看| 亚洲区欧洲区| 日日狠狠久久偷偷四色综合免费 | 中文字幕在线看视频国产欧美| 日韩一级片免费看| 日韩欧美不卡在线观看视频| 一区二区日韩视频| 欧美丝袜丝交足nylons| 特级做a爱片免费69| 午夜欧美在线一二页| 青青草原免费观看| 中文字幕一区免费在线观看| 日韩不卡av在线| 欧美成人xxxx| 国产亚洲人成网站| 中文字幕人妻一区| 国产精品1024久久| 波多野结衣网页| 国产在线精品一区二区夜色| 狠狠操狠狠干视频| 美女视频一区二区三区| 日韩精品你懂的| 久久精品99久久久| 思思久久精品视频| 狠狠色丁香久久婷婷综合丁香| 一路向西2在线观看| 蜜桃久久精品一区二区| 国产九九热视频| 九九精品视频在线看| 亚洲精品综合在线观看| 精品亚洲成a人在线观看| 日韩av片免费观看| 国产麻豆视频一区| 稀缺呦国内精品呦| 成人免费av在线| 日韩 中文字幕| 国产欧美日韩麻豆91| 丰满的亚洲女人毛茸茸| 亚洲欧洲另类国产综合| 国产女片a归国片aa| 亚洲国产中文字幕在线视频综合| 久久伊人成人网| 精品久久久国产精品999| 日韩在线播放中文字幕| 欧美日韩一区不卡| 国产三级小视频| 亚洲二区在线播放视频| 欧美日韩视频精品二区| 曰本色欧美视频在线| av网址在线| 97超碰国产精品女人人人爽 | 国产精品美女视频网站| 懂色aⅴ精品一区二区三区| 国产视频999| 成人自拍在线| 欧美精彩一区二区三区| 91视频久久| 少妇高潮喷水在线观看| 丝袜脚交一区二区| 精品国产鲁一鲁一区二区三区| 岛国一区二区在线观看| 男女做爰猛烈刺激| 亚洲欧洲制服丝袜| 日本一级片免费看| 欧美亚洲日本一区| 亚洲AV无码乱码国产精品牛牛| 亚洲精品日韩欧美| 九色porny在线| 欧美性一区二区三区| 欧美一区二区三区婷婷| 国产精品.com| 三上亚洲一区二区| 欧美 日韩 亚洲 一区| 美女爽到高潮91| 天堂久久久久久| 亚洲天堂成人网| 欧美一级淫片免费视频黄| 日韩一区二区在线看| 免费在线性爱视频| 欧美福利视频在线| 日本成人三级电影| 国产高清自拍99| 国产精品7m凸凹视频分类| 欧美v在线观看| 日韩高清免费av| 亚洲一区二区在线视频| 亚洲男人天堂网址| 精品福利一二区| 蜜桃视频在线观看www社区| 国内偷自视频区视频综合| 中文字幕日本一区二区| 国产精品视频500部| 9999国产精品| 北条麻妃av高潮尖叫在线观看| 国产91精品露脸国语对白| 婷婷国产成人精品视频| 色系网站成人免费| 少妇av在线播放| 欧美精品情趣视频| 亚洲精品伊人| 亚洲蜜桃在线| 久久狠狠婷婷| 黄色网址在线视频| 亚洲影院免费观看| 国产麻豆精品一区| 日韩在线小视频| 成人精品高清在线视频| 欧美性bbwbbwbbwhd| 国产精品毛片一区二区三区| 一二三区视频在线观看| 亚洲色图丝袜美腿| 97精品久久人人爽人人爽| 国产一区二区三区毛片| 偷拍中文亚洲欧美动漫| 精品一区二区国产| 亚洲深夜福利| 99久久人妻精品免费二区| 亚洲成av人片www| 欧美一级在线免费观看| 日韩欧美国产视频| 99久久久无码国产精品6| 欧美三级第一页| 成人在线短视频| 亚洲品质自拍视频| 国产福利小视频| 欧美另类极品videosbest最新版本| 国产美女视频一区二区 | 波多野结衣 在线| 日本韩国一区二区三区视频| 国产三区四区在线观看| 国产精品jizz在线观看麻豆| 国产影视一区| www欧美激情| 日韩一区在线看| 国产99对白在线播放| 色综合久久精品亚洲国产| 亚洲一区二区三区四区电影| 青青青在线视频播放| 成人黄色av网站在线| 国产成人在线播放视频| 亚洲欧美日韩国产中文专区| 秋霞国产精品| av动漫免费观看| 国产成人av一区二区三区在线| 久久精品国产亚洲AV无码男同 | 欧美成人hd| 91高跟黑色丝袜呻吟在线观看| 国产一区视频在线观看免费| 黄色免费视频网站| 色婷婷久久综合| 日韩三级影院| 国产精品播放| 日韩成人一级片| 欧美精品一区二区成人| 亚洲精品中文字| 久久资源av| 亚洲精品少妇| 熟女少妇内射日韩亚洲| 欧美狂野另类xxxxoooo| 日本动漫同人动漫在线观看| 蜜桃传媒视频麻豆第一区免费观看 | 精品视频在线观看免费观看| 成人性免费视频| 中文字幕不卡在线观看| 黄色一级大片在线免费看国产一 | 欧美9999| caopor在线视频| 一区二区三区在线视频播放 | 久久久999精品| 欧美日韩看看2015永久免费| 亚洲精品视频导航| 亚洲一区二区三区自拍| 国产69久久| 国产精品久久久一区二区三区| 免费亚洲电影在线| 日本在线观看中文字幕| 精品国偷自产在线视频|