精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

Go并發模式:管道和顯式取消

開發 開發工具
Go并發原語使得構建流式數據管道,高效利用I/O和多核變得簡單。這篇文章介紹了幾個管道例子,重點指出在操作失敗時的細微差別,并介紹了優雅處理失敗的技術。

引言

Go并發原語使得構建流式數據管道,高效利用I/O和多核變得簡單。這篇文章介紹了幾個管道例子,重點指出在操作失敗時的細微差別,并介紹了優雅處理失敗的技術。

什么是管道?

Go沒有正式的管道定義。管道只是眾多并發程序的一類。一般的,一個管道就是一些列的由channel連接起來的階段。每個階段都有執行相同邏輯的goroutine。在每個階段中,goroutine

  • 從channel讀取上游數據
  • 在數據上執行一些操作,通常會產生新的數據
  • 通過channel將數據發往下游

每個階段都可以有任意個輸入channel和輸出channel,除了第一個和最有一個channel(只有輸入channel或只有輸出channel)。第一個步驟通常叫數據源或者生產者,最后一個叫做存儲池或者消費者。

我們先從一個簡單的管道例子來解釋這些概念和技術,稍后我們會介紹一個更為復雜的例子。

數字的平方

假設管道有三個階段。

第一步,gen函數,是一個將數字列表轉換到一個channel中的函數。Gen函數啟動了一個goroutine,將數字發送到channel,并在所有數字都發送完后關閉channel。

  1. func gen(nums ...int) <-chan int {  
  2.     out := make(chan int)  
  3.     go func() {  
  4.         for _, n := range nums {  
  5.             out <- n  
  6.         }  
  7.         close(out)  
  8.     }()  
  9.     return out  

第二個階段,sq,從上面的channel接收數字,并返回一個包含所有收到數字的平方的channel。在上游channel關閉后,這個階段已經往下游發送完所有的結果,然后關閉輸出channel:

  1. func sq(in <-chan int) <-chan int {  
  2.     out := make(chan int)  
  3.     go func() {  
  4.         for n := range in {  
  5.             out <- n * n  
  6.         }  
  7.         close(out)  
  8.     }()  
  9.     return out  

main函數建立這個管道,并執行第一個階段,從第二個階段接收結果并逐個打印,直到channel被關閉。

  1. func main() {  
  2.     // Set up the pipeline.  
  3.     c := gen(23)  
  4.     out := sq(c)  
  5.    
  6.     // Consume the output.  
  7.     fmt.Println(<-out) // 4  
  8.     fmt.Println(<-out) // 9  

因為sq對輸入channel和輸出channel擁有相同的類型,我們可以任意次的組合他們。我們也可以像其他階段一樣,將main函數重寫成一個循環遍歷。

  1. func main() {  
  2.     // Set up the pipeline and consume the output.  
  3.     for n := range sq(sq(gen(23))) {  
  4.         fmt.Println(n) // 16 then 81  
  5.     }  

扇出扇入(Fan-out, fan-in)

多個函數可以從同一個channel讀取數據,直到這個channel關閉,這叫扇出。這是一種多個工作實例分布式地協作以并行利用CPU和I/O的方式。

一個函數可以從多個輸入讀取并處理數據,直到所有的輸入channel都被關閉。這個函數會將所有輸入channel導入一個單一的channel。這個單一的channel在所有輸入channel都關閉后才會關閉。這叫做扇入。

我們可以設置我們的管道執行兩個sq實例,每一個實例都從相同的輸入channel讀取數據。我們引入了一個新的函數,merge,來扇入結果:

  1. func main() {  
  2.     in := gen(23)  
  3.    
  4.     // Distribute the sq work across two goroutines that both read from in.  
  5.     c1 := sq(in)  
  6.     c2 := sq(in)  
  7.    
  8.     // Consume the merged output from c1 and c2.  
  9.     for n := range merge(c1, c2) {  
  10.         fmt.Println(n) // 4 then 9, or 9 then 4  
  11.     }  

merge函數為每一個輸入channel啟動一個goroutine,goroutine將數據拷貝到同一個輸出channel。這樣就將多個channel轉換成一個channel。一旦所有的output goroutine啟動起來,merge就啟動另一個goroutine,在所有輸入拷貝完畢后關閉輸出channel。
向一個關閉了的channel發送數據會觸發異常,所以在調用close之前確認所有的發送動作都執行完畢很重要。sync.WaitGroup類型為這種同步提供了一種簡便的方法:

  1. func merge(cs ...<-chan int) <-chan int {  
  2.     var wg sync.WaitGroup  
  3.     out := make(chan int)  
  4.    
  5.     // Start an output goroutine for each input channel in cs.  output  
  6.     // copies values from c to out until c is closed, then calls wg.Done.  
  7.     output := func(c <-chan int) {  
  8.         for n := range c {  
  9.             out <- n  
  10.         }  
  11.         wg.Done()  
  12.     }  
  13.     wg.Add(len(cs))  
  14.     for _, c := range cs {  
  15.         go output(c)  
  16.     }  
  17.    
  18.     // Start a goroutine to close out once all the output goroutines are  
  19.     // done.  This must start after the wg.Add call.  
  20.     go func() {  
  21.         wg.Wait()  
  22.         close(out)  
  23.     }()  
  24.     return out  

停止的藝術

我們所有的管道函數都遵循一種模式:

  • 發送者在發送完畢時關閉其輸出channel。
  • 接收者持續從輸入管道接收數據直到輸入管道關閉。

這種模式使得每一個接收函數都能寫成一個range循環,保證所有的goroutine在數據成功發送到下游后就關閉。

但是在真實的案例中,并不是所有的輸入數據都需要被接收處理。有些時候是故意這么設計的:接收者可能只需要數據的子集就夠了;或者更一般的,因為輸入數據有錯誤而導致接收函數提早退出。上面任何一種情況下,接收者都不應該繼續等待后續的數據到來,并且我們希望上游函數停止生成后續步驟已經不需要的數據。

在我們的管道例子中,如果一個階段無法消費所有的輸入數據,那些發送這些數據的goroutine就會一直阻塞下去:

  1.     // Consume the first value from output.  
  2.     out := merge(c1, c2)  
  3.     fmt.Println(<-out) // 4 or 9  
  4.     return 
  5.     // Since we didn't receive the second value from out,  
  6.     // one of the output goroutines is hung attempting to send it.  

這是一種資源泄漏:goroutine會占用內存和運行時資源。goroutine棧持有的堆引用會阻止GC回收資源。而且goroutine不能被垃圾回收,必須主動退出。

我們必須重新設計管道中的上游函數,在下游函數無法接收所有輸入數據時退出。一種方法就是讓輸出channel擁有一定的緩存。緩存可以存儲一定數量的數據。如果緩存空間足夠,發送操作就會馬上返回:

  1. c := make(chan int2// buffer size 2  
  2. c <- 1  // succeeds immediately  
  3. c <- 2  // succeeds immediately  
  4. c <- 3  // blocks until another goroutine does <-c and receives 1 

如果在channel創建時就知道需要發送數據的數量,帶緩存的channel會簡化代碼。例如,我們可以重寫gen函數,拷貝一系列的整數到一個帶緩存的channel而不是創建一個新的goroutine:

  1. func gen(nums ...int) <-chan int {  
  2.     out := make(chan int, len(nums))  
  3.     for _, n := range nums {  
  4.         out <- n  
  5.     }  
  6.     close(out)  
  7.     return out  

反過來我們看管道中被阻塞的goroutine,我們可以考慮為merge函數返回的輸出channel增加一個緩存:

  1. func merge(cs ...<-chan int) <-chan int {  
  2.     var wg sync.WaitGroup  
  3.     out := make(chan int1// enough space for the unread inputs  
  4.     // ... the rest is unchanged ... 

雖然這樣可以避免了程序中goroutine的阻塞,但這是很爛的代碼。選擇緩存大小為1取決于知道merge函數接收數字的數量和下游函數消費數字的數量。這是很不穩定的:如果我們向gen多發送了一個數據,或者下游函數少消費了數據,我們就又一次阻塞了goroutine。

然而,我們需要提供一種方式,下游函數可以通知上游發送者下游要停止接收數據。

#p#

顯式取消

當main函數決定在沒有從out接收所有的數據而要退出時,它需要通知上游的goroutine取消即將發送的數據。可以通過向一個叫做done的channel發送數據來實現。因為有兩個潛在阻塞的goroutine,main函數會發送兩個數據:

  1. func main() {  
  2.     in := gen(23)  
  3.    
  4.     // Distribute the sq work across two goroutines that both read from in.  
  5.     c1 := sq(in)  
  6.     c2 := sq(in)  
  7.    
  8.     // Consume the first value from output.  
  9.     done := make(chan struct{}, 2)  
  10.     out := merge(done, c1, c2)  
  11.     fmt.Println(<-out) // 4 or 9  
  12.    
  13.     // Tell the remaining senders we're leaving.  
  14.     done <- struct{}{}  
  15.     done <- struct{}{}  

對發送goroutine而言,需要將發送操作替換為一個select語句,要么out發生發送操作,要么從done接收數據。done的數據類型是空的struct,因為其值無關緊要:僅僅表示out需要取消發送操作。output 繼續在輸入channel循環執行,因此上游函數是不會阻塞的。(接下來我們會討論如何讓循環提早退出)

  1. func merge(done <-chan struct{}, cs ...<-chan int) <-chan int {  
  2.     var wg sync.WaitGroup  
  3.     out := make(chan int)  
  4.    
  5.     // Start an output goroutine for each input channel in cs.  output  
  6.     // copies values from c to out until c is closed or it receives a value  
  7.     // from done, then output calls wg.Done.  
  8.     output := func(c <-chan int) {  
  9.         for n := range c {  
  10.             select {  
  11.             case out <- n:  
  12.             case <-done:  
  13.             }  
  14.         }  
  15.         wg.Done()  
  16.     }  
  17.     // ... the rest is unchanged ... 

這種方法有一個問題:每一個下游函數需要知道潛在可能阻塞的上游發送者的數量,以發送響應的信號讓其提早退出。跟蹤這些數量是無趣的而且很容易出錯。

我們需要一種能夠讓未知或無界數量的goroutine都能夠停止向下游發送數據的方法。在Go中,我們可以通過關閉一個channel實現。因為從一個關閉了的channel執行接收操作總能馬上成功,并返回相應數據類型的零值。

這意味著main函數僅通過關閉done就能實現將所有的發送者解除阻塞。關閉操作是一個高效的對發送者的廣播信號。我們擴展管道中所有的函數接受done作為一個參數,并通過defer來實現相應channel的關閉操作。因此,無論main函數在哪一行退出都會通知上游退出。

  1. func main() {  
  2.     // Set up a done channel that's shared by the whole pipeline,  
  3.     // and close that channel when this pipeline exits, as a signal  
  4.     // for all the goroutines we started to exit.  
  5.     done := make(chan struct{})  
  6.     defer close(done)  
  7.    
  8.     in := gen(done, 23)  
  9.    
  10.     // Distribute the sq work across two goroutines that both read from in.  
  11.     c1 := sq(done, in)  
  12.     c2 := sq(done, in)  
  13.    
  14.     // Consume the first value from output.  
  15.     out := merge(done, c1, c2)  
  16.     fmt.Println(<-out) // 4 or 9  
  17.    
  18.     // done will be closed by the deferred call.  

現在每一個管道函數在done被關閉后就可以馬上返回了。merge函數中的output可以在接收管道的數據消費完之前返回,因為output函數知道上游發送者sq會在done關閉后停止產生數據。同時,output通過defer語句保證wq.Done會在所有退出路徑上調用。

  1. func merge(done <-chan struct{}, cs ...<-chan int) <-chan int {  
  2.     var wg sync.WaitGroup  
  3.     out := make(chan int)  
  4.    
  5.     // Start an output goroutine for each input channel in cs.  output  
  6.     // copies values from c to out until c or done is closed, then calls  
  7.     // wg.Done.  
  8.     output := func(c <-chan int) {  
  9.         defer wg.Done()  
  10.         for n := range c {  
  11.             select {  
  12.             case out <- n:  
  13.             case <-done:  
  14.                 return 
  15.             }  
  16.         }  
  17.     }  
  18.     // ... the rest is unchanged ... 

類似的,sq也可以在done關閉后馬上返回。sq通過defer語句使得任何退出路徑都能關閉其輸出channel out。

  1. func sq(done <-chan struct{}, in <-chan int) <-chan int {  
  2.     out := make(chan int)  
  3.     go func() {  
  4.         defer close(out)  
  5.         for n := range in {  
  6.             select {  
  7.             case out <- n * n:  
  8.             case <-done:  
  9.                 return 
  10.             }  
  11.         }  
  12.     }()  
  13.     return out  

管道構建的指導思想如下:

  • 每一個階段在所有發送操作完成后關閉輸出channel。
  • 每一個階段持續從輸入channel接收數據直到輸入channel被關閉或者生產者被解除阻塞(譯者:生產者退出)。

管道解除生產者阻塞有兩種方法:要么保證有足夠的緩存空間存儲將要被生產的數據,要么顯式的通知生產者消費者要取消接收數據。

樹形摘要

讓我們來看一個更為實際的管道。

MD5是一個信息摘要算法,對于文件校驗非常有用。命令行工具md5sum很有用,可以打印一系列文件的摘要值。

  1. % md5sum *.go  
  2. d47c2bbc28298ca9befdfbc5d3aa4e65  bounded.go  
  3. ee869afd31f83cbb2d10ee81b2b831dc  parallel.go  
  4. b88175e65fdcbc01ac08aaf1fd9b5e96  serial.go 

我們的例子程序和md5sum類似,但是接受一個單一的文件夾作為參數,打印該文件夾下每一個普通文件的摘要值,并按路徑名稱排序。

  1. % go run serial.go .  
  2. d47c2bbc28298ca9befdfbc5d3aa4e65  bounded.go  
  3. ee869afd31f83cbb2d10ee81b2b831dc  parallel.go  
  4. b88175e65fdcbc01ac08aaf1fd9b5e96  serial.go 

我們程序的main函數調用一個工具函數MD5ALL,該函數返回一個從路徑名稱到摘要值的哈希表,然后排序并輸出結果:

  1. func main() {  
  2.     // Calculate the MD5 sum of all files under the specified directory,  
  3.     // then print the results sorted by path name.  
  4.     m, err := MD5All(os.Args[1])  
  5.     if err != nil {  
  6.         fmt.Println(err)  
  7.         return 
  8.     }  
  9.     var paths []string  
  10.     for path := range m {  
  11.         paths = append(paths, path)  
  12.     }  
  13.     sort.Strings(paths)  
  14.     for _, path := range paths {  
  15.         fmt.Printf("%x  %s\n", m[path], path)  
  16.     }  

MD5ALL是我們討論的核心。在 serial.go中,沒有采用任何并發,僅僅遍歷文件夾,讀取文件并求出摘要值。

  1. // MD5All reads all the files in the file tree rooted at root and returns a map  
  2. // from file path to the MD5 sum of the file's contents.  If the directory walk  
  3. // fails or any read operation fails, MD5All returns an error.  
  4. func MD5All(root string) (map[string][md5.Size]byte, error) {  
  5.     m := make(map[string][md5.Size]byte)  
  6.     err := filepath.Walk(root, func(path string, info os.FileInfo, err error) error {  
  7.         if err != nil {  
  8.             return err  
  9.         }  
  10.         if info.IsDir() {  
  11.             return nil  
  12.         }  
  13.         data, err := ioutil.ReadFile(path)  
  14.         if err != nil {  
  15.             return err  
  16.         }  
  17.         m[path] = md5.Sum(data)  
  18.         return nil  
  19.     })  
  20.     if err != nil {  
  21.         return nil, err  
  22.     }  
  23.     return m, nil  

#p#

并行摘要求值

在parallel.go中,我們將MD5ALL分成兩階段的管道。第一個階段,sumFiles,遍歷文件夾,每個文件一個goroutine進行求摘要值,然后將結果發送一個數據類型為result的channel中:

  1. type result struct {  
  2.     path string  
  3.     sum  [md5.Size]byte 
  4.     err  error  

sumFiles 返回兩個channel:一個用于生成結果,一個用于filepath.Walk返回錯誤。Walk函數為每一個普通文件啟動一個goroutine,然后檢查done,如果done被關閉,walk馬上就會退出。

  1. func sumFiles(done <-chan struct{}, root string) (<-chan result, <-chan error) {  
  2.     // For each regular file, start a goroutine that sums the file and sends  
  3.     // the result on c.  Send the result of the walk on errc.  
  4.     c := make(chan result)  
  5.     errc := make(chan error, 1)  
  6.     go func() {  
  7.         var wg sync.WaitGroup  
  8.         err := filepath.Walk(root, func(path string, info os.FileInfo, err error) error {  
  9.             if err != nil {  
  10.                 return err  
  11.             }  
  12.             if info.IsDir() {  
  13.                 return nil  
  14.             }  
  15.             wg.Add(1)  
  16.             go func() {  
  17.                 data, err := ioutil.ReadFile(path)  
  18.                 select {  
  19.                 case c <- result{path, md5.Sum(data), err}:  
  20.                 case <-done:  
  21.                 }  
  22.                 wg.Done()  
  23.             }()  
  24.             // Abort the walk if done is closed.  
  25.             select {  
  26.             case <-done:  
  27.                 return errors.New("walk canceled")  
  28.             default:  
  29.                 return nil  
  30.             }  
  31.         })  
  32.         // Walk has returned, so all calls to wg.Add are done.  Start a  
  33.         // goroutine to close c once all the sends are done.  
  34.         go func() {  
  35.             wg.Wait()  
  36.             close(c)  
  37.         }()  
  38.         // No select needed here, since errc is buffered.  
  39.         errc <- err  
  40.     }()  
  41.     return c, errc  

MD5All 從c中接收摘要值。MD5All 在遇到錯誤時提前退出,通過defer關閉done。

  1. func MD5All(root string) (map[string][md5.Size]byte, error) {  
  2.     // MD5All closes the done channel when it returns; it may do so before  
  3.     // receiving all the values from c and errc.  
  4.     done := make(chan struct{})  
  5.     defer close(done)  
  6.    
  7.     c, errc := sumFiles(done, root)  
  8.    
  9.     m := make(map[string][md5.Size]byte)  
  10.     for r := range c {  
  11.         if r.err != nil {  
  12.             return nil, r.err  
  13.         }  
  14.         m[r.path] = r.sum  
  15.     }  
  16.     if err := <-errc; err != nil {  
  17.         return nil, err  
  18.     }  
  19.     return m, nil  

有界并行

parallel.go中實現的MD5ALL,對每一個文件啟動了一個goroutine。在一個包含大量大文件的文件夾中,這會導致超過機器可用內存的內存分配。(譯者注:即發生OOM)

我們可以通過限制讀取文件的并發度來避免這種情況發生。在bounded.go中,我們通過創建一定數量的goroutine讀取文件。現在我們的管道現在有三個階段:遍歷文件夾,讀取文件并計算摘要值,收集摘要值。

第一個階段,walkFiles,輸出文件夾中普通文件的文件路徑:

  1. func walkFiles(done <-chan struct{}, root string) (<-chan string, <-chan error) {  
  2.     paths := make(chan string)  
  3.     errc := make(chan error, 1)  
  4.     go func() {  
  5.         // Close the paths channel after Walk returns.  
  6.         defer close(paths)  
  7.         // No select needed for this send, since errc is buffered.  
  8.         errc <- filepath.Walk(root, func(path string, info os.FileInfo, err error) error {  
  9.             if err != nil {  
  10.                 return err  
  11.             }  
  12.             if info.IsDir() {  
  13.                 return nil  
  14.             }  
  15.             select {  
  16.             case paths <- path:  
  17.             case <-done:  
  18.                 return errors.New("walk canceled")  
  19.             }  
  20.             return nil  
  21.         })  
  22.     }()  
  23.     return paths, errc  

中間的階段啟動一定數量的digester goroutine,從paths接收文件名稱,并向c發送result結構:

  1. func digester(done <-chan struct{}, paths <-chan string, c chan<- result) {  
  2.     for path := range paths {  
  3.         data, err := ioutil.ReadFile(path)  
  4.         select {  
  5.         case c <- result{path, md5.Sum(data), err}:  
  6.         case <-done:  
  7.             return 
  8.         }  
  9.     }  

和前一個例子不同,digester并不關閉其輸出channel,因為輸出channel是共享的,多個goroutine會向同一個channel發送數據。MD5All 會在所有的digesters 結束后關閉響應的channel。

  1. // Start a fixed number of goroutines to read and digest files.  
  2. c := make(chan result)  
  3. var wg sync.WaitGroup  
  4. const numDigesters = 20 
  5. wg.Add(numDigesters)  
  6. for i := 0; i < numDigesters; i++ {  
  7.     go func() {  
  8.         digester(done, paths, c)  
  9.         wg.Done()  
  10.     }()  
  11. }  
  12. go func() {  
  13.     wg.Wait()  
  14.     close(c)  
  15. }() 

我們也可以讓每一個digester創建并返回自己的輸出channel,但如果這樣的話,我們需要額外的goroutine來扇入這些結果。
最后一個階段從c中接收所有的result數據,并從errc中檢查錯誤。這種檢查不能在之前的階段做,因為在這之前,walkFiles 可能被阻塞不能往下游發送數據:

  1.     m := make(map[string][md5.Size]byte)  
  2.     for r := range c {  
  3.         if r.err != nil {  
  4.             return nil, r.err  
  5.         }  
  6.         m[r.path] = r.sum  
  7.     }  
  8.     // Check whether the Walk failed.  
  9.     if err := <-errc; err != nil {  
  10.         return nil, err  
  11.     }  
  12.     return m, nil  

結論

這篇文章介紹了如果用Go構建流式數據管道的技術。在這樣的管道中處理錯誤有點取巧,因為管道中每一個階段可能被阻塞不能往下游發送數據,下游階段可能已經不關心輸入數據。我們展示了關閉channel如何向所有管道啟動的goroutine廣播一個done信號,并且定義了正確構建管道的指導思想。

深入閱讀:

• Go并發模式(視頻)展示了Go并發原語的基本概念和幾個實現的方法

• 高級Go并發模式(視頻)包含幾個更為復雜的Go并發原語的使用,尤其是select

• Douglas McIlroy的Squinting at Power Series論文展示了類似Go的并發模式如何為復雜的計算提供優雅的支持。

原文鏈接: Golang - Sameer Ajmani   翻譯: 伯樂在線 - Codefor

譯文鏈接: http://blog.jobbole.com/65552/

責任編輯:林師授 來源: 伯樂在線
相關推薦

2023-12-29 08:10:41

Go并發開發

2013-05-28 09:43:38

GoGo語言并發模式

2024-01-29 00:35:00

Go并發開發

2022-04-24 15:29:17

微服務go

2021-11-28 22:33:01

Go選項模式

2024-12-03 12:02:05

2025-03-24 00:25:00

Go語言并發編程

2023-08-08 07:18:17

協程管道函數

2025-06-10 02:00:00

Golangmap

2019-12-24 16:52:22

Go語言騰訊TM函數

2014-07-21 09:22:40

GoAPI

2022-10-17 08:07:13

Go 語言并發編程

2024-06-17 08:40:16

2021-11-10 15:18:16

JavaGo命令

2023-04-10 09:20:13

設計模式訪客模式

2023-05-04 08:47:31

命令模式抽象接口

2018-09-10 08:45:04

Linux管道命令

2021-02-20 20:36:56

Linux無名管道

2020-09-16 12:18:28

GoJava模式

2025-03-27 00:45:00

點贊
收藏

51CTO技術棧公眾號

国产精品x8x8一区二区| 青草成人免费视频| 妓院一钑片免看黄大片| 国产在线一二三区| 精品成人一区| 亚洲欧美中文字幕| 九色91popny| 免费高清完整在线观看| 国产盗摄女厕一区二区三区| 久久久久久久久久久国产| 麻豆tv在线观看| 无码小电影在线观看网站免费| 久久午夜老司机| 国产精品一区二区性色av | 黄色一级大片在线免费观看| 国产原创一区| 一区二区三区精品视频在线| 好看的日韩精品视频在线| 五月婷婷视频在线| 香蕉综合视频| 亚洲精品美女在线| 在线观看av网页| brazzers在线观看| 国产欧美视频一区二区| 91在线高清视频| 国产成人愉拍精品久久| 欧美日韩激情| 精品久久免费看| 婷婷丁香激情网| 中文av资源在线| 国产精品99久久久久久久vr | 懂色av蜜桃av| 综合中文字幕| 欧美日韩色婷婷| 亚洲一区二区三区精品动漫| 全国男人的天堂网| 久久亚洲影院| 久久露脸国产精品| 天天操天天摸天天舔| 久久精品色播| 7777精品伊人久久久大香线蕉经典版下载 | 久久久久久久久久久久久9999| 一级黄色大片免费| 99精品国产在热久久婷婷| 日韩专区在线观看| 四虎永久免费影院| 操欧美女人视频| 欧美日韩国产综合视频在线观看| 亚洲欧洲日产国码无码久久99| 在线三级电影| 中文字幕在线不卡| 午夜精品一区二区三区四区| 污污的视频网站在线观看| 蜜桃精品视频在线观看| 4k岛国日韩精品**专区| 国产精品不卡av| 亚洲美女视频| 久久久精品网站| 精品人妻一区二区三区蜜桃视频| 欧美尿孔扩张虐视频| 日韩欧美国产麻豆| 久久影院午夜精品| 天天插综合网| 精品视频久久久| 91欧美视频在线| 欧美电影免费观看高清完整| 五月婷婷另类国产| 精品人妻大屁股白浆无码| 免费在线你懂的| 亚洲国产成人自拍| 茄子视频成人在线观看| 色久视频在线播放| 99精品久久免费看蜜臀剧情介绍| 91久久伊人青青碰碰婷婷| 99精品人妻无码专区在线视频区| 日韩精品一级中文字幕精品视频免费观看 | 中文字幕 国产| 视频在线观看一区二区三区| 欧美一级在线亚洲天堂| 亚洲精品1区2区3区| 国产欧美日本| 日本精品久久久久影院| 加勒比在线一区| 亚洲一区成人| 欧美激情小视频| 久久久久久久99| 99国产精品99久久久久久粉嫩| 欧美日韩1区2区3区| 欧美羞羞免费网站| 国产成人精品视频ⅴa片软件竹菊| 成人影院网站| 一本久久a久久免费精品不卡| 国产 福利 在线| 午夜影院免费在线| 玉米视频成人免费看| www.男人天堂网| 国产夫妻在线播放| 色94色欧美sute亚洲线路一久| 日本中文字幕高清| www.久久99| 精品国产1区二区| 欧美色图亚洲激情| 日韩系列欧美系列| 欧美另类高清videos| 日韩精品一区二区在线播放| 日韩高清不卡在线| 亚洲一区二区三区四区在线播放| 国产18精品乱码免费看| 久久久久国产成人精品亚洲午夜| 中文字幕剧情在线观看一区| 蜜臀av在线| 色久综合一二码| 欧美一级xxxx| 日韩av系列| 日韩视频―中文字幕| 日韩乱码人妻无码中文字幕| 日韩成人dvd| julia一区二区中文久久94| 日本v片在线免费观看| 国产精品国产三级国产a| 成人免费播放器| 78精品国产综合久久香蕉| 精品日韩99亚洲| 日韩一级片在线免费观看| 国模大胆一区二区三区| 91高清视频在线免费观看| 一道本在线视频| 92国产精品观看| 日韩视频一二三| 电影天堂国产精品| 精品国产一区二区三区不卡| 山东少妇露脸刺激对白在线| 亚洲国产第一| 91欧美精品成人综合在线观看| 亚州男人的天堂| 一区二区三区**美女毛片| 91香蕉视频导航| jazzjazz国产精品久久| 国产一区二区三区丝袜| 国产亚洲精品av| 激情伊人五月天久久综合| 快播日韩欧美| av电影院在线看| 欧美一区在线视频| а天堂中文在线资源| 久久福利毛片| 国产精品v欧美精品v日韩| 精品麻豆一区二区三区| 在线观看成人小视频| 久久国产精品无码一级毛片 | 国精产品一区一区三区mba桃花 | 精品少妇人欧美激情在线观看| 中文字幕视频二区| 国产999精品久久久久久绿帽| 永久域名在线精品| 日韩一区二区三区在线免费观看| 精品国产乱码久久| 日韩影院一区二区| 国产一区视频网站| 亚洲黄色网址在线观看| 欧美美女被草| 色诱女教师一区二区三区| 无码人妻久久一区二区三区| av中文字幕在线不卡| 国产自产在线视频| jizzjizzjizz欧美| 欧美精品videosex性欧美| a天堂在线视频| 一区二区三区在线视频播放| 亚洲免费黄色录像| 久久精品久久久| 91人成网站www| 国产鲁鲁视频在线观看特色| 一本久道中文字幕精品亚洲嫩| 女~淫辱の触手3d动漫| 日日夜夜精品视频免费| 色综合久久av| 黄瓜视频成人app免费| 亚洲天堂男人天堂女人天堂| 青青草视频在线观看免费| 日本一区二区三区四区| 一级黄色特级片| 91欧美在线| 亚洲一区二区三区毛片| 免费影视亚洲| 亚洲精品一区av在线播放| 日韩成人在线免费视频| 成人午夜精品一区二区三区| 久在线观看视频| 国产欧美日韩在线观看视频| 国产精品日韩专区| 日本免费视频在线观看| 欧美草草影院在线视频| 国产精品1234区| 久久久青草青青国产亚洲免观| 波多野结衣天堂| 亚洲午夜精品一区 二区 三区| 亚洲精品成人| 国产精品99久久久久久久久久久久| 精华区一区二区三区| 蜜桃一区二区三区| 亚洲欧美制服丝袜| 国产一级精品毛片| 亚洲综合成人在线视频| 亚洲制服丝袜在线播放| 青青草精品视频| 91亚洲精品国产| 亚洲a级精品| 91免费视频国产| 亚洲精品福利电影| 按摩亚洲人久久| 亚洲色图狠狠干| 欧美老女人第四色| 日本精品在线免费观看| 国产传媒久久文化传媒| 人妻内射一区二区在线视频| 99视频精品全国免费| 国产伦精品一区| 高清av一区| 午夜精品久久久久久久久久久久久| 大胆av不用播放器在线播放| 精品国产区一区| 波多野结衣影片| 亚洲最大成人综合| av免费播放网站| av不卡在线播放| 亚洲无在线观看| 男人的天堂成人在线| 成年丰满熟妇午夜免费视频| 久久av导航| 国产综合精品一区二区三区| 成人污污视频| 国产精品88a∨| 国产网红女主播精品视频| 国产一区二区久久精品| 国模私拍视频在线| 91精品国模一区二区三区| av毛片在线免费观看| 午夜久久久久久| 国产波霸爆乳一区二区| www.欧美精品一二区| 国产日韩欧美久久| 久久久久久夜| 亚洲欧洲日产国码无码久久99| 综合日韩在线| 在线观看一区欧美| 日韩av久操| 日韩欧美一区二区视频在线播放| 亚洲欧美综合7777色婷婷| 日韩电影一区| 玛丽玛丽电影原版免费观看1977| 亚洲综合影院| 99视频在线播放| 国产一区精品二区| 国产日韩欧美另类| a屁视频一区二区三区四区| 久久久亚洲成人| 欧美videosex性欧美黑吊| 久久亚洲成人精品| 黄黄的网站在线观看| 爱福利视频一区| 激情视频在线观看| 欧美成人精品不卡视频在线观看| 蜜桃视频网站在线| 日韩在线www| a级片国产精品自在拍在线播放| 日韩中文字幕视频在线| 国产视频中文字幕在线观看| 久久精品视频va| 99se视频在线观看| 一个人看的www久久| h网站在线免费观看| 色阁综合伊人av| 国产黄色在线网站| 欧美日韩高清在线观看| 国产盗摄精品一区二区酒店| 97国产在线视频| 三上悠亚激情av一区二区三区| 日韩av男人的天堂| 竹内纱里奈兽皇系列在线观看| 日本不卡免费高清视频| 成人在线黄色| 成人国产精品一区二区| 日韩中文一区二区| 国产精品伊人日日| 精品中文字幕一区二区三区av| 热舞福利精品大尺度视频| 蜜乳av综合| 一本一本a久久| 欧美日韩 国产精品| 男人操女人免费软件| 日本不卡中文字幕| 91网址在线观看精品| 风间由美一区二区三区在线观看| 亚洲激情 欧美| aaa欧美日韩| 精品国产aaa| 亚洲永久免费视频| 午夜精品免费观看| 91精品蜜臀在线一区尤物| 五月婷婷激情在线| 色爱av美腿丝袜综合粉嫩av| 黄页在线观看免费| 国产精欧美一区二区三区| 精品国产一区二区三区2021| 国产精品日韩欧美一区二区三区| 日韩电影在线观看完整免费观看| 日韩精品久久久免费观看| 亚洲a一区二区三区| 91国视频在线| 狠狠色综合播放一区二区| 美女又爽又黄免费| 中文字幕一区二区三区色视频| 亚洲精品久久久一区二区三区| 少妇高潮一区二区三区69| 国产午夜精品全部视频在线播放| av网站大全在线| 欧美精品18videos性欧美| 成人国产一区二区三区精品麻豆| 99久久精品无码一区二区毛片| 九九久久婷婷| 欧美爱爱视频网站| 免费国产自线拍一欧美视频| 男人插女人下面免费视频| 成人激情黄色小说| 啪啪一区二区三区| 色偷偷久久一区二区三区| 懂色av成人一区二区三区| 综合国产在线视频| 91超碰在线免费| 亚洲在线免费视频| 久久在线免费| 成人久久久久久久久| av中文字幕亚洲| 九九视频免费观看| 欧美日韩激情一区| 少妇人妻精品一区二区三区| 中文国产成人精品| 吞精囗交69激情欧美| 国产一区二区三区四区五区在线| 亚洲激情中文在线| 最近中文字幕一区二区| 99精品久久只有精品| 日韩久久久久久久久| 欧美成人性福生活免费看| 国产私拍精品| 欧美激情国产高清| 国产一区二区av在线| 一区不卡字幕| 麻豆成人久久精品二区三区红| 日韩精品电影一区二区| 婷婷丁香久久五月婷婷| 性感美女福利视频| 国产成人精品久久| 超碰成人久久| 波多野结衣免费观看| 亚洲精品中文字幕在线观看| 不卡的日韩av| 性欧美长视频免费观看不卡| 亚洲欧美校园春色| 看欧美ab黄色大片视频免费| 国产精品毛片久久久久久| 国产精品久久久久久久久久久久久久久久久久 | 国产精品嫩草69影院| 亚洲va韩国va欧美va精品| 视频三区在线观看| 国产精品久久网| 中文字幕亚洲综合久久五月天色无吗'' | 日韩欧美一二区| 高清视频在线观看三级| 欧美男人的天堂| 看片网站欧美日韩| 久艹视频在线观看| 琪琪久久久久日韩精品| 亚洲永久一区二区三区在线| 国产在线不卡一区| 国产成人免费观看视频 | 日本韩国一区二区| 欧美性videos| 国产精品久久久久久久久久久久午夜片 | 中文字幕不卡在线视频极品| 久久精品免视看国产成人| 91九色丨porny丨国产jk| 久久久久久久久久久黄色| 中文字幕永久免费视频| 欧美丰满少妇xxxxx| 一本色道久久综合亚洲精品酒店| 在线观看免费视频高清游戏推荐| 亚洲美女免费视频| 日韩午夜影院| 亚洲va久久久噜噜噜| 久久久成人网| √天堂中文官网8在线| 日韩av一区在线观看| 亚洲一区有码| 亚洲 高清 成人 动漫| 亚洲私人影院在线观看| 日本在线丨区| 1卡2卡3卡精品视频| 免费高清在线一区|