精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

人工智能的新希望-強化學習全解

開發 開發工具
很多人說,強化學習被認為是真正的人工智能的希望。本文將從7個方面帶你入門強化學習,讀完本文,希望你對強化學習及實戰中實現算法有著更透徹的了解。

[[183719]]

編譯團隊 | Jennifer Zhu 賴小娟 張禮俊

作者 | FAIZAN SHAIKH

很多人說,強化學習被認為是真正的人工智能的希望。本文將從7個方面帶你入門強化學習,讀完本文,希望你對強化學習及實戰中實現算法有著更透徹的了解。

介紹

許多科學家都在研究的一個最基本的問題是“人類如何學習新技能?”。 理由顯而易見– 如果我們能解答這個問題,人類就能做到很多我們以前沒想到的事情。 另一種可能是我們訓練機器去做更多的“人類”任務,創造出真正的人工智能。

雖然我們還沒有上述問題的全部答案,但有一些事情是清楚的。不論哪種技能,我們都是先通過與環境的互動來學習它。無論是學習駕駛汽車還是嬰兒學步,我們的學習都是基于與環境的互動。 從這些互動中學習是所有關于學習與智力的理論的基礎概念。

強化學習

今天我們將探討強化學習(Re-inforcement Learning) 一種基于與環境互動的目標導向的學習。強化學習被認為是真正的人工智能的希望。我們認為這是正確的說法,因為強化學習擁有巨大的潛力。

強化學習正在迅速發展。它已經為不同的應用構建了相應的機器學習算法。因此,熟悉強化學習的技術會對深入學習和使用機器學習非常有幫助。如果您還沒聽說過強化學習,我建議您閱讀我之前關于強化學習和開源強化學習(RL)平臺的介紹文章

(https://www.analyticsvidhya.com/blog/2016/12/getting-ready-for-ai-based-gaming-agents-overview-of-open-source-reinforcement-learning-platforms/)。

如果您已經了解了一些強化學習的基礎知識,請繼續閱讀本文。讀完本文,您將會對強化學習及實戰中實現算法有著更透徹的了解。

附:下面這些算法實現的講解中,我們將假設您懂得Python的基本知識。如果您還不知道Python,建議可以先看看這個Python教程

(https://www.analyticsvidhya.com/blog/2016/01/complete-tutorial-learn-data-science-python-scratch-2/)。

輕松搞定強化學習

(1-4是強化學習的步驟,5-7是其他資源)

  • 1. 提出一個強化學習的問題
  • 2. 強化學習 v.s. 其他機器學習方法
  • 3. 解決強化學習問題的基本框架
  • 4. 用python實現強化學習算法
  • 5. 更復雜的應用
  • 6. 強化學習的最新進展
  • 7. 其他強化學習的資源

1. 提出一個強化學習的問題

強化學習的目的是學習如何做一件事情,以及如何根據不同的情況選擇不同的行動。 它的最終結果是為了實現數值回報信號的最大化。強化學習并不告訴學習者采取哪種行動,而是讓學習者去發現采取哪種行動能產生最大的回報。 下面讓我們通過一個孩子學走路的簡單例子(下圖)來解釋什么是強化學習。

[[183720]]

上圖:孩子學走路。

以下是孩子在學習走路時要采取的步驟:

  • 首先孩子將觀察你是如何行走的。你用兩條腿,一步一步走。得到這個概念后,孩子試圖模仿你走路的樣子。
  • 但孩子很快發現,走路之前必須站起來!這是一個試圖走路必經的挑戰。所以現在孩子試圖先站起來,雖然經歷掙扎和滑倒,但仍然決心站起來。
  • 然后還有另一個挑戰要應付:站起來很容易,但要保持站立又是另一項挑戰!孩子揮舞著雙手,似乎是想找到能支撐平衡的地方,設法保持著站立。
  • 現在孩子開始他/她真正的任務––走路。這是件說比做容易的事。要記住很多要點,比如平衡體重,決定先邁哪個腳,把腳放在哪里。

這聽起來像一個困難的任務嗎?實際上站起來和開始走路確實有點挑戰性,但當你走熟練了就不會再覺得走路難。不過通過我們的分析,現在的您大概明白了一個孩子學走路的困難點。

讓我們把上面的例子描述成一個強化學習的問題(下圖)。這個例子的“問題”是走路,這個過程中孩子是一個試圖通過采取行動(行走)來操縱環境(孩子行走的表面)的智能體(agent)。他/她試圖從一個狀態(即他/她采取的每個步驟)到另一個狀態。當他/她完成任務的子模塊(即采取幾個步驟)時,孩子將得到獎勵(讓我們說巧克力)。但當他/她不能完成走幾步時,他/她就不會收到任何巧克力(亦稱負獎勵)。這就是對一個強化學習問題的簡單描述。

把小孩子學走路的過程(圖下方)歸納成一個強化學習的問題(圖上方)

把小孩子學走路的過程(圖下方)歸納成一個強化學習的問題(圖上方)

上圖:把小孩子學走路的過程(圖下方)歸納成一個強化學習的問題(圖上方)。

 

這里我們還推薦一個不錯的對強化學習的視頻介紹(https://www.youtube.com/watch?v=m2weFARriE8)。

2. 強化學習 v.s. 其他機器學習方法

強化學習是機器學習算法的一個大的類型。下圖描述了機器學習方法的類型。

機器學習方法的類型

上圖:機器學習的方法分類:藍色方框從左到右依次為監督學習,無監督學習和強化學習。

讓我們來比較一下強化學習和其他種類機器學習方法:

● 監督學習(supervised learning)v.s. 強化學習:在監督學習中,有一個外部“監督者”(supervisor)。“監督者”了解環境,并與智能體共享環境信息以完成任務。但這其中存在一些問題,智能體可以通過執行許多種不同子任務的組合來達到目標。所以創建一個“監督者””幾乎是不切實際的。例如在象棋游戲中,有成千上萬種走法。因此,創建一個可以下象棋的知識庫是一個單調乏味的任務。在這樣的問題中,從經驗中學習更為可行。這可以說是強化學習和監督學習的主要區別。在監督學習和強化學習中,輸入和輸出之間都存在映射(mapping)。但在強化學習中,還存在對智能體進行反饋的獎勵函數,這在監督學習中是不存在的。

● 無監督學習(unsupervised learning) v.s. 強化學習:在強化學習中,有一個從輸入到輸出的映射。這種映射在無監督學習中并不存在。在無監督學習中,主要任務是找到數據本身的規律而不是映射。例如,如果任務是向用戶建議新聞文章,則無監督學習算法將查看該人先前讀過的文章并向他們建議類似的文章。而強化學習算法將通過建議少量新聞文章給用戶,從用戶獲得不斷的反饋,然后構建一個關于人們喜歡哪些文章的“知識圖”。

此外,還有第四種類型的機器學習方法,稱為半監督學習(semi-supervised learning),其本質上是監督學習和無監督學習的結合(利用監督學習的標記信息,利用未標記數據的內在特征)。它類似于監督學習和半監督學習,不具有強化學習具備的反饋機制(獎賞函數)。(譯者注:這里應該是原文作者的筆誤,強化學習有映射,映射是每一個狀態對應值函數。而無監督學習沒有標記信息,可以說是沒有映射的。我想這里作者想要表達的是半監督學習區別于強化學習的地方是半監督學習沒有強化學習的反饋這個機制。)

3. 解決強化學習問題的基本框架

為了了解如何解決強化學習問題,我們將分析一個強化學習問題的經典例子––多搖臂老虎機問題。 首先,我們將去回答探索 v.s. 利用的根本問題,然后繼續定義基本框架來解決強化學習的問題。

[[183723]]

上圖:賭場里的“老虎機”。

假設你有很多吐出隨機獎金的老虎機(即投幣式游戲機,見上圖)。

現在你想盡可能快地從老虎機獲得最多的獎金。你會怎么做?

一個幼稚的方法可能是只選擇一個老虎機,并拉一整天的杠桿。聽起來好無聊,但這種方法可能會給你贏點小錢。你也有可能會中大獎(幾率接近0.00000 ... .1),但大多數時候你可能只是坐在老虎機面前虧錢。這種方法的正式定義是一種純利用(pureexploitation)的方法。這是我們的最佳選擇嗎?答案是不。

讓我們看看另一種方法。我們可以拉每個老虎機的杠桿,并向上帝祈禱,至少有一個會中獎。這是另一個幼稚的方法,能讓你拉一整天的杠桿,但老虎機們只會給你不那么好的收獲。正式地,這種方法也被正式定義為一種純探索(pureexploration)的方法。

這兩種方法都不是最優的方法。我們得在它們之間找到適當的平衡以獲得最大的回報。這被稱為強化學習的探索與利用困境。

首先,我們要正式定義強化學習問題的框架,然后列出可能的解決方法。

馬爾可夫決策過程:

在強化學習中定義解法的數學框架叫做馬爾可夫決策過程(Markov Decision Process)。 它被設計為:

● 一系列狀態的集合(Set of states),S

● 一系列行動的集合(Set of actions),A

● 獎勵函數(Reward function),R

● 策略(Policy),π

● 價值(Valu),V

我們必須采取行動(A)從我們的開始狀態過渡到我們的結束狀態(S)。我們采取的每個行動將獲得獎勵(R)。 我們的行為可以導致正獎勵或負獎勵。

我們采取的行動的集合(A)定義了我們的策略(π),我們得到的獎勵(R)定義了我們的價值(V)。 我們在這里的任務是通過選擇正確的策略來最大化我們的獎勵。 所以我們必須對時間t的所有可能的S值最大化。

旅行推銷員問題

讓我們通過另一個例子來進一步說明如何定義強化學習問題的框架。

旅行推銷員的例子

上圖:旅行推銷員的例子。A–F表示地點,之間的連線上的數字代表在兩個地點間的旅行成本。

 

這顯示的是旅行推銷員問題。推銷員的任務是以盡可能低的成本從地點A到地點F。 這兩個位置之間的每條連線上的數字表示旅行這段距離所需花費的成本。負成本實際上是一些出差的收入。 我們把當推銷員執行一個策略累積的總獎勵定義為價值。

這里,

● 一系列狀態的集合是那些節點,即{A,B,C,D,E,F}

● 采取的行動的集合是從一個地方到另一個地方,即{A→B,C→D等}

● 獎勵函數是節點的連線上的值,即成本

● 策略是完成任務的“方式”,即{A - > C - > F}

現在假設你在位置A,在這個平臺上唯一可見路徑是你下一目的地的(亦稱可觀測的空間),除此之外所有都是未知的。

當然你可以用貪婪算法選擇下一步最有可能的,從{A -> (B, C, D, E)}子集中選出{A -> D}。同樣的你在位置D,想要到達F,你可以從{D -> (B, C, F)}中選擇,可以看出由于{D -> F}路徑花費最小,選擇此路徑。

到此為止,我們的規則是{A -> D -> F},價值為-120.

恭喜你!你剛剛完成了一個強化學習算法。這個算法被稱作ε-貪心算法,以貪心方式解決問題。現在如果你(銷售人員)想要再次從位置A到F,你總是會選擇相同的策略。

其他的旅行方式?

你可以猜測到我們的策略屬于哪一個類別么(例如,純探索vs純開發)?

可以看出我們選擇的并不是最優策略,我們必須去一點點“探索”來發現最優策略。在這里我們使用的方法是基于策略的學習,我們的任務是在所有可能策略中發現最優策略。解決這個問題有很多不同的方式,簡單列舉主要類別如下:

● 基于策略,重點是找到最優策略

● 基于價值,重點是找到最優價值,例如,累計獎勵

● 基于動作,重點是在執行每一步動作時,確定什么是最優動作

我會嘗試在以后的文章中更深入地講述強化學習算法,那時,你們就可以參考這篇強化學習算法調查的文章(https://www.jair.org/media/301/live-301-1562-jair.pdf)。(譯者注:這里是原文作者的一個筆誤。Q-learning,它可以用一個線性函數作為function approximator, 也可以通過列舉每一個q-state的值來做。用神經網絡來做Q-learning的function approximator應該是15年Google Deepmind發表在Nature的文章開始的,那篇文章中稱該算法為deep-Q-network,后來統稱為deep q learning)

4. 強化學習的實踐案例

我們會使用深度Q學習算法,Q學習是基于策略的,用神經網絡來近似值函數的學習算法。Google使用該算法在Atari游戲中擊敗了人類。

讓我們看看Q學習的偽代碼:

  • 初始化價值表‘Q(s,a)’.
  • 觀測到當前狀態點’s’.
  • 基于策略選擇該狀態下的行動’a’(例如,ε-貪心)
  • 采取行動并觀察獎勵值’r’及新狀態點’s’
  • 根據上面描述的公式及參數,用觀測到的獎勵值及下一狀態可能的最大獎勵值更新狀態點新值。
  • 設置新狀態,重復此流程直至到達最后目標點。

Q學習算法的簡單描述可以總結如下:

Q學習算法流程圖

該圖是Q學習算法流程圖

我們先看看什么是Cartpole問題,再繼續編程提供解決方案

當我還是一個小孩的時候,我記得我會撿一根棍子試著用一只手讓它保持平衡。我和我的朋友們一起比賽看誰讓棍子保持平衡的時間最長就可以得到“獎勵”,一塊巧克力!

開始我們的代碼前,我們需要先安裝一些東西,

步驟1:安裝keras-rl庫

從終端運行以下命令:

  1. git clone https://github.com/matthiasplappert/keras-rl.git 
  2. cd keras-rl 
  3. python setup.py install 

步驟2:安裝CartPole環境組件

假設你已經安裝了pip,使用pip命令安裝以下庫

  1. pip install h5py 
  2. pip install gym 

步驟3:啟動

首先我們要導入所需模塊

  1. import numpy as np 
  2. import gym 
  3.  
  4. from keras.models import Sequential 
  5. from keras.layers import Dense, Activation, Flatten 
  6. from keras.optimizers import Adam 
  7.  
  8. from rl.agents.dqn import DQNAgent 
  9. from rl.policy import EpsGreedyQPolicy 
  10. from rl.memory import SequentialMemory 

然后設置相關變量

  1. ENV_NAME = 'CartPole-v0' 
  2.  
  3. # Get the environment and extract the number of actions available in theCartpole problem 
  4. env = gym.make(ENV_NAME) 
  5. np.random.seed(123) 
  6. env.seed(123) 
  7. nb_actions = env.action_space.n 

下一步,我們創建一個簡單的單隱層神經網絡模型。

  1. model = Sequential() 
  2. model.add(Flatten(input_shape=(1,) + env.observation_space.shape)) 
  3. model.add(Dense(16)) 
  4. model.add(Activation('relu')) 
  5. model.add(Dense(nb_actions)) 
  6. model.add(Activation('linear')) 
  7. print(model.summary()) 

接下來,配置并編譯我們的代理端。我們將策略設成ε-貪心算法,并且將存儲設置成順序存儲方式因為我們想要存儲執行操作的結果和每一操作得到的獎勵。

  1. policy = EpsGreedyQPolicy() 
  2. memory = SequentialMemory(limit=50000window_length=1
  3. dqn = DQNAgent(modelmodel=model, nb_actionsnb_actions=nb_actions, memorymemory=memory,nb_steps_warmup=10
  4. target_model_update=1e-2, policypolicy=policy) 
  5. dqn.compile(Adam(lr=1e-3), metrics=['mae']) 
  6.  
  7. dqn.fit(env, nb_steps=5000visualize=Trueverbose=2

現在測試強化學習模型

  1. dqn.test(env, nb_episodes=5visualize=True
  2. This will be the output of our model: 

這就是模型輸出結果:

[[183725]]

瞧!你構建了一個強化模型的雛形!

 

5. 增加復雜性

現在你已經有了一個強化學習的基礎成品,讓我們來進一步的每次增加一點點復雜度以解決更多的問題。

問題-漢諾塔

 問題-漢諾塔

對于不知道該游戲的人簡單說明一下——發明于1883年,由3根桿及一些逐增大小的圓盤(如上圖中所示的3個一樣)從最左邊的桿開始,目標是從選擇最小移動次數將所有圓盤從最左邊移動到最右邊(你可以從維基百科得到更多訊息(https://en.wikipedia.org/wiki/Tower_of_Hanoi))。

如果我們要映射這個問題,從定義狀態開始:

● 開始狀態 – 3個圓盤都在最左邊桿上(從上到下依次為1、2、3)

● 結束狀態 – 3個圓盤都在最右邊桿上(從上到下依次為1、2、3)

所有可能的狀態:

列舉可能的27個狀態:

圖中(12)3*代表的是圓盤1和圓盤2依次在最左邊桿上(從上到下),圓盤3在中間桿上,*表示最右邊桿為空

圖中(12)3*代表的是圓盤1和圓盤2依次在最左邊桿上(從上到下),圓盤3在中間桿上,*表示最右邊桿為空

數字獎勵:

因為我們想以最少步數來解決問題,我們可以設定每一步的獎勵為-1。

規則:

現在,不考慮任何技術細節,我們可以標記出在以上狀態間可能出現的轉移。例如從獎勵為-1的狀態(123)** 到狀態 (23)1*,也可以是到狀態(23)*1。

同樣地,你看出了上面提到的27個狀態的每一個都類似于之前銷售人員旅行的示意圖。我們可以根據之前的經驗找出最優解決方案選擇不同狀態和路徑。

問題 - 3 x 3 魔方

當我在為你解決這個問題的同時,也想要你自己也做一做。遵照我上面使用的相同步驟,你可以更好的理解和掌握。

從定義開始和結束狀態開始,接下來,定義所有可能的狀態和相應的狀態轉移獎勵和規則。最后,使用相同的方法你可以提供解決魔方問題的方案。

6. 強化學習的研究現狀

你已經意識到了魔方問題的復雜度比漢諾塔高了好幾個倍,也明白每次可選擇的操作數是怎么增長的。現在想想圍棋游戲里面狀態數和選擇,行動起來吧!最近谷歌DeepMind創建了一個深度強化學習算法打敗了李世石!

隨著近來涌現的深度學習成功案例,焦點慢慢轉向了應用深度學習解決強化學習問題。李世石被谷歌deepmind開發的深度強化學習算法開打敗的新聞鋪天蓋地襲來。同樣的突破也出現在視頻游戲中,已經逼近甚至超出人類級別的準確性。研究仍然同等重要,不管是行業還是學術界的翹楚都在共同完成這個構建更好的自我學習機器的目標。

李世石與AlphaGo參與圍棋人機大戰中

圖為李世石與AlphaGo參與圍棋人機大戰中

深度學習應用的主要領域如下:

● 游戲原理及多智能體交互

● 機器人學

● 計算機網絡

● 車輛導航

● 醫藥學

● 行業物流

隨著近期將深度學習應用于強化學習的熱潮,毫無疑問還有許多未探索的事在等待著更多的突破來臨!

其中一條最近的新聞:

7. 其他資源

我希望現在你已經對強化學習怎么運行有了一個深入的了解。列舉了一些可以幫你探索更多有關強化學習的其他資源:

  • 強化學習視頻(https://www.analyticsvidhya.com/blog/2016/12/21-deep-learning-videos-tutorials-courses-on-youtube-from-2016/)
  • 介紹強化學習的書籍(https://webdocs.cs.ualberta.ca/~sutton/book/bookdraft2016sep.pdf)
  • Github上強化學習的優秀資源(https://github.com/aikorea/awesome-rl)
  • David Silver強化學習課程(https://www.youtube.com/playlist?list=PLV_1KI9mrSpGFoaxoL9BCZeen_s987Yxb)

結束語

我希望你們能喜歡閱讀這篇文章,如果你們有任何疑慮和問題,請在下面提出。如果你們有強化學習的工作經驗請在下面分享出來。通過這篇文章我希望能提供給你們一

個強化學習的概況,以及算法如何實際實施的,希望對你們有用。

來源:

https://www.analyticsvidhya.com/blog/2017/01/introduction-to-reinforcement-learning-implementation/?winzoom=1

【本文是51CTO專欄機構大數據文摘的原創譯文,微信公眾號“大數據文摘( id: BigDataDigest)”】

     大數據文摘二維碼

戳這里,看該作者更多好文

責任編輯:趙寧寧 來源: 51CTO專欄
相關推薦

2020-12-23 06:07:54

人工智能AI深度學習

2024-02-04 19:45:43

人工智能電信

2023-06-30 11:08:13

AI人工智能

2018-12-25 17:33:32

人工智能創業人才

2021-11-30 08:00:00

人工智能數據技術

2023-09-28 15:04:53

人工智能AI

2023-03-20 16:08:27

2022-11-03 14:13:52

強化學習方法

2017-11-21 14:34:30

2021-04-13 16:18:30

人工智能強化學習人臉識別

2020-12-24 15:56:01

人工智能人機對抗技術

2020-11-02 10:15:11

人工智能機器學習金融科技

2023-12-03 22:08:41

深度學習人工智能

2022-09-01 18:25:45

網絡安全人工智能數據泄露

2015-10-10 09:32:24

機器學習人工智能

2022-06-20 11:05:58

通用人工智能機器人

2019-10-25 15:58:10

人工智能機器學習技術

2021-04-07 10:52:35

人工智能深度學習

2023-08-28 06:52:29

2021-04-07 10:48:45

人工智能深度學習
點贊
收藏

51CTO技術棧公眾號

成人av网站大全| 国产精品99视频| 欧美性猛交xxxx乱大交极品| 欧美日韩高清免费| 91丨九色丨蝌蚪丨对白| 欧美在线网站| 日韩高清有码在线| 中文字幕在线观看第三页| 很黄的网站在线观看| 成人网在线免费视频| 国产成人精品久久久| www.97视频| 午夜先锋成人动漫在线| 欧美久久一二区| 日本网站免费在线观看| 好操啊在线观看免费视频| 91在线小视频| 91成人理论电影| 天天射天天干天天| 激情欧美丁香| 久久精品中文字幕一区| a视频免费观看| 日韩欧美中文在线观看| 欧美性三三影院| 日本a在线免费观看| 精品麻豆一区二区三区| 久久久久久夜精品精品免费| 国产精品美女黄网| 一二三四区在线| 久久性天堂网| 97在线视频免费观看| 欧美日韩偷拍视频| 99久久夜色精品国产亚洲狼| 亚洲一区999| 欧美亚一区二区三区| 亚洲三级av| 欧美一区二区三区小说| 亚洲成人福利在线观看| 一区二区三区短视频| 亚洲一级二级在线| 路边理发店露脸熟妇泻火| 在线中文资源天堂| 国产欧美精品一区aⅴ影院| 精品国产一区二区三区免费 | 日韩国产成人精品| 奇门遁甲1982国语版免费观看高清| 九九热国产精品视频| 一精品久久久| 久久精品亚洲精品| 国产第一页精品| 欧美亚洲国产激情| 国产一区二区久久精品| 中文字幕免费在线看线人动作大片| 偷拍自拍一区| 亚洲欧美中文字幕| 91成年人网站| 欧美午夜精彩| 永久免费精品影视网站| 欧美一区二区三区粗大| 国产精品嫩草影院在线看| 亚洲欧美制服中文字幕| 日韩中文字幕有码| 久久一区二区三区电影| 日韩中文字幕在线精品| 黄色录像免费观看| 综合激情在线| 欧美福利视频在线| 国产成人啪精品午夜在线观看| 亚洲国产三级| 日韩av免费一区| 国产精品51麻豆cm传媒 | 福利视频在线看| 亚洲国产高清在线| 一区国产精品| 激情av在线播放| 婷婷综合另类小说色区| 国产免费成人在线| 国产韩日精品| 7777精品伊人久久久大香线蕉完整版 | 这里只有精品电影| 中文字幕1区2区| 欧美亚洲国产日韩| 国产亚洲精品久久久| 少妇视频一区二区| 国内精品久久久久久久97牛牛| 97色在线播放视频| 免费黄色片视频| 国产精品一区二区在线看| 国产伦精品一区二区三区视频孕妇| 亚洲av成人无码网天堂| 国产精品三级视频| 成人av在线不卡| 韩漫成人漫画| 日韩视频在线一区二区| 国产精品久久无码| 日韩精品欧美| 久久久久久国产精品久久| 成人午夜视频在线播放| 久久99国产精品尤物| 粉嫩av免费一区二区三区| 免费人成黄页在线观看忧物| 亚洲品质自拍视频网站| 国语对白做受xxxxx在线中国| 成人做爰视频www| 日韩你懂的在线播放| 爱爱免费小视频| 亚洲国产精品成人| 欧美综合在线第二页| 99视频免费看| 国产色91在线| 久久99久久99精品| 欧美日韩伦理一区二区| 日韩av在线播放资源| 91视频青青草| 日韩精品欧美精品| 激情久久av| 欧美v亚洲v| 欧美日韩成人在线一区| 亚洲成人日韩在线| 国产精品多人| 91免费版网站入口| 国产特黄在线| 欧美性xxxx极品hd满灌| 日本美女视频网站| 久久99国产精品| 色呦呦网站在线观看| 欧美色偷偷大香| 亚洲第一成人网站| 红桃视频国产精品| 亚洲一区二区三区四区视频| 国产黄色片在线播放| 精品久久久久久久久久| 深夜视频在线观看| 亚洲国产不卡| 亚洲一区二区三区乱码aⅴ蜜桃女| 成年人在线视频免费观看| 欧美日韩国产综合新一区| 久久精品无码专区| 欧美全黄视频| 91久久国产精品| 日韩欧美小视频| 欧美午夜影院一区| 亚洲人成人无码网www国产| 国产日韩免费| 久久婷婷人人澡人人喊人人爽| 日本理论片午伦夜理片在线观看| 911国产精品| 小早川怜子一区二区的演员表| 欧美aa在线视频| 视频在线99re| 国产精品久久乐| 日韩中文在线观看| 92久久精品一区二区| 国产精品私人自拍| 一女二男3p波多野结衣| 99九九热只有国产精品| 91九色国产视频| 最爽无遮挡行房视频在线| 91精品婷婷国产综合久久竹菊| fc2ppv在线播放| 国产麻豆视频一区二区| 日韩精品一区二区在线视频| 成功精品影院| 欧美专区日韩视频| 91看片在线观看| 欧美色偷偷大香| 国产一区二区播放| 成人亚洲一区二区一| 欧美 日本 亚洲| 国产亚洲电影| 成人欧美在线观看| 欧美日韩经典丝袜| 日韩精品极品在线观看| 免费av中文字幕| 一区在线观看视频| 任你躁av一区二区三区| 校园激情久久| 亚洲欧洲国产精品久久| 日韩精品一区二区三区中文在线 | 99久久免费视频.com| 99久久国产宗和精品1上映| 日韩国产在线| 成人综合av网| 深夜成人影院| 欧美成人午夜免费视在线看片| 黄色av中文字幕| 一本一本久久a久久精品综合麻豆| 成人小视频免费看| 国产成人免费视频网站高清观看视频| 九九爱精品视频| 日韩电影免费网站| 国产精品综合久久久久久| av在线播放一区| 久久久久久久999| 国产日韩精品在线看| 日韩欧美成人一区二区| 影音先锋在线国产| 亚洲精选视频在线| 丰满圆润老女人hd| 国产99久久久国产精品潘金网站| 日本a级片免费观看| 色欧美自拍视频| 久久久久天天天天| 精品国产伦一区二区三区观看说明| 午夜精品理论片| 国产黄色在线网站| 亚洲日韩第一页| 日本黄色免费视频| 7777精品伊人久久久大香线蕉完整版| www欧美在线| 亚洲激情欧美激情| 国产精品无码无卡无需播放器| 成人亚洲一区二区一| 波多野结衣国产精品| 一本色道久久综合一区| 亚洲色婷婷久久精品av蜜桃| 国产免费久久| 精品乱码一区二区三区| a一区二区三区亚洲| 国产精品∨欧美精品v日韩精品| 欧美日韩色网| 欧美成人剧情片在线观看| av在线资源网| 国产一区二区三区日韩欧美| 天天射,天天干| 日韩免费视频线观看| 在线观看免费中文字幕| 在线观看网站黄不卡| 五月婷婷中文字幕| 亚洲一区二区三区视频在线 | 波多野结衣一区二区三区在线观看| 最新日韩一区| 国产成人福利视频| 伊人久久精品一区二区三区| 91黄色8090| 欧美男男tv网站在线播放| 欧美富婆性猛交| 日韩av官网| 九九热99久久久国产盗摄| 成人欧美在线| 久久久成人精品| 免费黄色电影在线观看| 日韩中文综合网| www.亚洲免费| 中文字幕日韩av| 69久久久久| 色综合伊人色综合网| 第三区美女视频在线| 亚洲香蕉成人av网站在线观看| 三级视频在线| 亚洲欧美另类在线观看| 狠狠v欧美ⅴ日韩v亚洲v大胸| 亚洲人成绝费网站色www| 免费观看成年在线视频网站| 国产香蕉精品视频一区二区三区| 男男电影完整版在线观看| 亚洲欧美中文字幕| 成人资源www网在线最新版| 色婷婷综合久久久久中文字幕1| 午夜视频在线看| 欧美伦理91i| www在线观看黄色| 日本午夜精品理论片a级appf发布| 欧美一区久久久| 国产精品视频在线观看| 高清一区二区中文字幕| 国产aⅴ精品一区二区三区黄| 国产丝袜一区| 欧美日韩一区在线视频| 日韩欧美三级| 欧美一级爱爱视频| 国产精品毛片在线| 久久99999| 国产经典欧美精品| 日韩精品一区二区三区高清免费| 久久综合丝袜日本网| 日本午夜精品视频| 亚洲精品综合在线| 日本a在线观看| 欧美三级乱人伦电影| 99在线精品视频免费观看20| 亚洲电影免费观看高清完整版在线观看 | 911亚洲精品| 久久99精品久久久久久水蜜桃| 国产一区二区在线| 佐佐木明希av| 性色一区二区三区| 亚洲天堂av一区二区| 成人免费观看视频| 色欲AV无码精品一区二区久久| 亚洲欧洲99久久| 日本特级黄色片| 在线播放国产精品二区一二区四区| 黄色一级a毛片| 国产亚洲综合久久| 污视频网站免费在线观看| 国产91精品在线播放| 伊人精品综合| 亚洲欧洲一二三| 亚洲日韩成人| 不卡中文字幕在线观看| 久久久亚洲欧洲日产国码αv| 欧美 日韩 国产 一区二区三区| 欧美午夜www高清视频| 99热这里只有精品9| 亚洲图片欧美午夜| 激情av在线| 亚洲综合视频1区| 精品视频国产| 一本大道熟女人妻中文字幕在线 | 色呦呦在线看| 成人妇女淫片aaaa视频| 免费看成人哺乳视频网站| 国产日产欧美一区二区| 久久综合影视| 国产精品久久无码| 亚洲国产一区二区视频| 91丨porny丨在线中文| 一区二区欧美在线| 手机在线观看av| 国产精品免费一区二区三区四区 | 人妻无码中文字幕| 久久成人亚洲精品| 欧美亚洲二区| 亚洲aⅴ天堂av在线电影软件| 99综合在线| 无码人妻精品一区二区三区99不卡| 中文字幕中文字幕一区二区| aaaaaa毛片| 亚洲欧美另类在线观看| 国产美女精品写真福利视频| 成人欧美一区二区三区黑人免费| 天天射天天综合网| 天天色综合社区| 国产精品美女一区二区| 青青草免费观看视频| 精品粉嫩超白一线天av| 丝袜美女在线观看| 91免费在线观看网站| 88国产精品视频一区二区三区| 亚洲美女性囗交| 国产精品美女久久久久久久久| 小泽玛利亚一区二区三区视频| 亚洲精品一区二区久| 精品捆绑调教一区二区三区| 国产一区二区三区高清| 亚洲三级电影在线观看| 精品无码国产一区二区三区51安| 性久久久久久久久久久久| 亚洲第一成人av| 国内精品久久久久久影视8| 北条麻妃一区二区三区在线| 91.com在线| 99视频在线观看一区三区| 日韩精品在线免费视频| 亚洲日韩欧美视频| 成人看片网页| 伊人久久大香线蕉综合75| 激情深爱一区二区| 色在线观看视频| 日韩免费福利电影在线观看| www视频在线观看| 欧美在线日韩精品| 久久精品免费看| 丰满少妇高潮久久三区| 精品成a人在线观看| 不卡的av影片| 日韩在线第一区| 精品一区二区三区日韩| 黄色一级视频免费| 亚洲激情免费观看| 精品欧美一区二区三区在线观看| 色综合久久久久久久久五月| 激情深爱一区二区| 国产精品50页| 永久555www成人免费| 精品视频在线播放一区二区三区 | 亚洲国产欧美一区二区三区同亚洲| xxxxxx欧美| 影音先锋亚洲视频| www.亚洲人| 在线视频播放大全| 久久免费在线观看| 日韩a一区二区| 欧美极品jizzhd欧美仙踪林| 色婷婷亚洲精品| av在线官网| 欧美一区二区高清在线观看| 国产一区二区三区精品视频| 国产精品成人网站| 色婷婷综合久久久久| 欧美人妖在线观看| 亚洲天堂av一区二区| 狠狠躁夜夜躁久久躁别揉| 久久综合之合合综合久久| 精品国产91亚洲一区二区三区www| 麻豆精品新av中文字幕| 日本少妇全体裸体洗澡| 精品激情国产视频| 日本福利一区|