精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

OpenAI神秘Q*毀滅人類?爆火「Q*假說」竟牽出世界模型,全網AI大佬長文熱議

人工智能 新聞
傳聞中OpenAI的Q*,已經引得AI大佬輪番下場。AI2研究科學家Nathan Lambert和英偉達高級科學家Jim Fan都激動的寫下長文,猜測Q*和思維樹、過程獎勵模型、AlphaGo有關。人類離AGI,已是臨門一腳了?

OpenAI的神秘Q*項目,已經引爆整個AI社區!

疑似接近AGI,因為巨大計算資源能解決某些數學問題,讓Sam Altman出局董事會的導火索,有毀滅人類風險……這些元素單拎出哪一個來,都足夠炸裂。

無怪乎Q*項目曝出三天后,熱度還在持續上升,已經引起了全網AI大佬的探討。

AI2研究科學家Nathan激動地寫出一篇長文,猜測Q假說應該是關于思想樹+過程獎勵模型。

而且,Q*假說很可能和世界模型有關!

幾小時后,英偉達高級科學家Jim Fan也發出長文分析,跟Nathan的看法不謀而合,略有不同的是,Jim Fan的著重點是和AlphaGo的類比。

對于Q*,Jim Fan發出了如此贊嘆:在我投身人工智能領域的十年中,我從來見過有這么多人對一個算法有如此多的想象!即使它只有一個名字,沒有任何論文、數據或產品。

相比之下,圖靈三巨頭LeCun則認為,提升大LLM可靠性的一個主要挑戰是,利用規劃策略取代自回歸token預測。

幾乎所有頂級實驗室都在這方面進行研究,而Q*則很可能是OpenAI在規劃領域的嘗試。

以及,請忽略那些關于Q*的毫無根據的討論。

對此,Jim Fan深表贊同:擔心「通過Q*實現AGI」是毫無根據的。

「AlphaGo式搜索和LLM的結合,是解決數學和編碼等特定領域的有效方法,同時還能提供基準真相的信號。但在正式探討AGI之前,我們首先需要開發新的方法,將世界模型和具身智能體的能力整合進去。」

Q-Learning忽然大火

兩天前,外媒曝出,OpenAI的神秘Q*項目,已現AGI雛形。

突然間,一項來自1992年的技術——Q-learning,就成為了大家競相追逐的焦點。

圖片

簡單來說,Q-learning是一種無模型的強化學習算法,旨在學習特定狀態下某個動作的價值。其最終目標是找到最佳策略,即在每個狀態下采取最佳動作,以最大化隨時間累積的獎勵。

在人工智能領域,尤其是在強化學習中,Q-learning代表了一種重要的方法論。

很快,這個話題引發了各路網友的激烈討論:

斯坦福博士Silas Alberti猜測,它很可能是基于AlphaGo式蒙特卡羅樹搜索token軌跡。下一個合乎邏輯的步驟是以更有原則的方式搜索token樹。這在編碼和數學等環境中尤為合理。


隨后,更多人猜測,Q*指的就是A*算法和Q學習的結合!

甚至有人發現,Q-Learning竟然和ChatGPT成功秘訣之一的RLHF,有著千絲萬縷的聯系!

隨著幾位AI大佬的下場,大家的觀點,愈發不謀而合了。

AI大佬千字長文分析

對于引得眾人好奇無比的Q*假說,AI2研究科學家Nathan Lambert寫了如下一篇長文分析——《Q* 假說:思維樹推理、過程獎勵模型和增強合成數據》。

文章地址:https://www.interconnects.ai/p/q-star

Lambert猜測,如果Q*(Q-Star)是真的,那么它顯然是RL文獻中的兩個核心主題的合成:Q值和A*(一種經典的圖搜索算法)。

圖片

A*算法的一個例子

很多天來,坊間關于Q冒出了很多猜測,有一種觀點認為,Q指的是最優策略的值函數,不過在Lambert看來這不太可能,因為OpenAI已經幾乎泄露了所有內容。

Lambert將自己的猜測稱為「錫帽理論」,即Q學習和A*搜索的模糊合并。

所以,正在搜索的是什么?Lambert相信,OpenAI應該是在通過思想樹推理來搜索語言/推理步驟,來做一些強大的事情。

如果僅是如此,為何會引起如此大的震動和恐慌呢?

他覺得Q*被夸大的原因是,它將大語言模型的訓練和使用與Deep RL的核心組件聯系起來,而這些組件,成功實現了AlphaGo的功能——自我博弈和前瞻性規劃。

其中,自我博弈(Self-play)理論是指,智能體可以和跟自己版本略有不同的另一個智能體對戰,來改善游戲玩法,因為它遇到的情況會越來越有挑戰性。

在LLM領域,自我博弈理論看起來就像是AI反饋。

前瞻性規劃(Look-ahead planning),是指使用世界模型來推理未來,并產生更好的行動或輸出。

這種理論基于模型預測控制(MPC)和蒙特卡洛樹搜索(MCTS),前者通常用于連續狀態,后者適用于離散動作和狀態。

https://www.researchgate.net/publication/320003615_MCTSUCT_in_solving_real-life_problems

Lambert之所以做出這種推測,是基于OpenAI和其他公司最近發布的工作。這些工作,回答了這樣兩個問題——

1. 我們如何構建一個我們自己可以搜索的語言表示?

2. 在分隔和有意義的語言塊(而不是整個語言塊)上,我們怎樣才能構建一個價值概念?

如果想明白了這兩個問題,我們就該清楚,應該如何使用用于RLHF的RL方法——我們用RL優化器來微調語言模型,并且通過模塊化獎勵,獲得更高質量的生成(而不是像今天那樣,完整的序列)。

使用LLM進行模塊化推理:思維樹(ToT)提示

現在,讓模型「深呼吸」和「一步步思考」之類的方法,正在擴展到利用并行計算和啟發式進行推理的高級方法上。

思維樹是一種提示語言模型創建推理路徑樹的方法,這些路徑可能會、也可能不會收斂到正確答案。

實現思維樹的關鍵創新,就是推理步驟的分塊,以及提示模型創建新的推理步驟。

思維樹或許是第一個提高推理性能的「遞歸」提示技術,聽起來非常接近人工智能安全所關注的遞歸自我改進模型。

https://arxiv.org/abs/2305.10601

使用推理樹,就可以應用不同的方法來對每個頂點或節點進行評分,或者對最終路徑進行采樣。

它可以基于最一致答案的最小長度,或者需要外部反饋的復雜事物,而這恰恰就把我們帶到了RLHF的方向。

用思維樹玩24點游戲

生成中的細粒度獎勵標簽:過程獎勵模型(PRM)

迄今為止,大多數RLHF,都是通過給模型的整個響應打分而完成的。

但對于具有RL背景的人,這種方法很令人失望,因為它限制了RL方法對文本的每個子組件的值建立聯系的能力。

有人指出,在未來,這種多步驟優化將在多個對話回合的層面上進行,但由于需要有人類或一些提示源參與循環,整個過程仍然很牽強。

這可以很容易地擴展到自我博弈風格的對話上,但很難給出LLM一個目標,讓它轉化為持續改進的自我博弈動態。

畢竟,我們想用LLM做的大多數事情還是重復性任務,并不是像圍棋那樣,需要達到近乎無限的性能上限。

不過,有一種LLM用例,可以自然地抽象為包含的文本塊,那就是分步推理。而最好的例子,就是解決數學問題。

過去6個月內,過程獎勵模型(PRM)一直是RLHF人員熱烈探討的話題。

關于PRM的論文很多,但很少有論文會提到,如何將它們與RL結合使用。

PRM的核心思想,就是為每個推理步驟分配一個分數,而不是一個完整的信息。

OpenAI的論文「Let's Verify Step by Step」中,就有這樣一個例子——

在這個過程中,他們使用的反饋界面長這個樣子,非常有啟發性。

這樣,就可以通過對最大平均獎勵或其他指標進行采樣,而不是僅僅依靠一個分數,對推理問題的生成進行更精細的調整。

使用「N最優采樣」(Best-of-N sampling),即生成一系列次數,并使用獎勵模型得分最高的一次,PRM在推理任務中的表現,要優于標準RM。

(注意,它正是Llama 2中「拒絕采樣」Rejection Sampling的表兄弟。)

而且迄今為止,大多數PRM僅展示了自己在推理時的巨大作用。但如果把它用于訓練進行優化,就會發揮真正的威力。

而為了創建最豐富的優化設置,就需要能夠生成用于評分和學習的多種推理路徑。

這,就是思維樹的用武之地。

人氣極高的數學模型Wizard-LM-Math,就是使用PRM進行訓練的:https://arxiv.org/abs/2308.09583

所以,Q*可能是什么?

Nathan Lambert猜測,Q*似乎正在使用PRM,對ToT推理數據進行評分,然后再使用Offline RL進行優化。

這與現有的RLHF工具沒有太大區別,它們用的是DPO或ILQL等離線算法,這些算法在訓練期間不需要從LLM生成。

RL算法看到的「軌跡」,就是推理步驟的序列,因此,我們得以用多步方式,而不是通過上下文,來執行RLHF。

現有的傳言顯示,OpenAI正在將離線RL用于RLHF,這似乎不是一個很重大的飛躍。

它的復雜性在于要收集正確的提示,讓模型生成出色的推理,而最重要的,就是準確地給數以萬計的響應評分。

而傳聞中的龐大計算資源,就是使用AI而非人類,來給每一步打分。

的確,合成數據才是王道,使用樹而非單一寬度路徑(思維鏈),就可以為以后越來越多的選擇,給出正確答案。

如果傳言是真的,OpenAI和其他模型的差距,無疑會很可怕。

畢竟,現在大多數科技公司,比如谷歌、Anthropic、Cohere等,創建預訓練數據集用的還是過程監督或類似RLAIF的方法,輕易就會耗費數千個GPU小時。

超大規模AI反饋的數據未來

根據外媒The Information的傳言,Ilya Sutskever的突破使OpenAI解決了數據荒難題,這樣就有了足夠的高質量數據來訓練下一代新模型。

而這些數據,就是用計算機生成的數據,而非真實世界的數據。

另外,Ilya多年研究的問題,就是如何讓GPT-4等語言模型解決涉及推理的任務,如數學或科學問題。

Nathan Lambert表示,如果自己猜得沒錯,Q*就是生成的合成推理數據。

通過類似剔除抽樣(根據RM分數進行篩選)的方法,可以選出最優秀的樣本。而通過離線RL,生成的推理可以在模型中得到改進。

對于那些擁有優質大模型和大量算力資源的機構來說,這是一個良性循環。

結合GPT-4給大家的印象,數學、代碼、推理,都應該是最從Q*技術受益的主題。

什么是最有價值的推理token?

許多AI研究者心中永恒的問題是:究竟哪些應用值得在推理計算上花費更多成本?

畢竟,對于大多數任務(如閱讀文章、總結郵件)來說,Q*帶來的提升可能不值一提。

但對于生成代碼而言,使用最佳模型,顯然是值得的。

Lambert表示,自己腦子中有一種根深蒂固的直覺,來自于和周圍人餐桌上的討論——使用RLHF對擴展推理進行訓練,可以提高下游性能,而無需讓模型一步一步思考。

如果Q*中實現了這一點,OpenAI的模型,無疑會顯示出重大的飛躍。

Jim Fan:Q*可能的四大核心要素

Nathan在我之前幾個小時發布了一篇博客,并討論了非常相似的想法:思想樹+過程獎勵模型。他的博客列出了更多的參考文獻,而我更傾向于與AlphaGo的類比。

Jim Fan表示,要理解搜索和學習結合的強大威力,我們需要先回到2016年,這個人工智能歷史上的輝煌時刻。

在重新審視AlphaGo時,可以看到它包含了四個關鍵要素:

1. 策略神經網絡(Policy NN,學習部分):評估每種走法獲勝的可能性,并挑選好的走法。

2. 價值神經網絡(Value NN,學習部分):用于評估棋局,從任意合理的布局中預測勝負。

3. 蒙特卡羅樹搜索(MCTS,搜索部分):利用策略神經網絡模擬從當前位置出發的多種可能的走法,然后匯總這些模擬的結果來決定最有希望的走法。這是一個「慢思考」環節,與大語言模型(LLM)中的快速token采樣形成鮮明對比。

4. 推動整個系統的真實信號:在圍棋中,這個信號就像「誰獲勝」這種二元標簽一樣簡單,由一套固定的游戲規則所決定。你可以把它想象成一種能量源,持續地推動著學習的進程。

那么,這些組件是如何相互作用的呢?

AlphaGo通過自我博弈(即與自己之前的版本對弈)來學習。

隨著自我博弈的持續,策略神經網絡和價值神經網絡都在不斷迭代中得到改善:隨著策略在選擇走法上變得更精準,價值神經網絡也能獲得更高質量的數據進行學習,進而為策略提供更有效的反饋。更強大的策略也有助于MCTS探索出更佳的策略。

這些最終構成了一個巧妙的「永動機」。通過這種方式,AlphaGo能自我提升,最終在2016年以4-1的成績擊敗了人類世界冠軍李世石。僅僅通過模仿人類的數據,人工智能是無法達到超越人類的水平的。

圖片


對于Q*來說,又會包含哪四個核心組件呢?

1. 策略神經網絡(Policy NN):這將是OpenAI內部最強大的GPT,負責實現解決數學問題的思維過程。

2. 價值神經網絡(Value NN):這是另一個GPT,用來評估每一個中間推理步驟的正確性。

OpenAI在2023年5月發布了一篇名為「Let's Verify Step by Step」的論文,作者包括Ilya Sutskever、John Schulman和Jan Leike等知名大佬。雖然它不像DALL-E或Whisper那樣知名,但卻為我們提供了不少線索。

在論文中,作者提出了「過程監督獎勵模型」(Process-supervised Reward Models,PRM),它為思維鏈中的每一步提供反饋。相對的是「結果監督獎勵模型」(Outcome-supervised Reward Models,ORM),它只對最終的整體輸出進行評估。

ORM是RLHF的原始獎勵模型,但它的粒度太粗,不適合對長響應中的各個部分進行適當的評估。換句話說,ORM在功勞分配方面表現不佳。在強化學習文獻中,我們將ORM稱為「稀疏獎勵」(僅在最后給予一次),而PRM則是「密集獎勵」,能夠更平滑地引導LLM朝我們期望的行為發展。

3. 搜索:不同于AlphaGo的離散狀態和動作,LLM運行在一個復雜得多的空間中(所有合理字符串)。因此,我們需要開發新的搜索方法。

在思維鏈(CoT)的基礎上,研究界已經開發出了一些非線性變體:

- 思維樹(Tree of Thought):就是將思維鏈和樹搜索結合在一起

- 思維圖(Graph of Thought):將思維鏈和圖結合,就可以得到一個更為復雜的搜索運算符

4. 真實信號:(幾種可能) 

(a)每個數學問題都有一個已知答案,OpenAI可能已經從現有的數學考試或競賽中收集了大量的數據。

(b)ORM本身可以作為一種真實信號,但這樣可能會被利用,從而「失去維持學習所需的能量」。

(c)形式化驗證系統,如Lean定理證明器,可以把數學問題轉化為編程問題,并提供編譯器反饋。

就像AlphaGo那樣,策略LLM和價值LLM可以通過迭代相互促進進步,并在可能的情況下從人類專家的標注中學習。更優秀的策略LLM將幫助思維樹搜索發現更好的策略,這反過來又能為下一輪迭代收集更優質的數據。

Demis Hassabis之前提到過,DeepMind的Gemini將采用「AlphaGo式算法」來增強推理能力。即使Q*不是我們所想象的那樣,谷歌也一定會用自己的算法迎頭趕上。

Jim Fan表示,以上只是關于推理的部分。目前并沒有跡象表明Q*在寫詩、講笑話或角色扮演方面會更具創造性。本質上,提高創造力是人的事情,因此自然數據仍將勝過合成數據。

是時候解決最后一章了

而深度學習專家Sebastian Raschka對此表示——

如果你出于任何原因,不得不在這個周末學習Q-learning,并且碰巧在你的書架上有一本「Machine Learning with PyTorch and Scikit-Learn」,那么,現在是時候解決最后一章了。

責任編輯:張燕妮 來源: 新智元
相關推薦

2021-03-05 15:58:45

AI 數據人工智能

2024-04-24 09:47:36

2023-05-22 09:38:38

2023-11-27 12:27:28

OpenAI項目

2025-01-06 10:23:00

AI模型訓練

2023-11-24 12:57:41

OpenAIAGI

2024-01-09 12:53:40

數據模型

2022-06-13 10:39:27

編程計算機

2025-08-27 09:02:00

AI模型測試

2025-07-21 09:19:00

OpenAI模型AI

2023-11-23 08:50:58

2023-12-18 15:08:00

GPTOpenAI泄露

2015-10-20 15:00:51

七牛云

2017-08-22 15:56:49

神經網絡強化學習DQN

2023-12-06 10:42:14

亞馬遜AI工具

2024-07-02 09:20:59

2025-08-01 14:40:45

GPT-5AI模型

2024-02-19 14:07:00

數據模型
點贊
收藏

51CTO技術棧公眾號

精品人妻一区二区三区潮喷在线 | 日韩视频中文| 亚洲第一精品福利| 不要播放器的av网站| 色网站在线看| 99在线精品观看| 国产精品免费网站| 国产一国产二国产三| 国产永久精品大片wwwapp| 欧美一级理论片| 成熟老妇女视频| 2024最新电影在线免费观看| 26uuu另类欧美| 147欧美人体大胆444| 精品免费囯产一区二区三区| 91精品国产自产在线观看永久∴| 亚洲精品二三区| 中文 日韩 欧美| 日韩性xxx| 亚洲线精品一区二区三区| 婷婷五月色综合| 四虎影视在线观看2413| 久久99久久精品欧美| 欧美有码在线视频| 久久久久99精品| 在线电影一区二区| 色诱女教师一区二区三区| 大地资源二中文在线影视观看| 国产一区一区| 欧美午夜不卡在线观看免费| 狠狠97人人婷婷五月| 日本在线视频www鲁啊鲁| 国产精品国产三级国产普通话蜜臀| 久久99久久99精品蜜柚传媒| 亚洲免费一级片| 精品午夜一区二区三区在线观看| 国产精品91久久| 成人精品免费在线观看| 欧美天天在线| 欧美成人免费视频| 一起操在线播放| 91综合网人人| 色吧影院999| 欧美极品jizzhd欧美18| 欧美在线色图| 国产亚洲综合久久| 男人舔女人下部高潮全视频| 亚洲人挤奶视频| 精品在线小视频| 亚洲第九十七页| 欧美一区二区三区红桃小说| 亚洲第一av网站| 免费不卡的av| 丝袜av一区| 日韩成人久久久| 在线免费观看黄色小视频| 欧美一区自拍| 亚洲天堂成人在线视频| 国产精品国产三级国产专业不| 国产最新精品| 在线免费看av不卡| 成人精品一二三区| 亚洲色图二区| 久久久久久亚洲精品不卡| 久久精品久久国产| 99精品国产在热久久下载| 欧美综合第一页| 波多野结衣黄色| 免费观看在线色综合| 成人写真视频福利网| av 一区二区三区| 不卡的av网站| 日本午夜精品电影| 青青影院在线观看| 一区二区三区不卡视频在线观看 | 欧美凹凸一区二区三区视频| 日本私人网站在线观看| 中文字幕高清不卡| 久久久久久久久久久久久国产| 精灵使的剑舞无删减版在线观看| 天天影视色香欲综合网老头| 亚洲男人天堂色| 国产精品视频一区二区三区| 欧美精品一区二区三区四区| 最新中文字幕视频| 欧美电影免费播放| 欧美激情精品久久久久久免费印度| 国产一级淫片a| 日韩国产高清影视| 亚洲字幕在线观看| 免费国产在线视频| 最新日韩在线视频| 国产日韩一区二区在线| 日日夜夜一区| 国产视频精品va久久久久久| 夫妻性生活毛片| av不卡在线看| 国产区精品在线观看| 亚洲精品久久久久久无码色欲四季| 91亚洲男人天堂| 欧美精品一区二区性色a+v| 中文字幕在线官网| 欧美一级欧美三级在线观看| 亚洲综合网在线观看| 欧美激情日韩| 国产精品欧美风情| 亚洲色欧美另类| 亚洲精品va在线观看| 国产裸体免费无遮挡| 午夜视频一区二区在线观看| 一区二区福利视频| 久久狠狠高潮亚洲精品| 极品尤物av久久免费看| 久久综合九色综合网站| 99热国产在线| 欧美日韩另类国产亚洲欧美一级| 色呦呦一区二区| 欧美国产另类| 国产在线观看不卡| 美女做暖暖视频免费在线观看全部网址91 | 久久综合一区| 女同一区二区免费aⅴ| 欧美日韩激情一区二区| 人妻无码一区二区三区| 好看不卡的中文字幕| 成人亚洲综合色就1024| 在线中文资源天堂| 在线观看一区二区精品视频| 亚洲天堂资源在线| 影音先锋亚洲精品| 99国产高清| 伊人电影在线观看| 91精品欧美久久久久久动漫| 人成免费在线视频| 久久在线精品| 欧美不卡在线一区二区三区| 国产调教在线| 亚洲国产小视频在线观看| 校园春色 亚洲| 国产精品一区三区| 欧美另类videos| 久久久久久久久成人| 麻豆乱码国产一区二区三区 | 精品国产凹凸成av人导航| av最新在线观看| 精品一区二区免费看| 日韩女优中文字幕| 国产精品久久久久久吹潮| 国产亚洲欧美视频| 在线亚洲欧美日韩| 国产精品久久久久久久久久久免费看| 国产视频一区二区视频| 国产一区二区精品福利地址| 国产精品久久久久99| 黄色片在线播放| 欧美日韩视频专区在线播放| 乱老熟女一区二区三区| 久久99精品国产麻豆不卡| 法国空姐在线观看免费| 中文在线综合| 97欧美精品一区二区三区| 日本高清中文字幕二区在线| 91福利视频久久久久| 国产三级在线观看完整版| 国产在线看一区| 亚洲熟妇无码av在线播放| 国产精东传媒成人av电影| 欧美一级大片视频| 国产高清视频在线| 欧美一区二区视频免费观看| 国产精品99精品无码视| 久久噜噜亚洲综合| 国产又黄又猛的视频| 欧美+日本+国产+在线a∨观看| 国产精品theporn88| 亚洲精品动漫| 日韩中文字幕在线视频| 男人天堂手机在线观看| 日本久久一区二区| 欧美大片xxxx| 97久久超碰国产精品电影| 日本888xxxx| 欧美日一区二区在线观看| 欧美精品一区在线| 欧美激情精品| 日本久久精品视频| 99视频免费在线观看| 精品香蕉在线观看视频一| 91在线公开视频| 亚洲va欧美va天堂v国产综合| 先锋影音av在线| 丰满少妇久久久久久久| 冲田杏梨av在线| 一区在线免费| 在线丝袜欧美日韩制服| 欧洲亚洲成人| 97免费资源站| 999国产精品亚洲77777| 亚州成人av在线| a级在线观看| 一区二区国产精品视频| 人妻无码一区二区三区久久99| 欧美色综合网站| 国产情侣在线视频| 日韩理论片一区二区| 瑟瑟视频在线观看| 丁香六月综合激情| 91精品999| 日日夜夜免费精品视频| 人妻少妇精品久久| 亚洲成人最新网站| 神马一区二区影院| 日韩高清成人在线| 成人一区二区在线| 亚洲a成人v| 国产精品久久色| 一级毛片久久久| 久久久久久午夜| 欧美韩日亚洲| 欧美成人免费播放| 麻豆tv入口在线看| 最好看的2019的中文字幕视频| 亚洲欧美日韩动漫| 亚洲高清不卡av| 成人乱码一区二区三区| 91精品国产综合久久精品图片| 中文字幕在线日亚洲9| 色婷婷狠狠综合| 日韩手机在线视频| 欧美日韩国产精品一区二区三区四区| 中文字幕亚洲欧美日韩| 《视频一区视频二区| 国产传媒国产传媒| 国产视频不卡一区| 国产熟女一区二区| 亚洲国产精华液网站w| 中字幕一区二区三区乱码| 国产亚洲欧美激情| 欧美图片一区二区| 久久青草国产手机看片福利盒子| 久久偷拍免费视频| 久久综合久久久久88| 日韩一级视频在线观看| 久久综合网色—综合色88| 国产精品无码永久免费不卡| 99久久免费视频.com| 亚洲精品女人久久久| 久久综合久久综合亚洲| xxxx日本免费| 欧美国产成人精品| 成人信息集中地| 亚洲另类在线制服丝袜| 久久久精品国产sm调教网站| 亚洲高清三级视频| 日产精品久久久| 欧美少妇xxx| 国产国语亲子伦亲子| 精品国产麻豆免费人成网站| 日韩一级免费视频| 亚洲欧美日韩中文在线制服| 欧美色图另类小说| 欧美理论电影| 欧美国产日韩二区| 日本不良网站在线观看| 青草热久免费精品视频| 91精品国产66| 91久久久一线二线三线品牌| 国产精品成人自拍| 欧美一区二区三区四区在线观看地址| 国产欧美一区二区三区精品观看| 亚洲激情一区二区三区| 一区二区三区四区在线观看国产日韩| 人人妻人人澡人人爽欧美一区| 亚洲黄色影院| 黄色片在线免费| 国产高清精品久久久久| 97香蕉碰碰人妻国产欧美| 欧美韩国日本一区| 精品国产乱码久久久久久鸭王1| 午夜精品福利视频网站| 波多野结衣黄色网址| 欧美一区二区三区日韩视频| 日韩在线观看视频一区| 在线观看成人黄色| 欧美高清另类hdvideosexjaⅴ| 欧美在线视频导航| 国产亚洲高清一区| 欧美久久久久久| 国产精品a久久久久| www国产黄色| 免费黄色网页在线观看| 中文字幕亚洲专区| 2021天堂中文幕一二区在线观| 国产精品精品一区二区三区午夜版 | 1024国产在线| 久久久亚洲国产| 免费一级欧美在线观看视频| 黑人巨大精品欧美一区二区小视频| 成人午夜av| 69堂免费视频| 国产二区国产一区在线观看| 永久免费看mv网站入口78| 亚洲女同女同女同女同女同69| 亚洲影院在线播放| 日韩精品中文字幕一区二区三区| 国产三级视频在线| 97在线观看免费高清| av在线播放一区二区| 欧美日韩亚洲免费| 精品成人国产| 免费不卡av网站| 国产欧美1区2区3区| 午夜影院在线看| 欧美精品一区二区在线观看| 操你啦视频在线| 国产精品自产拍在线观看| 同性恋视频一区| 日韩亚洲欧美视频| 国产精品中文有码| 2014亚洲天堂| 在线亚洲精品福利网址导航| 亚洲AV成人无码一二三区在线| 欧美片一区二区三区| 高清国产一区二区三区四区五区| 欧美一区二区三区精美影视| 亚洲欧美激情诱惑| 成人在线视频免费播放| 亚洲伊人伊色伊影伊综合网| 国产手机av在线| 俺去了亚洲欧美日韩| 国产成人免费9x9x人网站视频| 精品国产免费久久久久久尖叫| 欧美日韩影院| 国产一级免费片| 一级精品视频在线观看宜春院| h狠狠躁死你h高h| 久久精品国产精品| 在线免费成人| av电影一区二区三区| 国产一区二区三区四区五区入口 | 性做久久久久久免费观看欧美| 国产高清视频免费| 91蝌蚪porny成人天涯| 91视频最新入口| 99久精品国产| 欧美黑人一区二区| 亚洲系列中文字幕| 中文字幕系列一区| 在线视频91| 国产一区在线观看麻豆| 日本一级二级视频| 精品区一区二区| aa视频在线观看| 另类视频在线观看+1080p| 久久久精品网| 先锋影音av在线| 欧美剧情片在线观看| 成人影院在线看| 成人动漫视频在线观看完整版| 精品96久久久久久中文字幕无| 丰满大乳奶做爰ⅹxx视频| 欧美视频中文字幕在线| 爱久久·www| 97在线资源站| 国产日韩精品视频一区二区三区| japanese中文字幕| 欧美另类变人与禽xxxxx| 1区2区在线观看| 精品一区二区三区免费毛片| 天堂午夜影视日韩欧美一区二区| 日韩精品电影一区二区三区| 91精品国产综合久久香蕉的特点| 日韩少妇视频| 欧美在线3区| 国产一区视频在线看| 中文字幕亚洲高清| 日韩小视频网址| 欧美绝顶高潮抽搐喷水合集| 日韩视频免费在线播放| 中文字幕在线不卡一区| 日本xxxxwww| 国产精品亚发布| 亚洲午夜激情在线| 亚洲色成人网站www永久四虎| 91精品国产综合久久精品麻豆| 福利影院在线看| 亚洲一区二区三区免费观看| 成人免费黄色在线| 中文字幕码精品视频网站| 欧美高清激情视频| 日本久久黄色| 国产chinese中国hdxxxx| 欧美视频一区在线| 99久久精品免费看国产小宝寻花| 日韩av电影免费观看| 高清国产一区二区三区| 在线观看免费视频一区| 久久人人爽人人| 天天精品视频| wwwwww日本|