精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

Hugging Face:2023開(kāi)源LLM大爆發(fā),數(shù)據(jù)競(jìng)賽已開(kāi)啟!

開(kāi)源 新聞
2023年的LLM開(kāi)源社區(qū)都發(fā)生了什么?來(lái)自Hugging Face的研究員帶你回顧并重新認(rèn)識(shí)開(kāi)源LLM

2023年的大語(yǔ)言模型(LLM),讓幾乎所有人都燃起了熱情。

現(xiàn)在大多數(shù)人都知道LLM是什么,以及可以做什么。

人們討論著它的優(yōu)缺點(diǎn),暢想著它的未來(lái),

向往著真正的AGI,又有點(diǎn)擔(dān)憂自己的命運(yùn)。

圍繞開(kāi)源與閉源的公開(kāi)辯論也吸引了廣泛的受眾。

2023年的LLM開(kāi)源社區(qū)都發(fā)生了什么?

下面,讓我們跟隨Hugging Face的研究員Clémentine Fourrier一起,

回顧一下開(kāi)源LLM這跌宕起伏的一年。

如何訓(xùn)練大語(yǔ)言模型?

LLM的模型架構(gòu)描述了具體實(shí)現(xiàn)和數(shù)學(xué)形狀。模型是所有參數(shù)的列表,以及參數(shù)如何與輸入交互。

目前,大多數(shù)高性能的LLM都是Transformer架構(gòu)的變體。

LLM的訓(xùn)練數(shù)據(jù)集,包含訓(xùn)練模型所需的所有示例和文檔。

大多數(shù)情況下是文本數(shù)據(jù)(自然語(yǔ)言、編程語(yǔ)言、或者其他可表達(dá)為文本的結(jié)構(gòu)化數(shù)據(jù))。

分詞器(tokenizer)定義如何將訓(xùn)練數(shù)據(jù)集中的文本轉(zhuǎn)換為數(shù)字(因?yàn)槟P捅举|(zhì)上是一個(gè)數(shù)學(xué)函數(shù))。

文本被切分成稱(chēng)為tokens的子單元(可以是單詞、子單詞或字符)。

分詞器的詞匯量通常在32k到200k之間,而數(shù)據(jù)集的大小通常以它包含的tokens數(shù)量來(lái)衡量,當(dāng)今的數(shù)據(jù)集可以達(dá)到幾千億到幾萬(wàn)億個(gè)tokens。

然后,使用超參數(shù)定義如何訓(xùn)練模型——每次迭代,參數(shù)應(yīng)該改變多少?模型的更新速度應(yīng)該有多快?

搞定這些后,剩下的就只需要:大量的算力,以及訓(xùn)練過(guò)程中進(jìn)行監(jiān)控。

訓(xùn)練的過(guò)程包括實(shí)例化架構(gòu)(在硬件上創(chuàng)建矩陣),并使用超參數(shù)在訓(xùn)練數(shù)據(jù)集上運(yùn)行訓(xùn)練算法。

最終得到的結(jié)果是一組模型權(quán)重,——大家討論的大模型就是這個(gè)東西。

這組權(quán)重可以用來(lái)推理,對(duì)新的輸入預(yù)測(cè)輸出、生成文本等。

上面訓(xùn)練好的LLM也可以在之后通過(guò)微調(diào)(fine-tuning)來(lái)適應(yīng)特定任務(wù)(尤其是對(duì)于開(kāi)源模型)。

微調(diào)的過(guò)程是在不同的數(shù)據(jù)集(通常更專(zhuān)業(yè)、更小)上對(duì)模型進(jìn)行額外的訓(xùn)練步驟,以針對(duì)特定應(yīng)用程序進(jìn)行優(yōu)化。

比起從頭開(kāi)始訓(xùn)練一個(gè)大模型,微調(diào)的成本顯然低得多——這也是開(kāi)源LLM受到大家歡迎的原因之一。

從規(guī)模競(jìng)賽到數(shù)據(jù)競(jìng)賽

直到2022年初,機(jī)器學(xué)習(xí)的趨勢(shì)是模型越大,性能就越好。

而且似乎模型的大小在超過(guò)某個(gè)閾值之后,能力會(huì)得到飛躍——有兩個(gè)詞語(yǔ)用來(lái)描述這個(gè)現(xiàn)象:emergent abilities和scaling laws 。

2022年發(fā)布的預(yù)訓(xùn)練開(kāi)源模型大多遵循這種范式,下面舉幾個(gè)例子。

BLOOM(BigScience Large Open-science Open-access Multilingual Language Model)是BigScience發(fā)布的一系列模型,由Hugging Face與法國(guó)組織GENCI和IDRIS合作,涉及來(lái)自60個(gè)國(guó)家和250個(gè)機(jī)構(gòu)的1000名研究人員。這些模型使用decoder-only transformers,并進(jìn)行了微小的修改。

系列中最大的模型有176B參數(shù),使用350B的訓(xùn)練數(shù)據(jù)集,包括46種人類(lèi)語(yǔ)言和13種編程語(yǔ)言,是迄今為止最大的開(kāi)源多語(yǔ)言模型。

OPT(Open Pre-trained Transformer)系列模型由Meta發(fā)布,遵循GPT-3論文的技巧(特定權(quán)重初始化、預(yù)歸一化),對(duì)注意力機(jī)制(交替密集和局部帶狀注意力層)進(jìn)行了一些更改。

這個(gè)系列中最大的模型為175B,在180B的數(shù)據(jù)上進(jìn)行訓(xùn)練,數(shù)據(jù)主要來(lái)自書(shū)籍、社交、新聞、維基百科和互聯(lián)網(wǎng)上的其他信息。

OPT的性能與GPT-3相當(dāng),使用編碼優(yōu)化來(lái)降低計(jì)算密集度。

GLM-130B(通用語(yǔ)言模型)由清華大學(xué)和Zhipu.AI發(fā)布。它使用完整的transformer架構(gòu),并進(jìn)行了一些更改(使用DeepNorm進(jìn)行層后歸一化、旋轉(zhuǎn)嵌入)。

GLM-130B是在400B個(gè)中英文互聯(lián)網(wǎng)數(shù)據(jù)(The Pile、Wudao Corpora和其他中文語(yǔ)料庫(kù))的標(biāo)記上訓(xùn)練的,它的性能也與GPT-3相當(dāng)。

此外,還有一些更小或更專(zhuān)業(yè)的開(kāi)源LLM,主要用于研究目的。

比如Meta發(fā)布的Galactica系列;EleutherAI發(fā)布的GPT-NeoX-20B等。

盡管看起來(lái)越大的模型效果越好,但運(yùn)行起來(lái)也越昂貴。

在執(zhí)行推理時(shí),模型需要加載到內(nèi)存中,而100B參數(shù)的模型通常需要220GB的內(nèi)存。

在2022年3月,DeepMind發(fā)表了一篇論文,研究了在給定計(jì)算預(yù)算下,用于訓(xùn)練的數(shù)據(jù)量與模型參數(shù)的最佳比率是多少。

換句話說(shuō),如果你只有固定的一筆錢(qián)可以花在模型訓(xùn)練上,那么模型大小和訓(xùn)練數(shù)據(jù)量應(yīng)該是多少?

作者發(fā)現(xiàn),總體而言,應(yīng)該把更多的資源分配給訓(xùn)練數(shù)據(jù)。

他們自己的例子是一個(gè)叫做Chinchilla的70B模型,使用1.4T的訓(xùn)練數(shù)據(jù)。

2023的開(kāi)源LLM

模型爆發(fā)

2023年開(kāi)始,一大波模型涌現(xiàn)出來(lái),每個(gè)月、每周、甚至每天都會(huì)有新的模型發(fā)布:

2月的LLaMA(Meta)、4月的Pythia(Eleuther AI)、MPT(MosaicML)、 5月的X-GEN(Salesforce)和Falcon(TIIUAE)、7月的Llama 2(Meta)、9月的Qwen(阿里巴巴)和Mistral(Mistral.AI),11月的Yi(01-ai),12月的DeciLM(Deci)、Phi-2(微軟) 和SOLAR(Upstage)。

在Meta AI的LLaMA系列中,研究人員的目標(biāo)是訓(xùn)練一組不同大小的模型,能夠在給定的預(yù)算下具有最佳性能。

他們首次明確提出不僅要考慮訓(xùn)練預(yù)算,還要考慮推理成本,從而在更小的模型大小上達(dá)到更高的性能(權(quán)衡是訓(xùn)練計(jì)算效率)。

Llama 1系列中最大的模型是在1.4T數(shù)據(jù)上訓(xùn)練的65B參數(shù)模型,而較小的模型(6 B和13B)是在1T數(shù)據(jù)上訓(xùn)練的。

小型13B LLaMA模型在大多數(shù)基準(zhǔn)測(cè)試中都優(yōu)于GPT-3,而最大的LLaMA模型到達(dá)了當(dāng)時(shí)的SOTA。不過(guò),LLaMA是以非商業(yè)許可發(fā)布的,限制了社區(qū)的應(yīng)用。

之后,MosaicML發(fā)布了MPT模型,具有允許商業(yè)用途的許可證,以及訓(xùn)練組合的細(xì)節(jié)。第一個(gè)MPT模型為7B ,隨后是6月份的30B版本,均使用1T英語(yǔ)和代碼數(shù)據(jù)進(jìn)行訓(xùn)練。

在此之前,模型的訓(xùn)練數(shù)據(jù)是公開(kāi)的,不過(guò)之后的模型就不再提供任何關(guān)于訓(xùn)練的信息,——不過(guò)最起碼權(quán)重是開(kāi)源的。

無(wú)處不在的對(duì)話模型

與2022年相比,2023年發(fā)布的幾乎所有預(yù)訓(xùn)練模型都帶有預(yù)訓(xùn)練版本和對(duì)話微調(diào)版本。

公眾越來(lái)越多地使用這些聊天模型,并進(jìn)行各種評(píng)估,還可以通過(guò)聊天的方式對(duì)模型進(jìn)行微調(diào)。

指令微調(diào)(IFT)使用指令數(shù)據(jù)集,其中包含一組查詢(xún)的提示和答案。這些數(shù)據(jù)集教會(huì)模型如何遵循指令,可以是人類(lèi)的,也可以是LLM生成的。

使用LLM輸出合成數(shù)據(jù)集,是完成指令和聊天微調(diào)的方法之一,通常被稱(chēng)為distillation ,表示從高性能模型中獲取知識(shí),來(lái)訓(xùn)練或微調(diào)較小的模型。

這兩種方法都相對(duì)容易實(shí)現(xiàn):只需要查找或生成相關(guān)數(shù)據(jù)集,然后使用與訓(xùn)練時(shí)相同的技術(shù)微調(diào)模型。

來(lái)自人類(lèi)反饋的強(qiáng)化學(xué)習(xí) (RLHF) 是一種特定方法,旨在調(diào)整模型預(yù)測(cè)的內(nèi)容,與人類(lèi)的喜好保持一致。

根據(jù)給定的提示,模型會(huì)生成幾個(gè)可能的答案,人類(lèi)對(duì)這些答案進(jìn)行排名,排名用于訓(xùn)練所謂的偏好模型,然后使用偏好模型通過(guò)強(qiáng)化學(xué)習(xí)對(duì)語(yǔ)言模型進(jìn)行微調(diào)。

這是一種成本高昂的方法,主要用于調(diào)整模型以實(shí)現(xiàn)安全目標(biāo)。

人們之后開(kāi)發(fā)了一種成本較低的變體,使用高質(zhì)量的LLM對(duì)模型輸出進(jìn)行排名,稱(chēng)為來(lái)自AI反饋的強(qiáng)化學(xué)習(xí) (RLAIF)。

直接偏好優(yōu)化 (DPO) 是RLHF的另一種變體,但不需要訓(xùn)練和使用單獨(dú)的偏好模型。

DPO利用人類(lèi)或AI給出的排名數(shù)據(jù)集,通過(guò)查看其原始策略和最佳策略之間的差異,來(lái)直接更新模型。

這使得優(yōu)化過(guò)程變得簡(jiǎn)單很多,同時(shí)實(shí)現(xiàn)了差不多的最終性能。

社區(qū)在做什么?

在2023年初,已經(jīng)發(fā)布了一些用于教學(xué)或聊天微調(diào)的數(shù)據(jù)集。

比如在人類(lèi)偏好方面,OpenAI的WebGPT數(shù)據(jù)集、Anthropic的HH-RLHF數(shù)據(jù)集和OpenAI的Summarize。

指令數(shù)據(jù)集的例子包括BigScience的Public Pool of Prompts、Google的FLAN 1和2、AllenAI的Natural Instructions、Self Instruct(由不同隸屬關(guān)系的研究人員生成自動(dòng)指令的框架)、SuperNatural指令(微調(diào)數(shù)據(jù)的專(zhuān)家創(chuàng)建的指令基準(zhǔn))、Unnatural指令等。

今年1月,中國(guó)研究人員發(fā)布了人類(lèi)ChatGPT指令語(yǔ)料庫(kù) (HC3),包含各種問(wèn)題的人類(lèi)與模型答案。

3月,斯坦福大學(xué)開(kāi)放了Alpaca模型,是第一個(gè)遵循指令的LLaMA模型 (7B),還包括相關(guān)的數(shù)據(jù)集(使用LLM生成的52K指令)。

LAION(一個(gè)非營(yíng)利性開(kāi)源實(shí)驗(yàn)室)發(fā)布了開(kāi)放指令通才(OIG)數(shù)據(jù)集,該數(shù)據(jù)集有43M條指令,既有數(shù)據(jù)增強(qiáng)創(chuàng)建,也有從其他預(yù)先存在的數(shù)據(jù)源編譯而來(lái)的指令。

同月,LMSYS組織(加州大學(xué)伯克利分校)發(fā)布了Vicuna,也是一個(gè)LLaMA微調(diào)(13B),這次使用的是聊天數(shù)據(jù)——用戶(hù)與ChatGPT之間的對(duì)話,由用戶(hù)自己在ShareGPT上公開(kāi)分享。

4月,BAIR(伯克利人工智能研究實(shí)驗(yàn)室)發(fā)布了Koala,一個(gè)聊天微調(diào)的LLaMA模型,使用了之前的幾個(gè)數(shù)據(jù)集(Alpaca、HH-RLHF、WebGPT、ShareGPT),

DataBricks發(fā)布了Dolly數(shù)據(jù)集,包含15K手動(dòng)生成指令。

5月,清華大學(xué)發(fā)布了UltraChat,一個(gè)包含指令的1.5M對(duì)話數(shù)據(jù)集,以及UltraLLaMA,一個(gè)對(duì)該數(shù)據(jù)集的微調(diào)。

Microsoft隨后發(fā)布了GPT4-LLM數(shù)據(jù)集,用于使用GPT4生成指令,

6月,Microsoft研究分享了一種新方法Orca,通過(guò)使用大型模型的推理痕跡來(lái)構(gòu)建指令數(shù)據(jù)集(解釋它們的分步推理),

——社區(qū)用這種方法創(chuàng)建了Open Orca數(shù)據(jù)集,有數(shù)百萬(wàn)個(gè)條目, 并被用于微調(diào)許多模型(Llama、Mistral等)。

8月,中國(guó)非營(yíng)利組織OpenBMB發(fā)布了UltraLM(LLaMA的高性能聊天微調(diào)),

9月,他們發(fā)布了相關(guān)的偏好數(shù)據(jù)集UltraFeedback,這是一個(gè)由GPT4比較的輸入反饋數(shù)據(jù)集(帶有注釋?zhuān)?/span>

另外,清華大學(xué)的一個(gè)學(xué)生團(tuán)隊(duì)發(fā)布了OpenChat,一個(gè)使用新的RL微調(diào)策略的LLaMA微調(diào)模型。

10月,Hugging Face發(fā)布了Zephyr,這是一款在UltraChat和UltraFeedback上使用DPO和AIF的Mistral微調(diào),Lmsys發(fā)布了LMSYS-Chat-1M,是與25個(gè)LLM的真實(shí)用戶(hù)對(duì)話。

11月,NVIDIA發(fā)布了HelpSteer,一個(gè)對(duì)齊微調(diào)數(shù)據(jù)集,根據(jù)幾個(gè)標(biāo)準(zhǔn)提供提示、相關(guān)模型響應(yīng)和所述答案的等級(jí),而Microsoft Research發(fā)布了Orca-2模型,是一個(gè)在新的合成推理數(shù)據(jù)集上微調(diào)的Llama 2。

開(kāi)發(fā)方式

合并:極致定制

在典型的開(kāi)源方式中,社區(qū)的里程碑之一是模型或數(shù)據(jù)合并。

模型合并是一種將不同模型的權(quán)重融合到單個(gè)模型中的方法,以將每個(gè)模型的各自?xún)?yōu)勢(shì)組合在一個(gè)統(tǒng)一的單個(gè)模型中。

最簡(jiǎn)單的方法之一,是對(duì)一組共享通用架構(gòu)的模型的參數(shù)進(jìn)行平均,——不過(guò)需要考慮更復(fù)雜的參數(shù)組合,例如確定哪些參數(shù)對(duì)給定任務(wù)的影響最大(加權(quán)平均),或者在合并時(shí)考慮模型之間的參數(shù)干擾(并列合并)。

這些技術(shù)允許任何人輕松生成模型組合,并且由于現(xiàn)在大多數(shù)模型都是同一架構(gòu)的變體,因此變得特別容易。

這就是為什么一些 LLM 排行榜上的模型會(huì)有奇怪的名字(比如llama2-zephyr-orca-ultra——表示llama2和zephyr 模型的合并,在orca和ultra數(shù)據(jù)集上進(jìn)行了微調(diào)) 。

PEFT:指尖的個(gè)性化

有時(shí),你可能沒(méi)有足夠的內(nèi)存加載整個(gè)模型,以對(duì)其進(jìn)行微調(diào)。但事實(shí)上,微調(diào)時(shí)可以不需要使用整個(gè)模型。

采用參數(shù)高效微調(diào)(PEFT),首先固定住一部分的預(yù)訓(xùn)練模型的參數(shù),然后在其上添加許多新參數(shù),稱(chēng)為適配器。

然后,對(duì)任務(wù)進(jìn)行微調(diào)的只是(輕量級(jí))適配器權(quán)重,比原始模型要小得多。

量化:模型無(wú)處不在

性能良好的大模型在運(yùn)行時(shí)需要大量的內(nèi)存,比如一個(gè)30B參數(shù)的模型可能需要超過(guò)66G的RAM才能加載,大多數(shù)個(gè)人開(kāi)發(fā)者都未必?fù)碛凶銐虻挠布Y源。

一個(gè)解決方案就是量化,通過(guò)改變模型參數(shù)的精度來(lái)減小模型的大小。

在計(jì)算機(jī)中,數(shù)字以給定的精度(如float32、float16、int8等)存儲(chǔ)。

精度既指示數(shù)字類(lèi)型(是浮點(diǎn)數(shù)還是整數(shù))又指示數(shù)字的存儲(chǔ)量:float32將浮點(diǎn)數(shù)存儲(chǔ)在32位的內(nèi)存空間中。精度越高,數(shù)字占用的物理內(nèi)存就越多。

因此,如果降低精度,則會(huì)減少每個(gè)模型參數(shù)占用的內(nèi)存,從而減小模型大小,這也意味著可以減少計(jì)算的實(shí)際精度。

而這種精度的損失帶來(lái)的性能下降,實(shí)際上非常有限。

從一種精度到另一種精度的方法有很多種,每種方案都有自己的優(yōu)點(diǎn)和缺點(diǎn)。常用的方法包括bitsandbytes、GPTQ和AWQ。

責(zé)任編輯:張燕妮 來(lái)源: 新智元
相關(guān)推薦

2023-10-08 09:00:00

LLMGitHub人工智能

2024-09-26 10:42:20

2024-10-08 09:30:00

AI模型

2023-07-10 14:35:53

2024-02-29 16:35:01

StarCoder2大型語(yǔ)言模型人工智能

2023-11-28 13:53:00

數(shù)據(jù)模型

2023-12-06 15:40:17

AI

2024-08-28 08:25:25

Python預(yù)訓(xùn)練模型情緒數(shù)據(jù)集

2024-12-05 13:50:00

AI大模型

2022-07-13 16:45:34

?大模型AI微軟

2025-03-26 10:57:40

PyTorchGGUF

2023-06-02 13:55:57

開(kāi)源AI

2024-11-15 08:24:41

2025-03-03 13:19:21

2024-06-21 08:42:54

BERTNLP自然語(yǔ)言處理

2024-02-04 13:26:51

2025-07-09 09:23:19

2025-09-17 12:56:56

2024-11-13 08:34:32

T5聊天機(jī)器人大模型
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)

老湿机69福利| 亚洲精品mv在线观看| 台湾av在线二三区观看| 媚黑女一区二区| 中文字幕久热精品视频在线| 欧美一级特黄aaa| 男女视频在线| 久久中文字幕电影| 亚洲精品欧美日韩专区| 国产一区二区三区影院| 色狮一区二区三区四区视频| 日韩精品一区二区三区在线 | 亚洲综合丁香婷婷六月香| 国产亚洲情侣一区二区无| 最新国产中文字幕| 国内揄拍国内精品久久| 亚洲无av在线中文字幕| 韩国三级视频在线观看| 99九九久久| 亚洲二区在线观看| 五月天av影院| 欧美色综合一区二区三区| 国产美女精品在线| 国产激情综合五月久久| 日本少妇久久久| 午夜久久免费观看| 亚洲人成电影网站色…| 亚洲香蕉中文网| 韩国一区二区三区视频| 欧美影院精品一区| 1024av视频| 天天干在线视频论坛| 国产精品污www在线观看| 精品久久久久亚洲| 丰满人妻一区二区三区无码av| 久久99久久精品欧美| 国产高清在线不卡| 日韩 欧美 综合| 欧美成人一区二免费视频软件| 国产一区二区三区18| 五月开心播播网| 91精品国产自产在线丝袜啪| 欧美一区二区国产| 91精品999| 久久精品国产福利| 欧美小视频在线| 奇米精品一区二区三区| a'aaa级片在线观看| 一区二区三区在线观看动漫| 天天成人综合网| 日本在线视频观看| 中文字幕高清一区| 日韩视频在线播放| 国产香蕉在线| 国产日韩欧美精品一区| 欧美影视一区二区| 成在在线免费视频| 国产清纯白嫩初高生在线观看91 | 999视频精品| 中文字幕自拍vr一区二区三区| 日韩在线免费观看av| 九色精品国产蝌蚪| 亚洲丝袜av一区| 午夜精产品一区二区在线观看的| 欧美女王vk| 在线播放日韩精品| 2014亚洲天堂| 午夜亚洲福利| 51久久精品夜色国产麻豆| 中文字幕第15页| 久久不射中文字幕| 国产精品久久久久久亚洲影视| 国产成人av免费| 蜜桃视频一区二区三区在线观看| 国产欧美一区二区白浆黑人| 国产又粗又猛视频免费| 国产精品资源网站| 国产综合动作在线观看| 国产视频网址在线| 亚洲精品国产a久久久久久| 久久这里只有精品18| 亚洲插插视频| 欧美日韩成人一区| 日批免费观看视频| 免费av一区二区三区四区| 中文字幕精品网| 九九九在线视频| av成人激情| 国产精品美女呻吟| 亚洲黄色精品视频| 国产三级精品视频| 糖心vlog在线免费观看| 日本在线影院| 欧美精品v日韩精品v韩国精品v| 真实乱偷全部视频| 妖精一区二区三区精品视频| 日韩性xxxx爱| 久久免费激情视频| 狠狠v欧美v日韩v亚洲ⅴ| 国产日韩一区二区| 日韩精品毛片| 欧美日韩一区二区在线播放| 在线观看免费不卡av| 秋霞蜜臀av久久电影网免费| 日韩网站免费观看| 精品免费囯产一区二区三区 | 国产精品人成电影在线观看| 国产熟女一区二区三区五月婷| jiyouzz国产精品久久| 日韩高清国产一区在线观看| 手机av免费在线| 欧美无乱码久久久免费午夜一区| 免费观看污网站| 成人一二三区| 欧美一级片一区| av中文字幕免费| 亚洲国产精品国自产拍av| 日本福利视频一区| 999色成人| 亚洲欧美日韩图片| 国产亚洲精品成人| 国产在线视频不卡二| 欧美高清一区二区| 激情av在线| 91精品国产综合久久久蜜臀图片 | 午夜精品久久久久久久96蜜桃 | 蜜桃久久精品一区二区| 精品视频一区二区| 污视频在线免费观看网站| 欧美伊人久久大香线蕉综合69| 中文字幕日韩三级片| 国产一区视频在线观看免费| 成人一区二区电影| 男女啪啪在线观看| 欧美性猛交xxxx黑人交| 亚洲午夜久久久久久久久红桃| 伊人久久婷婷| av一区观看| av片在线观看| 欧美一区二区视频网站| 亚洲一级二级片| 久久99在线观看| 在线观看日韩羞羞视频| 成人18视频在线观看| 一区二区三区无码高清视频| 成人免费毛片视频| 久久久久久久久久久久久久久99 | 高清不卡亚洲| 精品爽片免费看久久| 国产成人无码精品久久久久| 不卡免费追剧大全电视剧网站| 成人手机在线播放| caoporn成人| 777精品视频| 韩国免费在线视频| 91福利社在线观看| 手机看片日韩av| 免费人成黄页网站在线一区二区| 亚洲国产精品久久久久婷婷老年| 91p九色成人| 丝袜亚洲另类欧美重口| 国产xxxx在线观看| 亚洲国产精品麻豆| 一本色道综合久久欧美日韩精品| 亚洲三级免费| 日产精品高清视频免费| 欧美日韩尤物久久| 久久视频在线看| 性欧美videos另类hd| 亚洲综合999| 精品中文字幕在线播放 | 91成人精品网站| 国产三级电影在线观看| 欧美日韩黄色影视| 青青草手机视频在线观看| 成人一区二区三区视频| 日韩精品 欧美| 欧美一站二站| 91亚洲永久免费精品| 国产精品—色呦呦| 日韩激情在线视频| 在线观看日批视频| 亚洲一区二区三区四区的| 9.1成人看片| 蜜臀av一区二区三区| 99re6这里有精品热视频| 欧美wwwwww| 国产精品一区久久久| 日韩电影免费观看| 亚洲欧美日韩图片| 99热这里精品| 欧美日韩裸体免费视频| av在线播放中文字幕| 国产成人无遮挡在线视频| 国产v片免费观看| 日韩综合精品| 国产一级精品aaaaa看| 99热播精品免费| 欧美黑人xxx| 尤物网址在线观看| 亚洲精品久久久一区二区三区| 不卡av电影在线| 亚洲精品日韩一| xxxx日本黄色| 成人免费看视频| 人人干人人干人人| 亚洲一区二区伦理| 992tv成人免费观看| 神马久久一区二区三区| 国产精品裸体一区二区三区| 久久青草免费| 国产成人鲁鲁免费视频a| 九色91在线| 久久天堂电影网| 大乳在线免费观看| 亚洲精品v欧美精品v日韩精品| 97在线视频人妻无码| 狠狠爱在线视频一区| 欧美精品一区二区蜜桃| 国产精品日日摸夜夜摸av| 久久一区二区电影| 国产精品中文字幕日韩精品| 欧美日韩亚洲自拍| 亚洲一区图片| 国产九色porny| 午夜精品网站| 国产又黄又爽免费视频| 日韩欧美视频| 四虎影院一区二区三区| 杨幂一区二区三区免费看视频| 国产一区二区视频在线免费观看 | 国产三级精品在线不卡| 亚洲综合网狠久久| 2022国产精品| 国产一区二区三区免费在线| 国产精品三级久久久久久电影| 午夜精品成人av| 欧美尤物巨大精品爽| aa级大片免费在线观看| 久久免费视频这里只有精品| 超碰在线免费播放| 久久亚洲成人精品| 天堂а√在线资源在线| 色综合伊人色综合网站| 欧美777四色影视在线 | jizz日本免费| 91亚洲大成网污www| 人妻无码中文久久久久专区| a在线欧美一区| 三级男人添奶爽爽爽视频| 99久久99久久综合| 内射中出日韩无国产剧情| 久久综合九色综合欧美98| 中文字幕一区二区人妻在线不卡 | 成熟人妻av无码专区| 国产色综合久久| 国产性猛交xx乱| 国产精品系列在线| 多男操一女视频| 亚洲欧洲99久久| a在线视频播放观看免费观看| 亚洲六月丁香色婷婷综合久久| 久艹视频在线观看| 亚洲最新视频在线播放| 日韩精品――中文字幕| 精品动漫一区二区三区| 久久国产视频精品| 欧美日韩一二三区| 国产三级视频在线播放| 欧美成人aa大片| 三区在线观看| 日韩视频在线一区| 成人影音在线| 国产精品成av人在线视午夜片| 激情中国色综合| 亚洲最大福利视频网| 福利在线一区| 日韩av电影免费观看| 99视频精品全部免费在线视频| www.激情网| 国产精品亚洲欧美| 亚洲这里只有精品| 丁香激情综合国产| www.色天使| 亚洲天堂免费看| 天堂网av手机版| 欧美日韩极品在线观看一区| 亚洲美女性生活| 亚洲视频在线看| 午夜av在线免费观看| 日本亚洲欧洲色α| 国产精一区二区| 久久亚洲午夜电影| 天天做天天爱天天综合网| 国产九九九九九| 久久精品久久99精品久久| 成年人小视频在线观看| 国产精品嫩草久久久久| 国产 欧美 日韩 在线| 欧美区一区二区三区| 天天操天天干天天插| www.午夜精品| gogo亚洲高清大胆美女人体| 亚洲一区二区三区乱码aⅴ蜜桃女 亚洲一区二区三区乱码aⅴ | 国产精品第10页| www.亚洲一二| 中文字幕一区二区三区四区五区 | 久久综合久久色| 成人污污视频在线观看| 欧美日韩生活片| 精品久久久久久久久久国产| 国产农村妇女毛片精品| 在线观看国产成人av片| 国产美女高潮在线| 91传媒视频在线观看| av亚洲免费| 国产综合av在线| 国产成人免费av在线| 99久久久免费精品| 欧美性生交片4| 无码国产精品96久久久久| 九九热精品视频国产| 久久av影院| 日韩福利一区二区三区| 亚洲一区一卡| 黄色片视频免费观看| 洋洋av久久久久久久一区| 国产免费av观看| 中文字幕日韩在线播放| 视频二区不卡| 久久久一本精品99久久精品66| 欧美精品国产| 亚洲综合123| 国产精品乱码一区二区三区软件 | 精品亚洲欧美日韩| 精品电影一区| 亚洲日本久久久| 亚洲一区视频在线| 亚洲爱情岛论坛永久| 草民午夜欧美限制a级福利片| 久久夜夜久久| 在线观看国产一区| 麻豆精品久久久| av片在线免费看| 欧美日韩一区二区三区在线| 在线国产情侣| 91亚洲国产精品| 午夜精品av| 熟女人妻一区二区三区免费看| 亚洲精品一卡二卡| 亚洲成人第一区| 国内精品一区二区三区| 成人爽a毛片| 国产视频一视频二| 2021久久国产精品不只是精品| 国产高潮久久久| 国产一区二区三区视频| 99精品国自产在线| 伊人久久大香线蕉精品| 国产在线国偷精品产拍免费yy| 欧美做爰爽爽爽爽爽爽| 精品国产伦一区二区三区观看体验 | 北条麻妃一区二区三区中文字幕| 91麻豆精品| 妞干网视频在线观看| 91色视频在线| 天堂免费在线视频| 久久视频免费在线播放| 亚洲综合网狠久久| 北条麻妃在线观看| 国产精品对白交换视频| 99久久99久久久精品棕色圆| 久久久久久国产精品三级玉女聊斋| 久久精品色综合| 亚洲不卡视频在线| 亚洲欧美激情插| 秋霞网一区二区| 国产精品电影网站| 天天射—综合中文网| 日本精品一二三| 色哟哟一区二区| 免费观看成人高潮| 国产综合色一区二区三区| 日本91福利区| 久久久久久久伊人| 国产一区二区黄| 97久久超碰| 成年人在线观看视频免费| 亚洲精品日产精品乱码不卡| 飘雪影视在线观看免费观看| 国产精品一区二区电影| 伊人狠狠色j香婷婷综合| 第一次破处视频| 精品欧美久久久| 先锋欧美三级| 91黄色在线看| 国产精品久久二区二区| 少妇高潮久久久| 国产美女主播一区| 亚洲欧美高清|