精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

十個2023年最具影響力的開源大語言模型

人工智能
下面精心挑選了一些在2023年上半年掀起波瀾的最有影響力的模型。這些模型幾乎可以與band、GPT-3.5、GPT4、Claude、文心一言等商業大模型競爭。

由于大型語言模型(LLM)的崛起,2023年被認為是開源領域的關鍵一年。下面精心挑選了一些在2023年上半年掀起波瀾的最有影響力的模型。這些模型幾乎可以與band、GPT-3.5、GPT4、Claude、文心一言等商業大模型競爭。

本文僅針對當前開源大語言模型中一些比較有影響力的項目進行信息收集與分析,但由于2023年大模型的快速發展,有些信息可能已經滯后,讀者可進一步跟蹤官方網站或者開源社區了解相關進展。

  • LLaMA
  • LLaMA 2
  • Alpaca
  • Vicuna
  • Guanaco
  • RedPajama
  • Falcon
  • FLAN-T5
  • Stable Beluga (formerly ‘FreeWilly’)
  • MPT

 對于這些模型,下面表格列出了關鍵信息,例如:架構設計、訓練所用的數據庫、訓練過程、許可協議信息和特征等。

1.LLaMA

LLaMA不僅僅是一個單一的模型;它是一個包含多個大小不一的大型語言模型的集合,參數從70億到650億不等。可用的尺寸包括6.7B、13.0B、32.5B和65.2B參數,每種參數在不同的任務中表現出色,而較大的型號通常在更復雜的任務中表現更好。

LLaMA由Meta開發,基于Transformer架構,自2018年以來一直是語言建模的標準架構。它與GPT-3有相似之處,但也有一些架構差異。LLaMA使用SwiGLU激活函數代替ReLU激活函數,使用旋轉位置嵌入代替絕對位置嵌入,并且均方根層歸一化代替標準層歸一化。

這些模型是在不同的領域訓練出來并被開源。研發人員可以將其用于各種應用,包括翻譯、問答、文本生成等。LLaMA的多功能性使其能夠針對眾多任務進行微調,使其成為各種AI項目的理想基礎模型。

LLaMA的訓練數據非常廣泛,模型是在來自公開數據源的1.4萬億個令牌上訓練的。這些來源包括CommonCrawl抓取的網頁、GitHub的開源代碼庫、多種語言的維基百科、Gutenberg項目中公共領域書籍以及Stack Exchange網站上的問題和答案。這些模型的研發通過增加訓練數據量來提高模型性能。

至于許可協議,Meta在非商業許可下向研究社區發布了LLaMA的模型權重。

為了訓練LLaMA模型,開發人員使用了帶有余弦學習速率計劃的AdamW優化器。最終學習率為最大學習率的10%。此外,模型使用0.1的權重衰減和1.0的梯度剪裁。學習速率和批量大小是根據每個模型的大小定制的,進一步優化其在訓練期間的性能。

2.LLaMA 2

LLaMA 2是Meta的LLaMA模型的第二次迭代,專門為對話場景設計.它經過了深度微調,使其與ChatGPT等模型相媲美。LLaMA 2模型有三種大小:70億、130億和700億參數。

LLaMA 2比其前身LLama 1有了重大的進步和改進。它是在一個新的公開可用數據的混合上訓練的,預訓練語料庫增大40%。該模型的上下文長度增加了一倍,并利用了分組查詢注意機制。

Llama 2-Chat是一個針對基于聊天的交互而優化的微調版本。LLaMA 2和Llama 2-Chat的開發旨在確保其輸出的內容對人類有益且安全。這些自回歸模型基于輸入生成文本,非常適合助理式聊天和各種自然語言生成任務。        根據基準評估,它比大多數其他模型(包括ChatGPT)更有優秀。

LLaMA 2被授權給研究人員和商業實體,堅持開放的原則。這使得無論是研究、商業應用還是項目開發都能夠使用LLaMA 2。

LLaMA 2的訓練數據非常廣泛,包括來自公開來源的2萬億個代幣。微調數據包括公開可用的指令數據集和超過一百萬個新的人類注釋示例。值得注意的是,預訓練數據集和微調數據集都不包括Meta用戶數據,從而確保了用戶隱私和數據安全。

LLaMA 2采用Llama 1模型的修改版本來增強性能,并使用帶有標準Transformer架構的AdamW優化器。它使用與Llama 1相同的標記器,采用字節對編碼(BPE)算法,詞匯量為32 k個標記。Llama 2-Chat的發展經歷了兩個階段。第一個階段,LLaMA 2使用公開的在線數據。然后,通過監督微調創建了Llama 2-Chat的初始版本。在第二階段,Llama 2-Chat使用來自人類反饋的強化學習(RLHF)進行了改進。這個過程涉及拒絕采樣和鄰近策略優化(PPO),以提高其在基于對話的應用程序的性能。

總之,LLaMA 2代表了語言建模方面的重大進步,提供了透明度,可訪問性和性能改進,可能會被研究和商業社區廣泛接受。

3.Alpaca

Alpaca是由斯坦福大學基礎模型研究中心(CRFM)的研究人員開發的它是從Meta的LLaMA 7 B模型中微調的,并使用OpenAI的text-davinci-003作為參考,在52000個指導遵循演示中進行了訓練。盡管表現出與OpenAI的text-davinci-003相似的行為,但Alpaca模型更小。

Alpaca模型的突出特點是其強大的指令遵循能力。憑借其微調的設計和許多指令遵循演示的培訓,它為需要精確遵守指令的任務提供了可靠和有效的選擇。

該模型主要用于學術研究。然而,由于安全措施不足,它還沒有準備好用于一般用途。它不可用于商業用途,因為用于訓練Alpaca的指令數據基于OpenAI的text-davinci-003,其使用條款禁止開發與OpenAI競爭的模型。

采用Hugging Face的訓練框架對Alpaca進行微調,充分利用完全分片數據并行和混合精度訓練。使用8臺80GB A100對7B LLaMA模型進行微調大約需要3個小時,展示了其效率和快速開發的潛力。

總之,Alpaca是一種專門的、高效的語言模型,適用于需要準確和精確執行的任務。它的開發和使用面向研究和學術探索,重點是維護安全和遵守許可證限制。

4.Vicuna

由LMSYS開發的Vicuna系列大型語言模型以其生成類人文本的能力而聞名。這些模型在理解和提供基于用戶提示的響應方面表現出色,使它們對聊天機器人和內容生成等各種應用非常有用。

Vicuna有兩種大小的模型:Vicuna-7B和Vicuna-13B。使用GPT-4作為對比參考的初步評估表明,Vicuna-13B的質量達到OpenAI ChatGPT和Google Bard的90%以上。此外,與LLaMA和斯坦福大學Alpaca等其他型號相比,它在90%以上的情況下表現出更強的性能。

Vicuna模型的一個重要方面是它依賴于人類生成的數據。這使它成為第一個使用此類數據訓練的開源大語言模型之一,生成連貫并且具有創造性的文本。Vicuna是Alpaca模型的改進版本,它基于Transformer架構,但采用人類生成的對話數據集進行了微調。

Vicuna的主要用途是用于研究,特別是自然語言處理、機器學習和人工智能方面的研究人員和愛好者。Vicuna僅供非商業用途的用戶使用,用戶必須遵守LLaMA制定的使用模型的規則,尊重OpenAI使用其生成的數據的條款,并遵守ShareGPT的隱私規則。

這兩款Vicuna模型都是在LLaMA-13B模型的基礎上構建的,并從ShareGPT.com公開API收集的約70000個用戶共享對話進行了微調。HTML被轉換回markdown以確保數據質量,不合適或低質量的樣本被過濾掉。冗長的對話也被分成較小的片段,以適應模型的最大上下文長度2048個令牌。

在訓練過程中,Vicuna基于斯坦福大學的Alpaca模型進行了幾項關鍵改進:

  • 多輪對話:調整訓練損失,以解釋多輪對話,使模型更好地理解和響應復雜的,多輪對話。
  • 內存優化:最大上下文長度從512擴展到2048,使維庫納能夠理解更長的上下文。梯度檢查點和Flash Attention用于內存優化,以管理增加的GPU內存需求。
  • 通過Spot實例降低成本:為了減輕由更大的數據集和增加的序列長度導致的顯著訓練費用,使用了SkyPilot管理的點實例。這些實例更便宜,并具有自動恢復、搶占和自動區域切換功能,顯著降低了培訓成本。

憑借其更加類似人類的文本生成功能,開放性和多功能性,Vicuna代表了大型語言模型領域的一個突破。

5.Guanaco

Guanaco是一個基于Meta的LLaMA模型的高級語言模型系列,用于在多語言環境中出色地完成指令。Guanaco是建立在LLaMA-7B的基礎上,使用創新的QLoRA(量化低秩適配器)方法進行了重大改進和微調的結果。這種方法允許在單個GPU上對大型語言模型進行微調。

Guanaco系列模型包括具有不同數量參數的各種變體,參數從70億到650億不等。根據研究人員的說法,最大的Guanaco模型能夠達到了Chat GPT 99.3%的性能,展示了其在基準測試中的卓越性能。

Guanaco使用QLoRA方法進行訓練,該方法有效地將模型量化到4位精度,并結合了低秩自適應權重(LoRA),在保持高性能的同時顯著降低了內存需求。這種方法允許最大的650億參數Guanaco模型在GPU內存不足48千兆字節的情況下有效運行,在不影響性能的情況下可以減少超過780千兆字節大小。

Guanaco的一個顯著特點是它對擴展對話的適應性。它可以根據用戶的要求繼續回答問題或討論話題,非常適合聊天機器人應用程序。該模型還支持視覺問答(VQA),使其能夠解釋和響應文本和視覺輸入。

 Guanaco最初是基于Alpaca模型的52000個數據集的基礎上進行擴展,之后加入了超過534530個額外條目,涵蓋了各種語言、語言任務和語法任務。這種廣泛的訓練有助于其有效執行多語言和多模式任務。

雖然,Guanaco模型未獲得商業應用許可。其主要用途是學術研究和非商業應用。但它在多功能性和強大的性能等方面的自然語言處理任務能力具有較高價值。

總之,Guanaco將高效的微調、多語言功能和適應性會話技能相結合,使其在語言模型領域取得了重大進步,在聊天機器人、內容生成和終端硬件應用、私有模型等方面具有潛在應用價值。

6.RedPajama

RedPajama is a collaborative project involving Together, Ontocord.ai, ETH DS3Lab, Stanford CRFM, and Hazy Research, with the mission to create a set of leading, fully open-source language models. The project’s primary objective is to bridge the quality gap between open and closed models, as many powerful foundation models are currently locked behind commercial APIs, limiting research, customization, and usage with sensitive data.         

RedPajama是一個由Together、Ontocord.ai、ETH DS 3Lab、斯坦福大學CRFM和Hazy Research等多機構合作的項目,其使命是創建一套領先的、完全開源的語言模型。該項目的主要目標是彌合開放模型和封閉模型之間的質量差距,因為許多強大的基礎模型目前被鎖定在商業API的后面,限制了敏感數據的研究、定制和使用。

RedPajama項目由三個關鍵組件組成:

  • RedPajama數據集:RedPajama數據集是一個擁有1.2萬億令牌完全開放數據集,它是按照LLaMA論文中描述的方法創建的。這個龐大的數據集包括來自不同來源的七個數據切片,包括CommonCrawl、C4、GitHub、arXiv、Books、Wikipedia和StackExchange。每個數據切片都經過精心的預處理和過濾,確保數據質量和令牌計數與Meta在LLaMA論文中報告的數字一致。
  • RedPajama基礎模型:由30億個參數和70億個參數構成了RedPajama模型的基礎。它們是基于Pythia架構開發的,在不同的任務中表現出色。兩個變體是RedPajama-INCITE-Chat-3B-v1和RedPajama-INCITE-Instruct-3B-v1,兩者都具有30億個參數。RedPajama-INCITE-Chat-3B-v1模型針對會話AI任務進行了優化,擅長在會話環境中生成類人文本。另一方面,RedPajama-INCITE-Instruct-3B-v1模型旨在有效地執行指令,使其非常適合理解和執行復雜指令。
  • RedPajama微調模型:此組件側重于微調基本模型,使其在特定任務中表現出色。該項目提供了RedPajama-INCITE-Base模型的變體,每個模型都具有不同的特性和應用。例如,RedPajama-INCITE-Chat模型使用Dolly 2.0和Open Assistant數據進行微調。相比之下,RedPajama-INCITE-Instruct模型設計用于少量提示詞,減少與HELM基準測試數據集的重疊。

RedPajama模型和數據集是在Apache 2.0許可下發布的,允許在研究和商業應用中使用。

7.Falcon

Falcon模型系列由技術創新研究所開發,包括一系列的大型語言模型。它們經過優化,可以在各種應用程序中實現包括文本生成、摘要和聊天機器人等功能。

Falcon系列模型包括多種型號,例如:Falcon-40B、Falcon-7B、Falcon-180B,每一個都根據特定的要求和場景量身定制。Falcon-40B模型有400億個參數,并在RefinedWeb數據集上訓練。該數據集包含15000億個Token,是一個具備高質量、過濾和消除重復數據的Web數據。Falcon-7B模型是一個較小的變體,有70億個參數,也在RefinedWeb數據集上訓練,但進一步補充了精心整理的語料庫,以增強其能力。Falcon-180B擁有1800億參數,是Falcon在3.5萬億token完成訓練,目前直接登頂HuggingFace排行榜,性能直接碾壓LLaMA 2。基準測試中,Falcon 180B在推理、編碼、熟練度和知識測試各種任務中,一舉擊敗LLaMA 2。

作為因果解碼器專用模型,Falcon模型可以基于前面的Token預測序列中預測下一個令牌,使其特別適合文本生成任務,包括摘要和聊天機器人等功能。他們的架構建立在GPT-3模型的基礎上,并進行了一些調整,以實現更好的優化和增強性能。例如,它們使用FlashAttention和多查詢注意力機制。    

Falcon-40B在25000億個RefinedWeb數據Token上進行訓練,訓練時間為兩周,使用384個A100 40GB GPU。Falcon-7B模型在RefinedWeb數據集的15000億個Token上進行訓練,也使用相同的384 A100 40GB GPU設置進行了為期兩周的訓練。高效的訓練過程是通過2D并行策略(PP=2,DP=192)與ZeRO優化相結合來實現的,從而使模型在使用更少的訓練計算資源的情況下,性能不亞于其他開源模型。

關于Falcon 180B,它是40B的升級版本。據官方介紹,Falcon 180B 是當前最好的開源大模型。在 MMLU上 的表現超過了 Llama 2 70B 和 OpenAI 的 GPT-3.5。在 HellaSwag、LAMBADA、WebQuestions、Winogrande、PIQA、ARC、BoolQ、CB、COPA、RTE、WiC、WSC 及 ReCoRD 上與谷歌的 PaLM 2-Large 不相上下。

它在 Hugging Face 開源大模型榜單上以 68.74 的成績被認為是當前評分最高的開放式大模型,評分超過了 Meta 的 LlaMA 2 (67.35)。

對于訓練過程,Falcon 180B基于亞馬遜云機器學習平臺Amazon SageMaker,在多達4096個GPU上完成了對3.5萬億token的訓練。總GPU計算時,大約7,000,000個。Falcon 180B的參數規模是Llama 2(70B)的2.5倍,而訓練所需的計算量是Llama 2的4倍。具體訓練數據中,Falcon 180B主要是RefinedWe數據集(大約占85%) 。此外,它還在對話、技術論文,以及一小部分代碼等經過整理的混合數據的基礎上進行了訓練。這個預訓練數據集足夠大,即使是3.5萬億個token也只占不到一個epoch。

硬件要求:

Falcon模型是在Apache 2.0許可證下發布,允許在商業場合使用,沒有版稅或其他限制。但Falcon-180b 在商業用途的使用條件非常嚴格,不包括任何“托管用途”。建議您查看開源許可證并咨詢您的法律團隊。

總之,Falcon模型的多功能性和有效性使其適用于廣泛的場景。它們可以用于大型語言模型的研究,并作為進一步專業化和微調打下堅實基礎,以滿足特定場合應用,如摘要,文本生成和聊天機器人功能。    

8.FLAN-T5

FLAN-T5系列包括幾種不同參數的模型:

  • Flan-T5 small (80M)
  • Flan-T5 base (250M)
  • Flan-T5 large (780M)
  • Flan-T5 XL (3B)
  • Flan-T5 XXL (11B)

FLAN-T5的架構基于T5編碼解碼器架構,其中編碼器和解碼器都是transformers。這個基于transformers的語言模型由12個transformers層和一個用于并行處理文本的前饋神經網絡組成。

FLAN-T5在多任務語言理解和跨語言問答等方面表現出色。它在文本生成、常識推理、問答、情感分類、翻譯、代詞解析等方面十分優秀。它為研究零鏡頭NLP任務和上下文少鏡頭學習NLP任務(如推理和問答)提供了寶貴資源。此外,它理解當前大型語言模型的局限性,有助于推進公平性和安全性的研究。

Google于2022年底在Apache許可下開源FLAN-T5。

Flan-T5在訓練過程中,有兩個階段的過程中使用了大量的文本數據:預訓練和微調。預訓練階段使用T5架構,模型在給定的Token序列中預測中的下一Token。在指令微調階段,FLAN-T5的功能通過特定指令進行了細化,以增強其在各種任務和語言上的性能。

FLAN-T5的微調數據類型非常廣泛,包括473個數據集、146個任務類別和1836個任務。微調過程中混合四種任務:Muffin、T0-SF、NIV 2和CoT。這些混合包括各種任務,例如:對話數據、程序合成數據、算術推理、多跳推理(multi-hop reasoning)、自然語言推理等等。

Flan-T5模型不限于特定的任務或語言,為研究人員和開發人員提供了一個強大的工具,推動了自然語言理解和文本生成的發展。

9.Stable Beluga (Formerly Free Willy)

Stable AI以及CarperAI實驗室的Stable Beluga項目產生了兩個模型,Stable Beluga 1和Stable Beluga 2。這些模型建立在Meta的Llama模型之上,并使用標準Alpaca格式的合成生成的新數據集進行微調。該項目旨在彌合開放模型和封閉模型之間的質量差距,允許研究人員和開發人員探索和定制這些模型,以滿足各種自然語言處理任務。

Stable Beluga 1和Stable Beluga 2分別采用LLaMA-65B和LLaMA 2-70B基礎模型。這兩種模型在各種基準測試中都表現良好。Stable Beluga 2 甚至在某些基準測試中超過了Llama 2。

Stable Beluga大語言模型擅長解決類似法律、數學等專業領域的復雜問題,并專注于微妙的語言細節。

Stable Beluga模型目前作為一項研究實驗,提供了非商業許可(non-commercial license),強調致力于促進AI社區的開放研究和可訪問性。該許可證確保模型可免費用于學術和非商業目的,鼓勵自然語言處理領域的合作和創新。

Stable Beluga模型的訓練過程基于Orca方法,類似于微軟的漸進式學習方法。然而,Stable Beluga項目中使用的數據集與Orca論文不同。該團隊使用Enrico Shippole的數據集,包括COT Submix Original、NIV2 Submix Original、FLAN 2021 Submix Original和T0 Submix Original,來作為提示詞語言模型。數據集包含60萬個高質量的樣本,約為Orca數據集大小的10%。Stable Beluga使用了刪除測試數據并過濾后的數據集進行了微調,以實現其卓越的性能。

10.MPT

由MosaicML開發的MPT模型是一系列基于transformers的語言模型。這些模型專為商業用途而設計,是開源的,并建立在GPT-3模型的基礎上,旨在在各種自然語言處理任務中更加高效和靈活。

MPT系列由多個版本組成,其中MPT-7B、MPT-7B-StoryWriter、 MPT-30B是幾個個重要的模型。MPT-7B 是一個只有解碼器的Transformer模型,它在MosaicML數據團隊策劃的1萬億個文本和代碼標記的大型語料庫上訓練出來,具有67億個參數。模型主要使用了FlashAttention算法,為了處理大上下文,它還使用了ALiBi算法。而MPT-30B,擁有 300 億參數,其功能明顯比前一代 MPT-7B 語言模型更強大,并且性能優于 GPT-3。

MPT-7B的開源許可是Apache-2.0。但是,需要注意的是,不推薦在沒有微調的情況下使用基礎模型。

MPT-7B-StoryWriter-65k+是MPT-7B的一個變體,專為閱讀和寫作等具有極長上下文長度的場景而定制。這是在books3數據集的小說子集上進行微調的結果,上下文長度為65k Token。MPT-7B-StoryWriter-65k+可以在A100-80GB GPU的單個節點上生成多達84k個Token的內容。與MPT-7B一樣,它的開源許可也是Apache-2.0。

MPT-7B-Chat 是個類似聊天機器人的對話生成模型,它是在包括ShareGPT-Vicuna、HC 3、Alpaca、Helpful and Harmless和Evol-Instruct等多個數據集上進行微調的結果。其開源許可為CC-By-NC-SA-4.0,意味著它只能在非商業用途使用。

MPT-7B-Instruct是一個專門為短格式指令而量身定制的模型,基于MosaicML發布的MPT-7B數據集進行微調創建的結果,該數據集的來源是Databricks Dolly-15k和Anthropic的Helpful和Harmless數據集。它的開源許可是CC-By-SA-3.0。

MPT 7B的訓練過程使用了8個A100-80GB的GPU,具有分片數據并行性、LION優化器和完全分片數據并行性(FSDP)技術。梯度檢查點用于優化訓練期間的內存。該模型由67億個參數、32個Transformer層(每個層的隱藏大小為4096)、16個關注點以及50432個單詞的詞匯表組成,序列長度為65536。

MPT-30B 是由MosaicML用2個月的時間訓練的新一代產品,MPT-30B通過數據混合進行預訓練,從10個不同的開源文本語料庫中收集了1T個預訓練數據的token,并使用 EleutherAI GPT-NeoX-20B分詞器對文本進行分詞,并根據一定比例進行采樣。

MPT-30B使用英偉達的H100 GPU 集群進行訓練。采用Apache 2.0開源許可協議,性能強于原始的 GPT-3,并且與LLaMa-30B和 Falcon-40B 等其他開源模型具有競爭力。

總之,MPT是自然語言處理方面一個有價值的開源模型。它們專注于處理長上下文的處理效率、靈活性和令人印象深刻的性能,使它們適合于各種語言相關的任務和應用場景。

責任編輯:趙寧寧 來源: andflow
相關推薦

2024-01-02 15:41:58

2013-07-18 10:31:35

2023-05-29 14:46:10

生成式人工智能物聯網

2023-01-04 10:01:53

物聯網IOT

2024-03-01 16:43:53

2009-06-16 10:03:47

開源世界巾幗英雄最具影響力

2010-04-30 22:30:49

2024-12-31 14:58:37

2021-03-11 09:58:17

IT趨勢技術運營業務

2014-08-13 09:17:41

大數據應用案例

2009-06-16 14:46:55

軟博會

2022-01-07 10:41:27

網絡安全事件網絡安全安全威脅

2012-08-27 13:57:55

2009-11-23 09:29:59

IT市場最具影響力高管

2018-01-04 13:46:30

2009-10-15 15:05:55

2010-03-19 12:00:14

開源影響力

2021-12-28 05:38:36

網絡安全事件網絡安全網絡攻擊

2009-09-11 10:11:13

商界女性50強雅虎CEO上榜

2013-12-10 15:09:59

點贊
收藏

51CTO技術棧公眾號

99免费视频观看| 色中色综合成人| 五月婷婷亚洲综合| 欧美精品一区二区久久| 日韩一区二区麻豆国产| 久久久免费视频网站| 国产原创视频在线观看| 91丨porny丨最新| 成人免费午夜电影| 久久久久久久久黄色| 亚洲a一区二区三区| 精品五月天久久| 亚洲视频在线不卡| 欧美亚洲大片| 精品国产户外野外| 一本二本三本亚洲码| 欧美视频综合| 国产a久久麻豆| 国产精品一香蕉国产线看观看 | 中国黄色片免费看| 成人观看网址| 亚洲精品写真福利| 水蜜桃亚洲一二三四在线| 亚洲av无码乱码国产精品| 久久精品国产99国产| 欧美亚洲在线观看| 久久精品国产av一区二区三区| 日韩在线观看一区| 亚洲人精选亚洲人成在线| 日韩精品视频一区二区| 日本一区影院| 91麻豆精品国产综合久久久久久| 密臀av一区二区三区| 五月天国产在线| 亚洲第一精品在线| 韩国无码av片在线观看网站| 日本在线视频站| 中文字幕第一区第二区| 欧美一区二区三区四区在线观看地址| 韩国av免费在线观看| 国产麻豆精品视频| 91在线观看免费高清| 中文字幕日韩三级| 免费一级片91| 国产精品视频yy9099| 日韩av免费播放| 久久综合九色| 国产精品99久久久久久白浆小说| 中文字字幕在线中文| 亚洲影音先锋| 青青草成人在线| 日本视频免费观看| 天堂av在线一区| 国产精品jizz在线观看麻豆| 免费又黄又爽又猛大片午夜| 日本中文字幕一区二区视频| 国产精品久久中文| 91免费视频播放| 激情深爱一区二区| 91高跟黑色丝袜呻吟在线观看| 国产成人精品亚洲精品色欲| 国产成人啪午夜精品网站男同| 91久久久一线二线三线品牌| 性中国xxx极品hd| 成人激情视频网站| 久久资源av| 91社区在线观看播放| 日韩码欧中文字| 国内精品国产三级国产99| 波多野结衣中文字幕久久| 黄色精品在线看| 亚洲色精品三区二区一区| 免费污视频在线一区| 欧美美女喷水视频| 熟女人妻一区二区三区免费看| 豆花视频一区二区| 亚洲欧美精品suv| 91无套直看片红桃在线观看| 欧美1区2区| 欧美亚洲第一页| 一区二区自拍偷拍| 国产suv精品一区二区883| 乱色588欧美| 欧美jizz18性欧美| 亚洲成人久久影院| 久久久国产欧美| 日韩高清一区| 亚洲欧美日韩在线高清直播| 久久久久久视频| 中文在线一区| 成人www视频在线观看| 蜜桃av噜噜一区二区三区麻豆| 久久九九久久九九| 热久久最新网址| 丝袜美腿一区| 欧美一级高清片| 性欧美13一14内谢| 女同性一区二区三区人了人一| 欧美一级电影免费在线观看| 国产精品一二三四五区| 久久影院电视剧免费观看| 超碰免费在线公开| 国模冰冰炮一区二区| 日韩限制级电影在线观看| 波多野结衣a v在线| 欧美日韩mv| 国产精品久久久久9999| 蜜桃视频在线观看www| 国产精品久久久久永久免费观看 | 北岛玲精品视频在线观看| 亚洲黄色在线看| 老熟妻内射精品一区| 三级精品在线观看| 国产日韩一区二区| 老司机在线看片网av| 在线欧美小视频| 日b视频在线观看| 欧美 亚欧 日韩视频在线 | 国产日产欧美视频| 亚洲天堂中文字幕在线观看| 精品国产欧美一区二区三区成人| 日本黄色一级视频| 91免费在线视频观看| 国产情侣第一页| 久久影院一区二区三区| 日韩中文字幕免费| 中文无码精品一区二区三区| 26uuu国产电影一区二区| 国产毛片久久久久久国产毛片| 国产成人免费av一区二区午夜| 亚洲视频在线观看视频| 国产成人一级片| 91小视频在线免费看| 美女扒开大腿让男人桶| 91亚洲无吗| 美女av一区二区三区| 国产又大又粗又长| 亚洲品质自拍视频网站| 日韩av片专区| 亚洲精品2区| 91九色视频在线观看| 超鹏97在线| 日韩欧美国产小视频| 麻豆成人在线视频| 国产a区久久久| 秋霞无码一区二区| 欧美一区 二区| 97超碰国产精品女人人人爽| 五月婷中文字幕| 欧美日韩亚洲系列| 成人免费无遮挡无码黄漫视频| 91久久在线| 久久婷婷国产综合尤物精品| 亚洲一区资源| 中文字幕欧美国内| 一级黄色片视频| 亚洲男人的天堂在线观看| 亚洲成人激情小说| 在线观看的日韩av| 久久精彩视频| 精品176极品一区| 不卡av电影院| 乱精品一区字幕二区| 精品国产乱码久久久久酒店| 久久精品国产亚洲AV熟女| 美腿丝袜亚洲色图| 精品人妻人人做人人爽| 老司机精品在线| 国产91免费观看| 日本韩国在线视频爽| 日韩欧美久久久| 午夜精品三级久久久有码| 久久精品日韩一区二区三区| 欧美一级特黄a| 国产精品chinese| 免费精品视频一区| 亚洲精品aaa| 久久久久久久久久av| 黄色毛片在线观看| 7777精品伊人久久久大香线蕉完整版 | 免费av一区| 91久久久久久久久久久| 成人观看网址| 久久九九全国免费精品观看| 日韩一级片免费在线观看| 欧美日韩在线一区二区| 久久久久亚洲AV| 国产蜜臀97一区二区三区 | 超碰在线免费97| 亚洲精品午夜久久久| 800av在线播放| 久久精品久久久精品美女| 久久av综合网| 欧美一二区在线观看| 成人国产1314www色视频| 久久91导航| 国产+人+亚洲| 麻豆tv免费在线观看| 亚洲精品日韩久久久| 国产毛片在线视频| 欧洲一区在线电影| 国产午夜精品一区二区理论影院 | 久久中文字幕在线观看| 欧美激情在线看| www.男人天堂| 国产一区二区三区av电影| 成人性生生活性生交12| 亚洲作爱视频| 成人毛片100部免费看| 日韩在线不卡| 青青草原亚洲| 女同一区二区三区| 国产精品一区二区三区四区五区| 亚洲ww精品| 国产精品91在线| 三级成人黄色影院| 91chinesevideo永久地址| 日本高清成人vr专区| 色婷婷**av毛片一区| 国产视频第一区| 亚洲精品少妇网址| 天天操天天操天天| 精品少妇一区二区| www.超碰在线.com| 日韩一区二区在线看| 一级黄在线观看| 欧美精选一区二区| 一卡二卡在线观看| 欧美日韩精品综合在线| 中文无码av一区二区三区| 欧美三区在线视频| 国产精华7777777| 在线免费不卡视频| 男操女视频网站| 欧美专区日韩专区| 999视频在线| 欧美色偷偷大香| 影音先锋国产资源| 欧美日韩一区视频| 一级aaaa毛片| 717成人午夜免费福利电影| 国产精品欧美综合亚洲| 在线成人午夜影院| 国产情侣激情自拍| 欧美成人福利视频| 无码精品在线观看| 精品亚洲一区二区三区四区五区| 亚洲av成人精品一区二区三区在线播放| 亚洲精品一区二区三区四区高清| 国模私拍视频在线| 日韩精品高清视频| 黄色小视频在线观看| 这里只有精品视频| 色网站在线看| 久久99国产综合精品女同 | 国产精品福利在线观看| 一二区成人影院电影网| 成人精品久久久| 亚洲精品不卡在线观看| 精品国产免费久久久久久尖叫| 午夜先锋成人动漫在线| 日韩av免费电影| 国产精品久久久久久| 热久久最新网址| 亚洲一区日韩在线| 日本免费观看网站| 精品无人码麻豆乱码1区2区 | 亚洲乱码一区| 狠狠色噜噜狠狠色综合久| 九九久久婷婷| 中文精品一区二区三区| 欧美久色视频| 久久精品.com| 激情久久五月天| 中文字幕第3页| 国产色婷婷亚洲99精品小说| 国产黄色录像片| 午夜成人免费电影| 在线免费一级片| 欧美精品一区在线观看| 欧美xxx.com| 播播国产欧美激情| 亚洲精品88| 成人av在线天堂| 亚洲成人一品| dy888午夜| 久久人人97超碰国产公开结果| 一区二区三区欧美精品| 91在线观看视频| 国产又粗又硬又长又爽| 欧美性猛交xxxx| 99视频免费看| 一本色道久久88综合亚洲精品ⅰ| 97超碰在线公开在线看免费| 国产aⅴ夜夜欢一区二区三区| 精品视频在线播放一区二区三区 | 精品在线一区二区三区| 久久性爱视频网站| 日韩毛片精品高清免费| 五月婷婷激情视频| 精品国产成人系列| 欧美jizzhd欧美| 国产成一区二区| 成人h动漫免费观看网站| 一区二区精品在线观看| 三级亚洲高清视频| 精品人妻一区二区三区日产| 日韩码欧中文字| 中文在线观看av| 亚洲另类欧美自拍| heyzo高清中文字幕在线| 亚洲free嫩bbb| 欧美成人自拍| 国产自偷自偷免费一区| 99视频热这里只有精品免费| 国产精品九九九九九九| 欧美另类高清zo欧美| 国产高清一级毛片在线不卡| 欧美在线不卡区| 豆花视频一区二区| 又大又硬又爽免费视频| 国产一区二区三区香蕉| 成人18视频免费69| 欧美制服丝袜第一页| 嫩草在线播放| 欧洲亚洲免费视频| 欧美一区 二区| 黄色影院一级片| 99久久99久久久精品齐齐| 国产精品成人aaaa在线| 精品国产一区二区亚洲人成毛片| av在线播放观看| 91在线观看免费| 欧美日本精品| 2025中文字幕| 亚洲一区二区三区影院| 亚洲国产精品成人久久蜜臀| 欧美区在线播放| 国产精品丝袜在线播放| 真实国产乱子伦对白视频| 国产成人精品影院| 麻豆国产尤物av尤物在线观看| 欧美www视频| 97人人在线视频| 久久精品国产综合精品| 国产欧美一级| 国产精品高清无码在线观看| 色成年激情久久综合| 第一福利在线| 国产综合在线观看视频| 一区二区日韩欧美| 乳色吐息在线观看| 性做久久久久久久久| 亚洲欧美综合一区二区| 国产精品99久久99久久久二8| 色综合五月天| 特种兵之深入敌后| 亚洲国产欧美日韩另类综合| 性xxxx搡xxxxx搡欧美| 欧美在线视频网站| 欧美成免费一区二区视频| 久久艹这里只有精品| 亚洲午夜一区二区三区| 日本大片在线观看| 国产有码一区二区| 欧美日韩一区二区国产| 久久久久久久无码| 在线观看不卡视频| 在线三级电影| 欧美不卡三区| 国产一区二区剧情av在线| 国产网友自拍视频| 国产亚洲激情在线| 国产一区二区在线观| 久久综合色视频| 国产精品久久久爽爽爽麻豆色哟哟 | 国产麻豆一精品一av一免费 | 亚洲自拍另类| 三级黄色在线观看| 亚洲国产精品久久久久秋霞蜜臀 | caoporn97在线视频| 精品亚洲欧美日韩| 激情六月婷婷综合| 五月天激情国产综合婷婷婷| 久久精品视频99| 私拍精品福利视频在线一区| 日本不卡一区二区在线观看| 午夜在线电影亚洲一区| 香蕉视频在线看| 久久久久久九九九九| 九九**精品视频免费播放| 国产精品999在线观看| 日韩最新在线视频| 亚洲电影男人天堂| 少妇愉情理伦片bd| 欧美亚洲国产bt| 高清在线视频不卡| 最新av网址在线观看| 欧美激情一区二区三区四区| 黄色一级大片在线免费看国产|