精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

00后華裔小哥哈佛輟學(xué)組團(tuán)挑戰(zhàn)英偉達(dá),史上最快AI芯片Sohu推理性能超H100二十倍!

人工智能
史上最快Transformer芯片誕生了!用Sohu跑Llama 70B,推理性能已超B200十倍,超H100二十倍!剛剛,幾位00后小哥從哈佛輟學(xué)后成立的公司Etached,宣布再融資1.2億美元。

有史以來最快的Transformer芯片,剛剛誕生了?

去年21歲哈佛輟學(xué)華裔小哥的神級(jí)創(chuàng)業(yè)故事,進(jìn)化到了新的階段。

這一次,號(hào)稱專為LLM推理加速打造的Sohu芯片,已經(jīng)成超越Groq,成為最強(qiáng)AI芯片。

如今的Sohu,在跑Llama 70B時(shí)每秒可生成高達(dá)500000個(gè)token的輸出。

換句話說就是:1張Sohu≈20張H100≈10張B200。

圖片圖片

在去年12月,Etced就曾火過一陣,當(dāng)時(shí)兩位哈佛輟學(xué)小哥的2人公司,估值已經(jīng)高達(dá)3400萬刀。當(dāng)時(shí)Sohu號(hào)稱LLM推理性能達(dá)到H100的10倍,單價(jià)吞吐量更是高達(dá)140倍。

而就在剛剛,Etced又宣布了炸裂的新消息:已籌到1.2億美元。

圖片圖片

就在上周,英偉達(dá)的市值達(dá)到3.3萬億美元,超過微軟成為全球第一。而Etched相信,自己的35人團(tuán)隊(duì)能夠擊敗英偉達(dá)。

他們的豪放預(yù)言,得到了硅谷真金白銀的支持。投資名單中,是一眾豪華的機(jī)構(gòu)和硅谷大佬,包括Peter Thiel。

Primary Venture Partners和Positive Sum Ventures領(lǐng)投了這輪融資,機(jī)構(gòu)投資者包括 Hummingbird、Fundomo、Fontinalis、Lightscape、Earthshot、Two Sigma Ventures和 Skybox Data Centers。

天使投資者包括Peter Thiel、Stanley Druckenmiller、David Siegel、Balaji Srinivasan、Amjad Masad、Kyle Vogt、Kevin Hartz、Jason Warner、Thomas Dohmke、Bryan Johnson、Mike Novogratz、Immad Akhund、Jawed Karim和Charlie Cheeve。

Etched創(chuàng)始人之一Gavin Uberti表示,「我們正在押注人工智能領(lǐng)域最大的賭注——一種只能運(yùn)行Transformer模型的芯片,但其運(yùn)行速度比GPU快幾個(gè)數(shù)量級(jí)。也許注意力確實(shí)是你所需要的全部...」

圖片圖片

Pika研究人員表示,每秒50萬token簡直太瘋狂了。你可以在2秒內(nèi)寫出「圣經(jīng)」,或者一年內(nèi)生成15萬億token。

圖片圖片

Sohu大約每秒能輸出21個(gè)人一天說的話,簡直太不真實(shí)了。

圖片圖片

Thiel Fellowship的主任Alex Handy,對(duì)幾位年輕人表示了高度的贊許:「投資Etched是對(duì) AI 價(jià)值的戰(zhàn)略性押注。他們的芯片解決了競爭對(duì)手不敢面對(duì)的可擴(kuò)展性問題,挑戰(zhàn)了同行中普遍存在的停滯狀態(tài)。」

在他看來,正是因?yàn)閹孜恍「缱隽说讓拥墓ぷ鳎韫鹊某绦騿T們才能繼續(xù)安心編程,不必?fù)?dān)心正在開發(fā)技術(shù)的底層出問題。

圖片圖片

兩年前開始的豪賭

這個(gè)傳奇的故事,始于兩年前。

2022年,幾位創(chuàng)始人就打賭:Transformer將占領(lǐng)世界。

圖片圖片

為此,他們花了兩年時(shí)間打造Sohu,這是世界上第一個(gè)用于Transformer的專用芯片(ASIC)。

圖片圖片

將Transformer架構(gòu)燒錄到Sohu芯片后,它無法運(yùn)行大多數(shù)的傳統(tǒng)AI模型:比如DLRMs、AlphaFold 2,或Stable Diffusion 2;也無法運(yùn)行CNNs、RNNs或LSTMs。

但對(duì)于Transformer來說,Sohu確實(shí)是有史以來最快的芯片。但它還可以更快。

對(duì)于Llama 70B,Sohu的吞吐量每秒超過了50萬個(gè)token,因此它可以構(gòu)建在GPU上根本不可能實(shí)現(xiàn)的產(chǎn)品。

而且,它甚至比英偉達(dá)的下一代Blackwell(B200)更快、更便宜!

如今最先進(jìn)的AI模型,無一不是基于Transformer的,比如ChatGPT、Sora、Gmini、Stable Diffusion 3等等。

如果Transformer被SSM、RWKV或任何新架構(gòu)取代,那Sohu將毫無用處。

但是,創(chuàng)始人小哥表示,如果他們押對(duì)了,Sohu將徹底改變世界!

這,就是一場豪賭。

Scale是「超級(jí)智能」所需的全部?

五年內(nèi),AI模型在大多數(shù)標(biāo)準(zhǔn)化測試中,超越了人類。

這是怎么做到的?

因?yàn)镸eta用于訓(xùn)練Llama 400B(2024年SOTA模型)的計(jì)算量,比OpenAI訓(xùn)練GPT-2(2019年SOTA模型)多5萬倍。

OpenAI用Scaling Law預(yù)測了GPT-4性能,并預(yù)計(jì)GPT-5+同樣適用OpenAI用Scaling Law預(yù)測了GPT-4性能,并預(yù)計(jì)GPT-5+同樣適用

奧特曼曾說過,「擴(kuò)展參數(shù)規(guī)模確實(shí)非常重要。當(dāng)我們在太陽周圍建造了一個(gè)戴森球(Dyson Sphere)之后,我們才可以考慮討論是否應(yīng)該停止這么做,但在那之前不應(yīng)該停下來」。

也就是說,通過向LLM提供更多的算力和更好的數(shù)據(jù),才使得AI變得更加智能。

不得不承認(rèn),參數(shù)規(guī)模擴(kuò)展(Scale)將會(huì)是幾十年來唯一持續(xù)有效的方法。

每個(gè)大型AI公司(谷歌、OpenAI/微軟、Anthropic/亞馬遜等)都在未來幾年投入超1000億美元來繼續(xù)擴(kuò)大LLM規(guī)模。

然而,再擴(kuò)展1000倍必定是昂貴的,形象地解釋,下一代數(shù)據(jù)中心的成本將超過一個(gè)小國的GDP。

按照目前的發(fā)展速度,我們的硬件、成本、財(cái)力根本無法跟得上。

GPU撞墻了

圣克拉拉,英偉達(dá)總部所在地,不愿意讓人知道的小秘密是——

GPU性能其實(shí)沒有變得更好,只是變得更大了。

過去四年里,芯片單位面積的計(jì)算能力(每平方毫米的TFLOPS)幾乎沒有提升。

就比如,英偉達(dá)的B200、AMD的MI300、英特爾的Gaudi 3,以及亞馬遜的Trainium2都將2個(gè)芯片集成到一張卡上,以使其性能翻倍。

如下曲線圖中,也可以看出,從2022年-2025年,AI芯片并沒有真正變得更好只是變得更大了。

在過去四年中,計(jì)算密度(TFLOPS/mm^2)僅提高了約15%。

圖片圖片

而現(xiàn)在,隨著摩爾定律的放緩,提高芯片性能的唯一途徑,便是讓其走向「專用」化。

專用芯片,勢在必行

在Transformer占領(lǐng)世界之前,許多公司構(gòu)建了靈活的AI芯片和GPU來處理數(shù)百種不同的機(jī)器學(xué)習(xí)架構(gòu)。

舉幾個(gè)例子:

圖片圖片

卻從來沒有人制造,針對(duì)特定算法的AI芯片(ASIC)。

因?yàn)椋碌男酒?xiàng)目需要花費(fèi)5000萬-1億美元,甚至要用許多年的時(shí)間才能投入生產(chǎn)。

當(dāng)Etched開始著手這一項(xiàng)目時(shí),根本就不存在這樣的市場。

突然間,這種情況一下子發(fā)生了轉(zhuǎn)變。

ChatGPT出現(xiàn)之前,Transformer的推理市場規(guī)模大約是5000萬美元。

而現(xiàn)在,已經(jīng)達(dá)到數(shù)十億美元。所有的科技巨頭,初創(chuàng)公司都在使用Transformer模型。

大模型架構(gòu),都在走向融合趨同。自從GPT-2誕生以來,最先進(jìn)的模型架構(gòu)幾乎保持一致!

OpenAI GPT系列、谷歌PaLM、Meta Llama,甚至特斯拉的全自動(dòng)駕駛系統(tǒng),都采用了Transformer架構(gòu)。

圖片

當(dāng)模型的訓(xùn)練成本超過10億美元,推理成本超過100億美元時(shí),專用芯片的出現(xiàn)是必然的。

在這種巨大參數(shù)規(guī)模之下,即使只有1%的性能提升,也足以證明5000萬-1億美元的定制芯片項(xiàng)目是值得的。

實(shí)際上,ASIC的速度要比GPU快很多個(gè)數(shù)量級(jí)。

Transformer擁有巨大的護(hù)城河

Etched.ai的幾位創(chuàng)始人表示,他們相信硬件彩票——能在硬件上運(yùn)行得最快、最便宜的模型,就是獲勝的那一個(gè)。

而Transformer擁有巨大的護(hù)城河,足以在替代方案成熟之前主導(dǎo)各大AI計(jì)算市場。

理由如下——

1. Transformer正在為每一個(gè)大型AI產(chǎn)品提供支持,無論是Agent、搜索還是聊天。

為了優(yōu)化GPU去適應(yīng)Transformer,AI實(shí)驗(yàn)室已經(jīng)在研發(fā)上投入了數(shù)億美元。

無論是當(dāng)前還是下一代SOTA模型,都是基于Transformer的。

2. 隨著未來幾年模型訓(xùn)練的規(guī)模從10億美元擴(kuò)大到100億美元,再到1000億美元,測試新架構(gòu)的風(fēng)險(xiǎn)也急劇上升。

與其重新測試Scalling law和性能,不如把時(shí)間花在基于Transformer的功能開發(fā)上,比如多token預(yù)測。

3. 當(dāng)前的軟件棧,已為Transformer進(jìn)行了優(yōu)化。每個(gè)流行的庫(TensorRT-LLM、vLLM、Huggingface TGI等),都有在GPU上運(yùn)行Transformer模型的專用內(nèi)核。

許多建立在Transformer之上的功能,比如推測解碼、樹搜索等,在替代方案中都很難得到支持。

圖片圖片

Sohu可以通過樹搜索更好地編碼,能夠并行比較數(shù)百個(gè)響應(yīng)

4. 未來的硬件棧,也將為Transformer進(jìn)行優(yōu)化。比如英偉達(dá)的GB200,對(duì)Transformer Engine就有特殊的支持。

隨著像Sohu這樣的ASIC進(jìn)入市場,將會(huì)帶來一種不可逆的趨勢。

也就是說,作為「Transformer Killer」的模型需要在GPU上,運(yùn)行得比Sohu上的Transformer更快。

而但凡出現(xiàn)這種情況,創(chuàng)始人表示,他們也會(huì)為此構(gòu)建一款全新的ASIC!

圖片圖片

Sohu支持多重推測解碼,可以實(shí)時(shí)生成新內(nèi)容

Sohu來了!

Sohu是世界上第一個(gè)Transformer ASIC。

通過專門化,Sohu獲得了前所未有的性能。一臺(tái)8xSohu服務(wù)器每秒可以處理超過50萬個(gè)Llama 70B token,等效于160塊H100 GPU。

Sohu僅支持Transformer推理,并支持當(dāng)今所有的模型(Google、Meta、Microsoft、OpenAI、Anthropic等),以及處理未來模型的調(diào)整。

無論是Meta的Llama、谷歌的Gemini、OpenAI的GPT、Anthropic的Claude、還是Stability AI的Stable Diffusion 3等等,都可以。

由于Sohu只能運(yùn)行一種算法,因此絕大多數(shù)的控制流邏輯可以被移除,從而允許其擁有更多的數(shù)學(xué)模塊。

結(jié)果就是,Sohu的FLOPS利用率高達(dá)90%以上;相比之下,使用TRT-LLM的GPU僅為為30%左右。

如何實(shí)現(xiàn)比GPU更多的FLOPS?

目前最先進(jìn)的算力——英偉達(dá)H200,在沒有稀疏處理的情況下具有989 TFLOPS的FP16/BF16算力。(超過了Google的新Trillium芯片之一)

而2025年推出的GB200,將會(huì)在算力上增加25%(每個(gè)芯片1250 TFLOPS)。

由于GPU的大部分面積都用于可編程性,因此專注于Transformer可以容納更多的算力。

從基本原理上來看,這一點(diǎn)可以很容易被證明:

制造一個(gè)FP16/BF16/FP8乘法加法電路(所有矩陣數(shù)學(xué)的基礎(chǔ)構(gòu)件)需要10,000個(gè)晶體管。H100 SXM有528個(gè)張量核心,每個(gè)核心有4×8×16個(gè)FMA電路。通過計(jì)算可以得到,H100有27億個(gè)晶體管專用于張量核心。

實(shí)際上,H100擁有800億個(gè)晶體管!這意味著在H100 GPU上的晶體管中,僅有3.3%用于矩陣乘法!

但問題是,如果想要為各種模型(CNN、LSTM、SSM等)都提供支持,就不得不采取這樣的設(shè)計(jì)。

這時(shí),如果選擇只運(yùn)行Transformer,就可以在芯片上容納更多的FLOPS,且無需依賴更低的精度或稀疏處理。

推理的瓶頸是內(nèi)存帶寬,而非計(jì)算?

事實(shí)上,對(duì)于像Llama-3這樣的現(xiàn)代模型,并非如此!

使用英偉達(dá)和AMD的標(biāo)準(zhǔn)基準(zhǔn)測試——2048個(gè)輸入token和128個(gè)輸出token,大多數(shù)AI產(chǎn)品的輸入都要比輸出長得多(即使是新的Claude聊天,系統(tǒng)提示也有1000多個(gè)token)。

在GPU和Sohu上,推理是以批次運(yùn)行的。每個(gè)批次都會(huì)加載一次所有的模型權(quán)重,并在批次中的每個(gè)token上重復(fù)使用它們。

通常,LLM的輸入是計(jì)算密集的,而LLM的輸出是內(nèi)存密集的。所以,當(dāng)我們將輸入和輸出token與連續(xù)批處理結(jié)合時(shí),工作負(fù)載就會(huì)變得非常「計(jì)算密集」。

下圖的示例中,就展示了連續(xù)批處理LLM的過程。

這個(gè)過程中,會(huì)運(yùn)行帶有四個(gè)輸入token和四個(gè)輸出token的序列;每種顏色代表一個(gè)不同的序列。

圖片圖片

同樣的技巧,就可以擴(kuò)展到2048個(gè)輸入token和128個(gè)輸出token的Llama-3-70B上。

要讓每個(gè)batch,都包含一個(gè)序列的2048個(gè)輸入token,和127個(gè)不同序列的127個(gè)輸出token。

如果這樣做的話,每個(gè)batch將需要大約(2048+127)×70B參數(shù)×每個(gè)參數(shù)2字節(jié)=304 TFLOPs,同時(shí)只需要加載70B參數(shù)×每個(gè)參數(shù)2字節(jié)=140 GB的模型權(quán)重,以及大約127× 64×8×128×(2048+127)×2×2=72GB的KV緩存權(quán)重。

這需要的計(jì)算,就遠(yuǎn)超過內(nèi)存帶寬的需求,因?yàn)橐粋€(gè)H200需要6.8PFLOPS的計(jì)算能力,才能最大化其內(nèi)存帶寬。

而且,這是在100%利用率的情況下——如果利用率是30%,需要的計(jì)算能力還要多出3倍。

由于Sohu有極高的計(jì)算能力和高利用率,我們就可以在不受內(nèi)存帶寬限制的情況下,運(yùn)行巨大的吞吐量。

注:在現(xiàn)實(shí)世界中,batch通常更大,輸入長度各不相同,并且請(qǐng)求會(huì)以泊松分布到達(dá)。在這種情況下,Sohu的效果會(huì)更好。在這里之所以使用2048/128基準(zhǔn)作為例子,是因?yàn)橛ミ_(dá)和AMD都在使用。

只需編寫Transformer軟件即可

無論在GPU和還是TPU上,軟件都是一場噩夢。

處理任意的CUDA和PyTorch代碼,需要的編譯器極其復(fù)雜。

為此,AMD、英特爾、AWS這些第三方AI芯片,都在軟件上投入了數(shù)十億,但效果依然不佳。

這里,Sohu的好處就體現(xiàn)出來了——因?yàn)樗贿\(yùn)行Transformer模型,所以我們只需要為Transformer模型編寫軟件!

大多數(shù)運(yùn)行開源或內(nèi)部模型的公司,都會(huì)使用特定的Transformer推理庫,如TensorRT-LLM、vLLM或HuggingFace的TGI。

這些框架往往很死板,雖然我們可以調(diào)節(jié)模型的超參數(shù),但并不支持更改底層的模型代碼。

但是,沒有關(guān)系!所有的Transformer模型都非常相似(即使是文本、圖像、視頻模型),調(diào)節(jié)超參數(shù)就足夠了。

這樣,就足以支持95%的AI公司了,不過,最大的AI實(shí)驗(yàn)室,仍然會(huì)進(jìn)行定制化開發(fā)。

工程師團(tuán)隊(duì)會(huì)手動(dòng)調(diào)優(yōu)GPU內(nèi)核,以擠出更多的利用率,并進(jìn)行逆向工程,比如哪些寄存器對(duì)每個(gè)張量核心的延遲最低。

而創(chuàng)始人聲稱,有了Etched,我們就不再需要逆向工程了!

從驅(qū)動(dòng)程序到內(nèi)核再到服務(wù)框架,Etched的所有軟件都會(huì)是開源的。

如果我們想實(shí)現(xiàn)一個(gè)自定義的Transformer層,內(nèi)核專家完全可以自由地去做。

Etched已經(jīng)破紀(jì)錄,將成歷史第一

現(xiàn)在看起來,Etced的決定很瘋狂。

但更瘋狂的是,他們是在2022年做出這項(xiàng)決定的——那時(shí)ChatGPT甚至還不存在!

當(dāng)時(shí),圖像和視頻生成模型還是U-Net模型,自動(dòng)駕駛汽車是由卷積神經(jīng)網(wǎng)絡(luò)(CNNs)驅(qū)動(dòng)的,Transformer架構(gòu)還遠(yuǎn)未普及。

而現(xiàn)在,形勢顯然對(duì)他們非常有利。如今從語言到視覺,每個(gè)領(lǐng)域的頂尖模型都是Transformer。

這種趨同驗(yàn)證了Etced的前瞻性,更使Sohu成為十年來最重要的硬件項(xiàng)目。

種種跡象表明,公司正走在史上最快芯片發(fā)布的進(jìn)程中——

- 頂尖的AI研究人員和硬件工程師紛紛離職原團(tuán)隊(duì),加入Etced;

- Etced會(huì)直接和臺(tái)積電合作開發(fā)4nm工藝,并且獲得了足夠的HBM和服務(wù)器,第一年的產(chǎn)量可以快速提升;

- Etced的早期客戶,已經(jīng)預(yù)訂了數(shù)千萬美元的硬件

「如果我們是對(duì)的,Sohu將改變世界」

如果AI模型在一夜之間,速度飆升20倍,且成本降低20倍,會(huì)發(fā)生什么?

目前,Gemini需要60多秒才能回答一個(gè)與視頻相關(guān)的問題。

編碼智能體的成本,比軟件工程師更高,而且需要數(shù)小時(shí)才能完成任務(wù)。

視頻模型每秒只能生成一幀,甚至ChatGPT注冊用戶達(dá)到1000萬時(shí)(僅占全球用戶的0.15%),就耗盡了OpenAI的GPU容量。

即便是持續(xù)以每兩年2.5倍的速度增加GPU的容量,也得需要10年時(shí)間,才能實(shí)現(xiàn)「實(shí)時(shí)」視頻生成。

而現(xiàn)在有了Sohu,這一切將瞬時(shí)完成。

網(wǎng)友表示,「AI的未來是定制硬件,實(shí)時(shí)視頻模型即將現(xiàn)世」!

圖片圖片

如果當(dāng)實(shí)時(shí)視頻、通話、AI智能體和搜索功能終于能夠順暢運(yùn)行時(shí),會(huì)發(fā)生什么呢?

很快,你就能知道了。

三位哈佛輟學(xué)生,挑戰(zhàn)AI芯片霸主英偉達(dá)

成立于2022年,這家35人團(tuán)隊(duì)的初創(chuàng)公司Etched,堅(jiān)信一定能夠擊敗英偉達(dá)。

到底是什么樣的背景,能讓三位哈佛輟學(xué)生,敢于挑戰(zhàn)芯片行業(yè)目前最炙手可熱的賽道呢?

圖片圖片

Robert Wachen、Gavin Uberti、Chris Zhu

創(chuàng)始人兼CEO Gavin Uberti自2020入學(xué)哈佛攻讀數(shù)學(xué)專業(yè),隨后在2022年攻讀碩士學(xué)位,專業(yè)是計(jì)算機(jī)。

不過,這兩段上學(xué)經(jīng)歷,都以輟學(xué)告終。

圖片圖片

在創(chuàng)辦Etched之前,Gavin Uberti曾在另外兩家公司分別有過一段全職和簡直經(jīng)歷,擔(dān)任了算法和后端工程師,以及軟件工程師。

圖片圖片

在進(jìn)入大學(xué)之前,他參與了美國最著名的青少年科技創(chuàng)新大賽FIRST Tech Challenge,團(tuán)隊(duì)獲得了Top 10獎(jiǎng)項(xiàng)。團(tuán)隊(duì)開發(fā)的自動(dòng)駕駛軟件排在600個(gè)參賽團(tuán)隊(duì)第二名。

他還曾在2019年,拿過美式數(shù)學(xué)競賽的冠軍。

圖片圖片

另一位創(chuàng)始人Chris Zhu,也是在哈佛就讀時(shí)就在校外瘋狂實(shí)習(xí),甚至還沒有從哈佛畢業(yè),就已經(jīng)成為兼職教員。

圖片圖片

他個(gè)人的工作經(jīng)歷更為豐富些,不僅在高校MIT擔(dān)任研究員、哈佛兼職教學(xué)研究員,還曾在亞馬遜等公司做過實(shí)習(xí)。

圖片圖片

最后一位聯(lián)創(chuàng)兼COO Robert Wachen是一個(gè)多領(lǐng)域的創(chuàng)業(yè)者,曾創(chuàng)辦了4家公司。

圖片圖片

圖片圖片

接下來,就看看他們會(huì)如何去締造一個(gè)新的硅谷神話。

參考資料:https://www.etched.com/announcing-etched

責(zé)任編輯:武曉燕 來源: 新智元
相關(guān)推薦

2023-12-19 13:32:00

模型數(shù)據(jù)

2024-06-26 12:13:05

2023-09-10 12:37:38

模型英偉達(dá)

2025-04-22 09:47:07

2025-03-19 10:10:43

2024-08-29 12:58:35

2024-08-28 13:34:13

2019-09-25 14:34:15

AI 數(shù)據(jù)人工智能

2024-04-10 09:28:23

2023-11-14 08:59:25

英偉達(dá)AI

2025-11-04 16:01:03

英偉達(dá)AI服務(wù)器

2023-10-18 13:17:12

AI芯片英偉達(dá)美國

2025-11-05 15:36:54

AI算力英偉達(dá)谷歌TPU

2024-04-10 09:10:27

Gaudi 3芯片英特爾

2023-08-28 13:35:00

芯片英偉達(dá)

2021-09-17 12:54:05

AI 數(shù)據(jù)人工智能

2023-11-21 09:14:33

微軟Azure AI

2024-08-05 08:20:00

馬斯克AI

2023-09-14 13:23:00

AI芯片

2024-08-14 13:50:00

模型訓(xùn)練
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)

亚洲精品网址| 夜鲁夜鲁夜鲁视频在线播放| 国产精品亚洲视频| 午夜精品美女自拍福到在线| 中文字幕 亚洲一区| 亚洲精品国产精品国产| 国产日韩欧美高清| 国产精品国内视频| 久久综合激情网| 免费日韩一区二区三区| 色综合欧美在线视频区| 日本一区二区三区视频在线观看| 亚洲网站在线免费观看| 97国产成人高清在线观看| 欧美高清你懂得| 欧美日韩dvd| 天堂在线视频免费观看| 玖玖视频精品| 久久这里只有精品视频首页| 99久久久无码国产精品性波多 | 亚洲一级黄色av| 天天干天天操天天做| 秋霞在线午夜| 久久综合视频网| 热久久免费视频精品| 久久久久亚洲av成人无码电影| 美女网站视频一区| 亚洲免费成人av| 久久综合入口| 国产高清免费在线观看| 免费视频久久| 久热精品视频在线| 在线观看日韩精品视频| 在线观看欧美| 日韩欧美国产黄色| 精品一区二区成人免费视频| 无码精品人妻一区二区| 精品一区二区在线看| 国产精品吊钟奶在线| 日韩欧美一区二区一幕| 68国产成人综合久久精品| 精品国产91乱码一区二区三区| 超碰在线播放91| 精品三级久久| 亚洲欧美日韩中文播放| 日本一区免费在线观看| 丰满岳乱妇国产精品一区| 青青草伊人久久| 欧美亚洲成人网| 五月天丁香激情| 欧美独立站高清久久| 日韩精品中文字幕久久臀| 91在线第一页| 国产精品久久久久久久久久齐齐| 天天影视网天天综合色在线播放| 一区二区成人国产精品| 韩国中文免费在线视频| 99久久精品情趣| 不卡视频一区二区| 91久久国语露脸精品国产高跟| 亚洲欧美日韩国产| 高清欧美一区二区三区| 欧美日韩大片在线观看| 久久综合av| 亚洲午夜女主播在线直播| 中文字幕人妻熟女在线| 日本超碰一区二区| 91精品麻豆日日躁夜夜躁| 国产一线二线三线在线观看| gay欧美网站| 欧美日韩国产精品专区| 成人网站免费观看入口| 青草影视电视剧免费播放在线观看| 中文字幕亚洲视频| 亚洲精品中字| 在线免费av电影| 国产精品久久久久久久裸模| 四虎永久国产精品| 成人亚洲综合天堂| 亚洲国产激情av| 亚洲国产午夜伦理片大全在线观看网站 | 97人妻精品一区二区三区软件| 性欧美xxxx大乳国产app| 热久久99这里有精品| 最新中文字幕一区| 丝袜亚洲另类欧美| 91精品国产91久久久久久久久| 无码黑人精品一区二区| 正在播放日韩欧美一页| 色综合久久88| 日韩欧美亚洲国产| 国产欧美高清| 国产精品久久久久久久久久尿| 激情综合网五月婷婷| 国产精品色网| 国产精品日韩在线播放| 国产精品久久久久久69| 国产传媒日韩欧美成人| 草莓视频一区| 天天影院图片亚洲| 国产欧美一区二区精品婷婷| 伊人色综合影院| 性欧美videos高清hd4k| 午夜国产精品影院在线观看| 久久9精品区-无套内射无码| 日韩精品免费观看视频| 91高清视频在线| 成人精品视频一区二区| 亚洲老司机网| 精品国产伦一区二区三区观看体验| 玖玖爱在线精品视频| 日韩不卡一区| 久久久久久亚洲精品中文字幕| 青青草免费观看视频| 麻豆成人久久精品二区三区红| 国产精品视频自在线| 国产精品区在线观看| www久久久久| 欧洲亚洲一区二区| 在线a人片免费观看视频| 亚洲图片欧美视频| 日韩福利视频在线| 7777精品| 中文字幕视频一区二区在线有码| 久久久久久激情| 人人精品人人爱| 国产成人精品日本亚洲11| 黄色av免费在线看| 亚洲国产精品一区二区久久恐怖片 | 日韩免费av网站| 国产乱对白刺激视频不卡| 精品国产乱码久久久久| 日本精品一区二区三区在线播放| 亚洲国产精品欧美一二99| 国产成人手机视频| 精品在线网站观看| 色综合亚洲精品激情狠狠| 免费一级片视频| 老司机精品视频网站| 91香蕉亚洲精品| 极品白浆推特女神在线观看| 一区二区三区丝袜| 欧美美女性视频| 91精品入口| 中文字幕久精品免费视频| 国产做受高潮漫动| 国产精品自产自拍| 亚洲一区精彩视频| 川上优av中文字幕一区二区| 欧美日韩电影在线播放| 手机免费看av片| 亚洲特色特黄| 91精品视频播放| 国产一区二区三区福利| 精品人伦一区二区三区蜜桃网站 | 精品香蕉一区二区三区| 日本中文字幕免费在线观看| 日本欧美在线观看| 欧美日韩高清免费| 中国色在线日|韩| 精品久久久影院| 国产一二三四区| 国产美女在线精品| 亚洲国产午夜伦理片大全在线观看网站| 婷婷电影在线观看| 亚洲国产精品网站| 久久9999久久免费精品国产| 成人精品在线视频观看| 欧美日韩视频免费| 国产精品自在| 久久久免费精品| 成人毛片在线精品国产| 亚洲一区中文日韩| 97人妻精品一区二区三区免费| 欧美一区二区三区免费看| 91久久中文字幕| 岛国成人毛片| 欧美一级高清片在线观看| 日韩三级在线观看视频| 国产在线精品免费| 亚洲av综合色区| 欧美精品三级在线| 欧美国产日韩在线| 亚洲成人中文字幕在线| 亚洲一二三四在线| 亚洲精品乱码久久久久久蜜桃图片| 国模大胆一区二区三区| 精品久久sese| 久久久久久久| xxx欧美精品| 精品久久国产视频| 午夜精品免费在线观看| 超碰97人人干| 视频一区中文字幕| 亚洲免费久久| 精品视频在线播放一区二区三区| 久久久久久久香蕉网| 偷拍自拍在线| 在线播放中文一区| 国产真实夫妇交换视频| 久久亚洲精华国产精华液| 五月婷婷狠狠操| 亚洲男女av一区二区| 国产精品一区视频| 高清电影一区| 久久在线免费视频| 日本人妻丰满熟妇久久久久久| 色婷婷综合视频在线观看| 色偷偷www8888| 国产·精品毛片| 茄子视频成人免费观看| 天天天综合网| 九九99久久| 欧美a一级片| 久久久久久久久久久久久久久久久久av | 天天操天天射天天| 欧美三级在线看| 成人免费视频网站入口::| 成人av电影免费观看| 成人亚洲视频在线观看| 欧美淫片网站| 欧洲在线视频一区| www.丝袜精品| 国产精品小说在线| 91超碰在线免费| 色偷偷91综合久久噜噜| 日本xxxx人| 欧美久久免费观看| 中文字幕超碰在线| 国产精品国产a级| 久久久久国产精品区片区无码| 久久精品免费| 91网站在线观看免费| 欧美黄色录像片| 狠狠色综合欧美激情| 日本中文字幕视频一区| 45www国产精品网站| 超鹏97在线| 在线播放国产精品| 蜜臀久久久久久999| 欧美猛男超大videosgay| 日本中文在线播放| 一区二区国产视频| 蜜桃视频最新网址| 国产日产欧美一区| 三叶草欧洲码在线| 国产成人av资源| 免费成人黄色大片| 奇米色777欧美一区二区| 成人在线免费观看av| 亚洲国内欧美| www.激情网| 亚洲精品极品少妇16p| 亚洲欧洲精品一区二区| jizzjizz欧美69巨大| 欧美日韩综合网| 欧美挤奶吃奶水xxxxx| 国产高清不卡av| 国产精品视频一区二区三区| 国产精品永久在线| 日本一区免费网站| 国产成+人+综合+亚洲欧美丁香花| 天堂av资源在线观看| 日韩在线观看免费| 日日夜夜精品一区| 中文字幕在线亚洲| eeuss影院www在线观看| 国产香蕉精品视频一区二区三区| 日本高清中文字幕二区在线| 日韩激情视频在线| 色视频在线观看| 亚洲欧美999| 狠狠色伊人亚洲综合网站l| 国产亚洲精品美女| 国产一级片在线播放| 伊人久久免费视频| 中文日本在线观看| 色悠悠久久久久| 麻豆最新免费在线视频| 一区二区三区在线播放欧美| 深夜视频在线免费| 亚洲精品v欧美精品v日韩精品| 国产区精品在线| 日韩欧美电影在线| 亚洲乱码在线观看| 日韩精品一区二区三区四区视频 | 精品对白一区国产伦| 天天综合天天综合| 日韩黄色在线免费观看| 成人18在线| 久久久成人精品| 欧美家庭影院| 91av在线免费观看| 97精品国产综合久久久动漫日韩 | 日韩色性视频| 99国产精品久久久久老师| 国产伦理久久久久久妇女| 久久婷婷开心| 欧美在线色图| 欧美a级免费视频| 午夜宅男久久久| 精品久久久99| caoporm超碰国产精品| www.黄色在线| 一区二区三区影院| 日韩 欧美 综合| 欧美日韩另类国产亚洲欧美一级| 国产免费av观看| 日韩av网站大全| 99se视频在线观看| 欧美激情国产日韩精品一区18| 中文字幕21页在线看| 国产精品一区二区性色av| 日本一区二区乱| 日韩av高清在线播放| 欧美久久久久| 欧美牲交a欧美牲交aⅴ免费下载| 久久精品免费观看| 国产精品久久久久久久无码| 中文字幕亚洲一区二区av在线| 97人人澡人人爽人人模亚洲| 欧美日韩一区二区三区四区五区| 亚洲国产日韩在线观看| 国产亚洲日本欧美韩国| 欧美6一10sex性hd| 国产精品视频中文字幕91| 欧美1区2区3区4区| 香蕉视频在线网址| 久久www成人_看片免费不卡| 日日夜夜精品视频免费观看| 国产亚洲一本大道中文在线| 青青草原免费观看| 欧美日韩一区二区欧美激情| 天堂网av在线播放| 色综合久久精品亚洲国产| 三上悠亚国产精品一区二区三区| 国产精品一区二区性色av| 日韩三级av| 日韩网站在线免费观看| 日韩av中文在线观看| 精品人妻一区二区三区免费| 91亚洲国产成人精品一区二区三| 青青草原在线免费观看| 色婷婷av一区二区三区之一色屋| 中文字幕日本人妻久久久免费| 日韩高清a**址| 国产美女福利在线观看| 亚洲aa中文字幕| 欧美**字幕| 免费观看精品视频| 懂色av一区二区在线播放| 国精产品一区二区三区| 一区二区三区波多野结衣在线观看| 国产suv精品一区二区33| 亚洲第一天堂av| dj大片免费在线观看| 成人黄在线观看| 少妇精品久久久一区二区| 香港三级日本三级a视频| 精品一区二区三区免费观看| 99久久精品久久亚洲精品| 在线精品视频免费播放| 精品99又大又爽又硬少妇毛片| 欧美在线视频免费播放| 日韩极品在线| 国产情侣第一页| 不卡的av中国片| 日韩伦人妻无码| 亚洲精品小视频| 亚洲校园激情春色| 鲁鲁视频www一区二区| 9国产精品视频| 动漫精品一区二区三区| 色呦呦网站一区| yes4444视频在线观看| 国产精品久久久av久久久| 成人影院天天5g天天爽无毒影院| 欧美在线观看视频网站| 国产欧美中文在线| 一区二区国产欧美| 免费91在线视频| **爰片久久毛片| 国产 日韩 亚洲 欧美| 91色九色蝌蚪| 中文字幕福利视频| 久久精品电影网站| 日韩欧美另类中文字幕| 精品国偷自产一区二区三区| 99久久久久久99| 69av视频在线观看| 三级精品视频久久久久| 久久中文字幕一区二区| 污污污污污污www网站免费| 成人午夜激情视频| 日韩欧美在线观看免费| 日韩有码在线视频| 国产精品tv| 亚洲精品乱码久久久久久自慰| 国产精品理伦片| 欧美一区,二区|