精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

國內(nèi)百模誰第一?清華14大LLM最新評測報告出爐,GLM-4、文心4.0站在第一梯隊(duì)

人工智能 新聞
大模型混戰(zhàn)究竟誰才是實(shí)力選手?清華對國內(nèi)外14個LLM做了最全面的綜合能力測評,其中GPT-4、Cluade 3是當(dāng)之無愧的王牌,而在國內(nèi)GLM-4、文心4.0已然闖入了第一梯隊(duì)。

在2023年的「百模大戰(zhàn)」中,眾多實(shí)踐者推出了各類模型,這些模型有的是原創(chuàng)的,有的是針對開源模型進(jìn)行微調(diào)的;有些是通用的,有些則是行業(yè)特定的。如何能合理地評價這些模型的能力,成為關(guān)鍵問題。

盡管國內(nèi)外存在多個模型能力評測榜單,但它們的質(zhì)量參差不齊,排名差異顯著,這主要是因?yàn)樵u測數(shù)據(jù)和測試方法尚不成熟和科學(xué)。我們認(rèn)為,好的評測方法應(yīng)當(dāng)具備開放性、動態(tài)性、科學(xué)性和權(quán)威性。

為提供客觀、科學(xué)的評測標(biāo)準(zhǔn),清華大學(xué)基礎(chǔ)模型研究中心聯(lián)合中關(guān)村實(shí)驗(yàn)室研制了SuperBench大模型綜合能力評測框架,旨在推動大模型技術(shù)、應(yīng)用和生態(tài)的健康發(fā)展。

最近,2024年3月版《SuperBench大模型綜合能力評測報告》正式發(fā)布。

評測共包含了14個海內(nèi)外具有代表性的模型。其中,對于閉源模型,選取API和網(wǎng)頁兩種調(diào)用模式中得分較高的一種進(jìn)行評測。

根據(jù)評測結(jié)果,可以得出以下幾個主要結(jié)論:

● 整體來說,GPT-4系列模型Claude-3等國外模型在多個能力上依然處于領(lǐng)先地位,國內(nèi)頭部大模型GLM-4文心一言4.0表現(xiàn)亮眼,與國際一流模型水平接近,且差距已經(jīng)逐漸縮小。

● 國外大模型中,GPT-4系列模型表現(xiàn)穩(wěn)定,Claude-3也展現(xiàn)了較強(qiáng)的綜合實(shí)力,在語義理解和作為智能體兩項(xiàng)能力評測中更是獲得了榜首,躋身國際一流模型。

● 國內(nèi)大模型中,GLM-4和文心一言4.0在本次評測中表現(xiàn)最好,為國內(nèi)頭部模型;通義千問2.1、Abab6、moonshot網(wǎng)頁版以及qwen1.5-72b-chat緊隨其后,在部分能力評測中亦有不俗表現(xiàn);但是國內(nèi)大模型對比國際一流模型在代碼編寫、作為智能體兩個能力上依然有較大差距,國內(nèi)模型仍需努力。

大模型能力遷移&SuperBench

自大語言模型誕生之初,評測便成為大模型研究中不可或缺的一部分。隨著大模型研究的發(fā)展,對其性能重點(diǎn)的研究也在不斷遷移。根據(jù)我們的研究,大模型能力評測大概經(jīng)歷如下5個階段:

2018年-2021年:語義評測階段

早期的語言模型主要關(guān)注自然語言的理解任務(wù)(e.g. 分詞、詞性標(biāo)注、句法分析、信息抽取),相關(guān)評測主要考察語言模型對自然語言的語義理解能力。代表工作:BERT、GPT、T5等。

2021年-2023年:代碼評測階段

隨著語言模型能力的增強(qiáng),更具應(yīng)用價值的代碼模型逐漸出現(xiàn)。研究人員發(fā)現(xiàn),基于代碼生成任務(wù)訓(xùn)練的模型在測試中展現(xiàn)出更強(qiáng)的邏輯推理能力,代碼模型成為研究熱點(diǎn)。代表工作:Codex、CodeLLaMa、CodeGeeX等。

2022年-2023年:對齊評測階段

隨著大模型在各領(lǐng)域的廣泛應(yīng)用,研究人員發(fā)現(xiàn)續(xù)寫式的訓(xùn)練方式與指令式的應(yīng)用方式之間存在差異,理解人類指令、對齊人類偏好逐漸成為大模型訓(xùn)練優(yōu)化的關(guān)鍵目標(biāo)之一。對齊好的模型能夠準(zhǔn)確理解并響應(yīng)用戶的意圖,為大模型的廣泛應(yīng)用奠定了基礎(chǔ)。代表工作:InstructGPT、ChatGPT、GPT4、ChatGLM等。

2023年-2024年:智能體評測階段

基于指令遵從和偏好對齊的能力,大模型作為智能中樞對復(fù)雜任務(wù)進(jìn)行拆解、規(guī)劃、決策和執(zhí)行的能力逐漸被發(fā)掘。大模型作為智能體解決實(shí)際問題也被視為邁向通用人工智能(AGI)的重要方向。代表工作:AutoGPT、AutoGen等。

2023年-future:安全評測階段

隨著模型能力的提升,對模型安全性和價值觀的評估、監(jiān)管與強(qiáng)化逐漸成為研究人員關(guān)注的重點(diǎn)。加強(qiáng)對潛在風(fēng)險的研判,確保大模型的可控、可靠和可信,是未來「AI可持續(xù)發(fā)展」的關(guān)鍵問題。

因此,為了全面地評估大模型的各項(xiàng)能力,SuperBench評測體系包含了語義、代碼、對齊、智能體和安全等五個評測大類28個子類

PART 1 語義評測

ExtremeGLUE是一個包含72個中英雙語傳統(tǒng)數(shù)據(jù)集的高難度集合,旨在為語言模型提供更嚴(yán)格的評測標(biāo)準(zhǔn),采用零樣本 CoT 評測方式,并根據(jù)特定要求對模型輸出進(jìn)行評分。

首先,使用超過20種語言模型進(jìn)行初步測試,包括了GPT-4、Claude、Vicuna、WizardLM和ChatGLM等。

然后,基于所有模型的綜合表現(xiàn),決定每個分類中挑選出難度最大的10%~20%數(shù)據(jù),將它們組合為「高難度傳統(tǒng)數(shù)據(jù)集」。

評測方法&流程

● 評測方式:收集了72個中英雙語傳統(tǒng)數(shù)據(jù)集,提取其中高難度的題目組成4個維度的評測數(shù)據(jù)集,采取零樣本CoT評測方式,各維度得分計(jì)算方式為回答正確的題目數(shù)所占百分比,最終總分取各維度的平均值。

● 評測流程:根據(jù)不同題目的形式和要求,對于模型的零樣本CoT生成的結(jié)果進(jìn)行評分。

整體表現(xiàn):

在語義理解能力評測中,各模型形成了三個梯隊(duì),70分檔為第一梯隊(duì),包括Claude-3、GLM-4、文心一言4.0以及GPT-4系列模型。其中,Claude-3得分為76.7,位居第一;國內(nèi)模型GLM-4文心一言4.0則超過GPT-4系列模型位居第二和第三位,但是和Claude-3有3分差距。

分類表現(xiàn):

● 知識-常識:Claude-3以79.8分領(lǐng)跑,國內(nèi)模型GLM-4表現(xiàn)亮眼,超過GPT-4網(wǎng)頁版位居第二;文心一言4.0表現(xiàn)不佳,距離榜首Claude-3有12.7分差距。

● 知識-科學(xué):Claude-3依然領(lǐng)先,并且是唯一一個80分以上模型;文心一言4.0、GPT-4系列模型以及GLM-4模型均在75分以上,為第一梯隊(duì)模型。

● 數(shù)學(xué):Claude-3文心一言4.0并列第一,得65.5分,GLM-4領(lǐng)先GPT-4系列模型位列第三,其他模型得分在55分附近較為集中,當(dāng)前大模型在數(shù)學(xué)能力上仍有較大提升空間。

● 閱讀理解:各分?jǐn)?shù)段分布相對較為平均,文心一言4.0超過GPT-4 Turbo、Claude-3以及GLM-4拿下榜首。

PART 2 代碼評測

NaturalCodeBench(NCB)是一個評估模型代碼能力的基準(zhǔn)測試,傳統(tǒng)的代碼能力評測數(shù)據(jù)集主要考察模型在數(shù)據(jù)結(jié)構(gòu)與算法方面的解題能力,而NCB數(shù)據(jù)集側(cè)重考察模型在真實(shí)編程應(yīng)用場景中寫出正確可用代碼的能力。

所有問題都從用戶在線上服務(wù)中的提問篩選得來,問題的風(fēng)格和格式更加多樣,涵蓋數(shù)據(jù)庫、前端開發(fā)、算法、數(shù)據(jù)科學(xué)、操作系統(tǒng)、人工智能、軟件工程等七個領(lǐng)域的問題,可以簡單分為算法類和功能需求類兩類。

題目包含java和python兩類編程語言,以及中文、英文兩種問題語言。每個問題都對應(yīng)10個人類撰寫矯正的測試樣例,9個用于測試生成代碼的功能正確性,剩下1個用于代碼對齊。

評測方法&流程

● 評測方式:運(yùn)行模型生成的函數(shù),將輸出結(jié)果與準(zhǔn)備好的測例結(jié)果進(jìn)行比對進(jìn)行打分。將輸出結(jié)果與準(zhǔn)備好的測例結(jié)果進(jìn)行比對進(jìn)行打分,最終計(jì)算生成代碼的一次通過率pass@1。

● 評測流程:給定問題、單元測試代碼、以及測例,模型首先根據(jù)問題生成目標(biāo)函數(shù);運(yùn)行生成的目標(biāo)函數(shù),以測例中的輸入作為參數(shù)得到函數(shù)運(yùn)行輸出,與測例中的標(biāo)準(zhǔn)輸出進(jìn)行比對,輸出匹配得分,輸出不匹配或函數(shù)運(yùn)行錯誤均不得分。

整體表現(xiàn):

在代碼編寫能力評測中,國內(nèi)模型與國際一流模型之間仍有明顯差距,GPT-4系列模型、Claude-3模型在代碼通過率上明顯領(lǐng)先,國內(nèi)模型中GLM-4,文心一言4.0訊飛星火3.5表現(xiàn)突出,綜合得分達(dá)到40分以上。

然而,即使是表現(xiàn)最好的模型在代碼的一次通過率上仍只有50%左右,代碼生成任務(wù)對目前的大模型來說仍是一大挑戰(zhàn)。

分類表現(xiàn):

在Python、Java、中文、英文四個維度的數(shù)據(jù)集中GPT-4系列模型包攬頭名,體現(xiàn)出強(qiáng)大而全面的代碼能力,除Claude-3外其余模型差距明顯。

● 英文代碼指令:GPT-4 TurboClaude-3在Python和Java問題上分別高出6.8分和1.5分,比GLM-4在Python和Java問題上分別高出14.2分和5.1分,國內(nèi)模型與國際模型在英文代碼指令上差距比較明顯。

● 中文代碼指令:GPT-4 TurboClaude-3在Python上高出3.9分,在Java上低2.3分,差距不大。GPT-4 TurboGLM-4在Python和Java問題上分別高出5.4分和2.8分,國內(nèi)模型在中文編碼能力上與國際一流模型仍存在一定差距。

PART 3 對齊評測

AlignBench旨在全面評測大模型在中文領(lǐng)域與人類意圖的對齊度,通過模型打分評測回答質(zhì)量,衡量模型的指令遵循和有用性。

它包括8個維度,如基本任務(wù)和專業(yè)能力,使用真實(shí)高難度問題,并有高質(zhì)量參考答案。優(yōu)秀表現(xiàn)要求模型具有全面能力、指令理解和生成有幫助的答案。

「中文推理」維度重點(diǎn)考察了大模型在中文為基礎(chǔ)的數(shù)學(xué)計(jì)算、邏輯推理方面的表現(xiàn)。這一部分主要由從真實(shí)用戶提問中獲取并撰寫標(biāo)準(zhǔn)答案,涉及多個細(xì)粒度領(lǐng)域的評估:

● 數(shù)學(xué)計(jì)算上,囊括了初等數(shù)學(xué)、高等數(shù)學(xué)和日常計(jì)算等方面的計(jì)算和證明。

● 邏輯推理上,則包括了常見的演繹推理、常識推理、數(shù)理邏輯、腦筋急轉(zhuǎn)彎等問題,充分地考察了模型在需要多步推理和常見推理方法的場景下的表現(xiàn)。

「中文語言」部分著重考察大模型在中文文字語言任務(wù)上的通用表現(xiàn),具體包括六個不同的方向:基本任務(wù)、中文理解、綜合問答、文本寫作、角色扮演、專業(yè)能力。

這些任務(wù)中的數(shù)據(jù)大多從真實(shí)用戶提問中獲取,并由專業(yè)的標(biāo)注人員進(jìn)行答案撰寫與矯正,從多個維度充分地反映了大模型在文本應(yīng)用方面的表現(xiàn)水平。具體來說:

● 基本任務(wù)考察了在常規(guī)NLP任務(wù)場景下,模型泛化到用戶指令的能力;

● 中文理解上,著重強(qiáng)調(diào)了模型對于中華民族傳統(tǒng)文化和漢字結(jié)構(gòu)淵源的理解;

● 綜合問答則關(guān)注模型回答一般性開放問題時的表現(xiàn);

● 文本寫作則揭示了模型在文字工作者工作中的表現(xiàn)水平;

● 角色扮演是一類新興的任務(wù),考察模型在用戶指令下服從用戶人設(shè)要求進(jìn)行對話的能力;

● 專業(yè)能力則研究了大模型在專業(yè)知識領(lǐng)域的掌握程度和可靠性。

評測方法&流程

● 評測方式:通過強(qiáng)模型(如GPT-4)打分評測回答質(zhì)量,衡量模型的指令遵循能力和有用性。打分維度包括事實(shí)正確性、滿足用戶需求、清晰度、完備性、豐富度等多項(xiàng),且不同任務(wù)類型下打分維度不完全相同,并基于此給出綜合得分作為回答的最終分?jǐn)?shù)。

● 評測流程:模型根據(jù)問題生成答案、GPT-4根據(jù)生成的答案和測試集提供的參考答案進(jìn)行詳細(xì)的分析、評測和打分。

整體表現(xiàn):

在人類對齊能力評測中,GPT-4網(wǎng)頁版占據(jù)榜首,文心一言4.0GPT-4 Turbo同分(7.74)緊隨其后,國內(nèi)模型中GLM-4同樣表現(xiàn)優(yōu)異,超越Claude-3,位列第四,通義千問2.1略低于Claude-3,排名第六,同為第一梯隊(duì)大模型。

分類表現(xiàn):

中文推理整體分?jǐn)?shù)明顯低于中文語言,當(dāng)下大模型推理能力整體有待加強(qiáng):

● 中文推理:GPT-4系列模型表現(xiàn)最好,略高于國內(nèi)模型文心一言4.0,并且和其他模型拉開明顯差距。

● 中文語言:國內(nèi)模型包攬了前四名,分別是KimiChat網(wǎng)頁版(8.05分)、通義千問2.1(7.99分)、GLM-4(7.98分)、文心一言4.0(7.91分),超過GPT-4系列模型和Claude-3等國際一流模型。

各分類細(xì)拆分析:

中文推理:

● 數(shù)學(xué)計(jì)算:GPT-4系列模型包攬前兩名,國內(nèi)模型文心一言4.0、通義千問2.1分?jǐn)?shù)超過Claude-3,但與GPT-4系列模型仍有一定差距。

● 邏輯推理:7分以上為第一梯隊(duì),由國內(nèi)模型文心一言4.0領(lǐng)跑,同在第一梯隊(duì)的還有GPT-4系列模型、Claude-3、GLM-4Abab6。

中文語言:

● 基本任務(wù):GLM-4拿下榜首,通義千問2.1、Claude-3GPT-4網(wǎng)頁版占據(jù)二到四位,國內(nèi)其他大模型中文心一言4.0KimiChat網(wǎng)頁版也表現(xiàn)較好,超過了GPT-4 Turbo。

● 中文理解:國內(nèi)模型整體表現(xiàn)較好,包攬了前四名,文心一言4.0領(lǐng)先優(yōu)勢明顯,領(lǐng)先第二名GLM-4 0.41分;國外模型中,表現(xiàn)尚可,排在第五位,但GPT-4系列模型表現(xiàn)較差,排在中下游,并且和第一名分差超過1分。

● 綜合問答:各大模型均表現(xiàn)較好,超過8分的模型達(dá)到了6家,GPT-4網(wǎng)頁版KimiChat網(wǎng)頁版拿下最高分,GLM-4Claude-3分?jǐn)?shù)相同,與榜首分?jǐn)?shù)接近,并列第三。

● 文本寫作:KimiChat網(wǎng)頁版表現(xiàn)最好,同時也是唯一一個8分以上的模型,GPT-4 Turbo和分列二、三位。

● 角色扮演:國內(nèi)模型Abab6通義千問2.1KimiChat網(wǎng)頁版包攬前三名,且均在8分以上,超過GPT-4系列模型Claude-3等國際一流模型。

● 專業(yè)能力:GPT-4 Turbo占據(jù)了首位,KimiChat網(wǎng)頁版超過GPT-4網(wǎng)頁版拿下第二名,國內(nèi)其他模型中,GLM-4通義千問2.1同樣表現(xiàn)不俗,并列排名第四。

PART 4 智能體評測

AgentBench是一個評估語言模型在操作系統(tǒng)、游戲和網(wǎng)頁等多種實(shí)際環(huán)境中作為智能體性能的綜合基準(zhǔn)測試工具包。

代碼環(huán)境:該部分關(guān)注LLMs在協(xié)助人類與計(jì)計(jì)算機(jī)代碼接口互動方面的潛在應(yīng)用。LLMs以其出色的編碼能力和推理能力,有望成為強(qiáng)大的智能代理,協(xié)助人們更有效地與計(jì)算機(jī)界面進(jìn)行互動。為了評估LLMs在這方面的表現(xiàn),我們引入了三個代表性的環(huán)境,這些環(huán)境側(cè)重于編碼和推理能力。這些環(huán)境提供了實(shí)際的任務(wù)和挑戰(zhàn),測試LLMs在處理各種計(jì)算機(jī)界面和代碼相關(guān)任務(wù)時的能力。

游戲環(huán)境:游戲環(huán)境是AgentBench的一部分,旨在評估LLMs在游戲場景中的表現(xiàn)。在游戲中,通常需要智能體具備強(qiáng)大的策略設(shè)計(jì)、遵循指令和推理能力。與編碼環(huán)境不同,游戲環(huán)境中的任務(wù)不要求對編碼具備專業(yè)知識,但更需要對常識和世界知識的綜合把握。這些任務(wù)挑戰(zhàn)LLMs在常識推理和策略制定方面的能力。

網(wǎng)絡(luò)環(huán)境:網(wǎng)絡(luò)環(huán)境是人們與現(xiàn)實(shí)世界互動的主要界面,因此在復(fù)雜的網(wǎng)絡(luò)環(huán)境中評估智能體的行為對其發(fā)展至關(guān)重要。在這里,我們使用兩個現(xiàn)有的網(wǎng)絡(luò)瀏覽數(shù)據(jù)集,對LLMs進(jìn)行實(shí)際評估。這些環(huán)境旨在挑戰(zhàn)LLMs在網(wǎng)絡(luò)界面操作和信息檢索方面的能力。

評測方法&流程

●  評測方式:模型和預(yù)先設(shè)定好的環(huán)境進(jìn)行多輪交互以完成各個特定的任務(wù),情景猜謎子類會使用GPT-3.5-Turbo對最終答案進(jìn)行評分,其余子類的評分方式根據(jù)確定的規(guī)則對模型完成任務(wù)的情況進(jìn)行打分。

●  評測流程:模型與模擬環(huán)境進(jìn)行交互,之后對模型給出的結(jié)果采用規(guī)則評分或GPT-3.5-Turbo評分。

●  打分規(guī)則:由于不同子任務(wù)的分?jǐn)?shù)分布不同,直接按平均分計(jì)算總分受極值的影響較為嚴(yán)重,因此需要對各子任務(wù)的分?jǐn)?shù)進(jìn)行歸一化處理。如下表所示,各個子任務(wù)對應(yīng)的「Weight(-1)」的值即是歸一化的權(quán)重,這個值為在 Agentbench上最初測試的模型在該子任務(wù)上得分的平均值。計(jì)算總分時將各個子任務(wù)的分?jǐn)?shù)除以Weight(-1)后求平均值即可。根據(jù)該計(jì)算方式,具有平均能力的模型最終得到的總分應(yīng)為1。

SR:成功率

#Avg.Turn:解決單一問題所需的平均交互回合數(shù)

#Dev、#Test:開發(fā)集和測試集單個模型的預(yù)期總交互輪數(shù)

Weight?1:各單項(xiàng)分在計(jì)算總分的時候的權(quán)重的倒數(shù)

整體表現(xiàn):

在作為智能體能力評測中,國內(nèi)模型整體明顯落后于國際一流模型。其中,Claude-3GPT-4系列模型占據(jù)了前三甲,GLM-4在國內(nèi)模型中表現(xiàn)最好,但與榜首的Claude-3仍有較大差距。

國內(nèi)外大模型在本能力下均表現(xiàn)欠佳,主要原因是智能體對模型要求遠(yuǎn)高于其他任務(wù),現(xiàn)有的絕大部分模型還不具有很強(qiáng)的智能體能力。

分類表現(xiàn):

除網(wǎng)上購物被國內(nèi)模型GLM-4拿到頭名外,其他分類下,榜首均被Claude-3GPT-4系列模型占據(jù),體現(xiàn)出相對強(qiáng)大的作為智能體能力,國內(nèi)模型仍需不斷提升。

● 具身智能(Alfworld)前三甲均被Claude-3GPT-4系列模型包攬,和國內(nèi)模型差距最大。

● 在數(shù)據(jù)庫(DB)和知識圖譜(KG)兩個維度下,國內(nèi)模型GLM-4均進(jìn)入top3,但是與前兩名仍有一定差距。

PART 5 安全評測

SafetyBench是首個全面的通過單選題的方式評估大型語言模型安全性的測試基準(zhǔn)。包含攻擊冒犯、偏見歧視、身體健康、心理健康、違法活動、倫理道德、隱私財(cái)產(chǎn)等。

評測方法&流程

● 評測方式:每個維度收集上千個多項(xiàng)選擇題,通過模型的選擇測試對各個安全維度的理解和掌握能力進(jìn)行考察。評測時采用few-shot生成方式,從生成結(jié)果中抽取答案與真實(shí)答案比較,模型各維度得分為回答正確的題目所占百分比,最終總分取各個維度得分的平均值。針對拒答現(xiàn)象,將分別計(jì)算拒答分?jǐn)?shù)和非拒答分?jǐn)?shù),前者將拒答題目視為回答錯誤,后者將拒答題目排除出題庫。

 評測流程:從模型針對指定問題few-shot的生成結(jié)果中提取答案,與真實(shí)答案比較。

整體表現(xiàn):

在安全能力評測中,國內(nèi)模型文心一言4.0表現(xiàn)亮眼,力壓國際一流模型GPT-4系列模型Claude-3拿下最高分(89.1分),在國內(nèi)其他模型中,GLM-4和Claude-3同分,并列第四。

分類表現(xiàn):

在違法活動、身體健康、攻擊冒犯、心理健康、隱私財(cái)產(chǎn)這五個分類下,各模型各有勝負(fù),但是在倫理道德和偏見歧視上,各個模型分差較大,并保持了和總分較為一致的偏序關(guān)系。

● 倫理道德:文心一言4.0力壓Claude-3位列第一,國內(nèi)大模型GLM-4同樣表現(xiàn)亮眼,超過GPT-4 Turbo位列前三甲。

● 偏見歧視:文心一言4.0繼續(xù)排名榜首,領(lǐng)先GPT-4系列模型,GLM-4緊隨其后,同為第一梯隊(duì)模型。

責(zé)任編輯:張燕妮 來源: 新智元
相關(guān)推薦

2023-09-18 16:24:33

數(shù)據(jù)研究

2024-11-13 10:05:00

2023-02-10 13:30:18

AI人工智能

2021-07-28 15:50:47

數(shù)字化

2015-09-25 10:20:18

華三

2018-04-03 11:15:21

華為云

2015-11-04 10:55:52

馬云batatm

2020-07-30 14:53:17

云計(jì)算

2018-04-10 15:44:28

華為云服務(wù)網(wǎng)絡(luò)技術(shù)

2024-09-26 14:17:09

2020-09-27 12:43:35

金融科技浙大螞蟻

2023-02-08 20:04:25

2017-12-19 10:51:54

IBMOracle云服務(wù)

2024-06-25 10:07:56

點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號

国产精品久久久久久亚洲色| 国产另类第一区| 亚洲第一成人网站| www.成人在线视频| 亚洲人成精品久久久久| 国产美女99p| 伊人久久中文字幕| 一本精品一区二区三区| 亚洲美女av在线| 久久久久久久久久一区| 黄色激情在线播放| 国产精品每日更新在线播放网址| 不卡一区二区三区视频| 四虎影院在线免费播放| 午夜精品免费| 亚洲天堂一区二区三区| 免费啪视频在线观看| 亚洲综合av一区二区三区| 亚洲一区二区三区爽爽爽爽爽| 欧美一区二区三区四区五区六区 | 免费看污片的网站| 国产盗摄精品一区二区酒店| 久久久精品黄色| 成人av免费看| 国产精品久久久久久免费| 亚洲一区二区三区四区五区午夜 | 一区二区黄色| 蜜臀久久99精品久久久久久宅男 | 欧美一区三区三区高中清蜜桃| 国产免费美女视频| 亚洲系列另类av| 精品久久人人做人人爱| 亚洲精品综合在线观看| 欧美性片在线观看| 欧美日韩亚洲一区二区| 免费看欧美一级片| 日本在线看片免费人成视1000| 久久只精品国产| 国产区欧美区日韩区| 国产免费无遮挡| 免费高清在线视频一区·| 欧美一级黑人aaaaaaa做受| 精品无码免费视频| 欧美黄免费看| 欧美成人黑人xx视频免费观看| 国产视频不卡在线| 九九亚洲精品| 亚洲毛片在线观看.| 涩视频在线观看| 国产激情精品一区二区三区| 欧美人与z0zoxxxx视频| 视频在线观看免费高清| 电影在线观看一区二区| 在线一区二区三区四区五区 | 国产一本一道久久香蕉| 国产在线精品自拍| 亚洲一卡二卡在线观看| 久久电影网电视剧免费观看| 国产精品最新在线观看| 一二区在线观看| 久久草av在线| 91在线观看免费网站| 国产乱色精品成人免费视频| 国产真实精品久久二三区| 青青久久aⅴ北条麻妃| 久久久久久不卡| 日精品一区二区| 国产精品久久久久久久久免费看 | 免费在线视频一区二区| 亚洲婷婷免费| 热草久综合在线| 欧美男人亚洲天堂| 看片的网站亚洲| 亚洲一区二区免费| 人妻va精品va欧美va| eeuss鲁片一区二区三区在线观看| 国产欧美日韩视频一区二区三区| 色哟哟国产精品色哟哟| 国产午夜亚洲精品不卡| 伊人情人网综合| 蜜乳av一区| 欧美视频一区二区三区…| 不卡av免费在线| **精品中文字幕一区二区三区| 日韩欧美成人一区| a视频免费观看| 久久在线免费| 久久久久久综合网天天| 成人av网站在线播放| 精品影院一区二区久久久| 成人三级视频在线观看一区二区| 亚洲欧美综合在线观看| 亚洲国产精品传媒在线观看| www.国产亚洲| 黄瓜视频成人app免费| 69堂亚洲精品首页| 特级西西人体4444xxxx| 99精品美女| 777国产偷窥盗摄精品视频| 中文字幕人妻精品一区| 成人av电影在线| 日韩免费av一区二区三区| 成人av福利| 色猫猫国产区一区二在线视频| 五月天丁香花婷婷| 亚洲日产av中文字幕| 久久999免费视频| 手机看片久久久| 激情偷乱视频一区二区三区| 蜜桃传媒视频第一区入口在线看| 超碰在线caoporn| 色系网站成人免费| 亚洲 自拍 另类 欧美 丝袜| 欧美日韩亚洲在线观看| 久久免费视频在线观看| 中文字幕一二区| 久久综合久久综合亚洲| 国产精品无码电影在线观看| 素人啪啪色综合| 精品亚洲一区二区| 久久久久久天堂| 韩国欧美国产一区| 五月天亚洲综合小说网| 小早川怜子影音先锋在线观看| 欧美一级黄色片| 超碰人人人人人人人| 亚洲资源av| 狠狠色综合色区| 97超碰在线公开在线看免费| 欧美三级视频在线播放| 最近中文字幕在线mv视频在线| 欧美色图首页| 成人信息集中地欧美| 国产资源在线播放| 欧美网站在线观看| 成人午夜精品无码区| 黄色成人av网站| 91丝袜脚交足在线播放| 国产精品久久久久久福利| 在线一区二区三区做爰视频网站| 一卡二卡三卡四卡| 亚洲一区日本| 久久伦理网站| 麻豆国产在线| 日韩电影网在线| 国偷自拍第113页| 91在线视频在线| 成人在线免费观看av| 欧美大胆a级| 欧美在线激情网| 天堂a中文在线| 精品人伦一区二区三区蜜桃网站| 白嫩情侣偷拍呻吟刺激 | 欧美大片在线看免费观看| 国产孕妇孕交大片孕| 一区精品在线播放| 午夜视频在线观| 91精品精品| 亚洲直播在线一区| 蜜臀av在线| 亚洲精品有码在线| 国产乡下妇女三片| 一区在线播放视频| 丰满人妻一区二区三区免费视频棣 | 欧美成人乱码一区二区三区| 久久精品国产亚洲av无码娇色 | 日本人亚洲人jjzzjjz| 美女免费视频一区| 麻豆一区二区三区在线观看| 一区二区三区四区高清视频| 国产91精品久久久久久| 成年网站在线| 欧美人狂配大交3d怪物一区 | 欧美日韩精品| 精品国产乱码久久久久软件| 88xx成人永久免费观看| 久久国内精品一国内精品| 精品国产九九九| 欧美日韩视频免费播放| 免费看91的网站| 国产一区二区日韩精品| 久久久久久人妻一区二区三区| 网红女主播少妇精品视频| 国产精品黄色av| 性欧美高清come| 精品无人区乱码1区2区3区在线| 成人黄色片在线观看 | 日韩欧美高清在线观看| 欧美激情综合在线| 女教师高潮黄又色视频| 久久午夜电影| 九一免费在线观看| 一区二区三区视频免费观看| 国产自产女人91一区在线观看| 久久电影网站| 神马久久桃色视频| 手机看片1024日韩| 欧美精品欧美精品系列| 日韩精品一区二区av| 日本一区二区三区在线不卡| 95视频在线观看| 美国av一区二区| 国产乱子伦农村叉叉叉| 久久久久久久久久久久久久久久久久| 国产在线视频欧美一区二区三区| 久久亚洲国产精品尤物| 97视频在线观看网址| 快射视频在线观看| 亚洲网站在线播放| 天堂在线视频免费观看| 欧美丰满嫩嫩电影| 免费看污视频的网站| 香蕉久久一区二区不卡无毒影院| 国产黄色片在线| 久久先锋影音av鲁色资源| 不卡的一区二区| 久久9热精品视频| 欧美伦理视频在线观看| 日韩一区二区久久| 少妇久久久久久被弄到高潮| 四季av一区二区凹凸精品| 久久精品午夜一区二区福利| 亚洲午夜免费| 亚洲一区二区免费| 欧美美女被草| 国产精品成人免费电影| 免费成人在线电影| 欧美精品videos| 在线网址91| 欧美成人精品一区| 麻豆免费在线观看| 色偷偷88888欧美精品久久久| 男同在线观看| 亚洲精品有码在线| 三级毛片在线免费看| 欧美videos中文字幕| www.国产欧美| 日韩欧美国产成人一区二区| 国产黄色高清视频| 91麻豆精品国产91久久久久久| 中文字幕永久免费视频| 在线观看日产精品| 亚洲精品毛片一区二区三区| 色999日韩国产欧美一区二区| 69成人免费视频| 欧美小视频在线| 东京热一区二区三区四区| 欧美日韩裸体免费视频| 日韩精品成人免费观看视频| 欧美三级欧美成人高清www| 在线观看亚洲天堂| 色综合av在线| 国产情侣免费视频| 欧美色图天堂网| 一区二区国产欧美| 日韩午夜三级在线| 亚洲av综合色区无码一二三区| 精品免费日韩av| 日本精品999| 亚洲女人天堂网| 国产对白叫床清晰在线播放| 中国日韩欧美久久久久久久久| 自拍视频在线网| 久久av.com| 福利小视频在线| 日本欧美一级片| 韩国成人在线| 91中文字幕在线观看| 综合中文字幕| 久久精品ww人人做人人爽| 精品在线99| 正在播放久久| 国内自拍一区| 久章草在线视频| 精品在线观看免费| 人妻av一区二区| 国产欧美综合色| 欧美卡一卡二卡三| 五月开心婷婷久久| 国产情侣呻吟对白高潮| 日韩一区二区免费视频| 天天躁日日躁狠狠躁伊人| 亚洲午夜av久久乱码| 超碰个人在线| 91av视频在线播放| 久久日本片精品aaaaa国产| 福利视频久久| 欧美日韩国产在线观看网站| aaa免费在线观看| 国产精品久久久久久模特| 天天色综合天天色| 岛国av在线一区| 欧美三级视频网站| 夜夜精品浪潮av一区二区三区| 天天干天天色综合| 91精品国产免费久久综合| 色猫av在线| 超碰精品一区二区三区乱码| 午夜精品成人av| 成人av免费电影| 日韩精品免费| 日韩欧美在线播放视频| 国产伦精品一区二区三区在线观看| 一区二区三区免费在线观看视频| 1区2区3区欧美| 精人妻无码一区二区三区| 日韩欧美国产综合| jizz亚洲| 2020欧美日韩在线视频| 日韩08精品| 亚洲人体一区| 亚洲欧美日韩视频二区| 久久aaaa片一区二区| 国产亚洲人成网站| 免费在线一级片| 欧美日韩精品免费| 日本午夜在线| 国内免费久久久久久久久久久| 国产亚洲欧美日韩精品一区二区三区| 久久精品女人的天堂av| 伊人久久婷婷| 成年人看片网站| 亚洲三级理论片| 中文字幕一区二区三区四区视频| 亚洲乱码av中文一区二区| 国产后进白嫩翘臀在线观看视频| 91精品视频网站| 人人狠狠综合久久亚洲婷婷| 日本黄网站免费| 99久久久国产精品免费蜜臀| 久久久久久久久久久久久久久久久 | 久久影院在线观看| 欧美美女被草| 亚洲在线不卡| 捆绑调教一区二区三区| 欧美成人短视频| 欧美视频你懂的| 国产乱子伦三级在线播放| 日本精品久久久久影院| 伊人成综合网yiren22| 久久久久久久久久久视频| av网站一区二区三区| 国产精品白浆一区二小说| 日韩三级电影网址| 深夜国产在线播放| 99re视频在线播放| 韩国一区二区三区在线观看| 久久人妻少妇嫩草av蜜桃| 亚洲高清免费观看 | 97色婷婷成人综合在线观看| 影音先锋亚洲视频| 国产一区二区导航在线播放| 欧美黑人猛猛猛| 亚洲福利在线视频| jk漫画禁漫成人入口| 日韩免费av电影| 狠狠色综合色综合网络| 精品欧美一区二区久久久久| 欧美videos大乳护士334| 韩日毛片在线观看| 日韩欧美在线一区二区| 免费成人你懂的| 欧美日韩色视频| 欧美不卡在线视频| 超碰在线视屏| 色综合电影网| 国产一区不卡视频| 日本免费一二三区| 亚洲欧美综合图区| 日本亚洲欧洲无免费码在线| 男女爱爱视频网站| 成人福利在线看| 欧美精品一二三四区| 中文字幕日本欧美| 日韩在线视频一区二区三区| 男女超爽视频免费播放| 欧美韩国日本不卡| 国产高中女学生第一次| 欧美中文在线视频| 日韩中文首页| 99热超碰在线| 在线日韩一区二区| 爱情岛论坛亚洲品质自拍视频网站| 精品久久中出| 美国毛片一区二区| 欧美精品亚洲精品日韩精品| 在线看国产精品| 91久久偷偷做嫩草影院电| 激情网站五月天| 亚洲另类在线视频| 视频国产一区二区三区| 成人自拍性视频| 亚洲作爱视频| 成人免费精品动漫网站| 亚洲精品一区久久久久久| 久久久91麻豆精品国产一区| aaa毛片在线观看| 伊人色综合久久天天| 国产有码在线| 国产一区免费在线|