精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

使用Python+機器學(xué)習(xí)方法進(jìn)行情感分析(詳細(xì)步驟)

大數(shù)據(jù) 數(shù)據(jù)分析 機器學(xué)習(xí)
機器學(xué)習(xí)的方法精確度更高,因為詞典匹配會由于語義表達(dá)的豐富性而出現(xiàn)很大誤差,而機器學(xué)習(xí)方法不會。而且它可使用的場景更多樣。無論是主客觀分類還是正負(fù)面情感分類,機器學(xué)習(xí)都可以完成任務(wù)。而無需像詞典匹配那樣要深入到詞語、句子、語法這些層面。

不是有詞典匹配的方法了嗎?怎么還搞多個機器學(xué)習(xí)方法。

因為詞典方法和機器學(xué)習(xí)方法各有千秋。

機器學(xué)習(xí)的方法精確度更高,因為詞典匹配會由于語義表達(dá)的豐富性而出現(xiàn)很大誤差,而機器學(xué)習(xí)方法不會。而且它可使用的場景更多樣。無論是主客觀分類還是正負(fù)面情感分類,機器學(xué)習(xí)都可以完成任務(wù)。而無需像詞典匹配那樣要深入到詞語、句子、語法這些層面。

而詞典方法適用的語料范圍更廣,無論是手機、電腦這些商品,還是書評、影評這些語料,都可以適用。但機器學(xué)習(xí)則極度依賴語料,把手機語料訓(xùn)練出來的的分類器拿去給書評分類,那是注定要失敗的。

使用機器學(xué)習(xí)進(jìn)行情感分析,可以換一個相同意思的說法,就是用有監(jiān)督的(需要人工標(biāo)注類別)機器學(xué)習(xí)方法來對文本進(jìn)行分類。

這點與詞典匹配有著本質(zhì)的區(qū)別。詞典匹配是直接計算文本中的情感詞,得出它們的情感傾向分值。而機器學(xué)習(xí)方法的思路是先選出一部分表達(dá)積極情感的文本和一部分表達(dá)消極情感的文本,用機器學(xué)習(xí)方法進(jìn)行訓(xùn)練,獲得一個情感分類器。再通過這個情感分類器對所有文本進(jìn)行積極和消極的二分分類。最終的分類可以為文本給出0或1這樣的類別,也可以給出一個概率值,比如”這個文本的積極概率是90%,消極概率是10%“。

Python 有良好的程序包可以進(jìn)行情感分類,那就是Python 自然語言處理包,Natural Language Toolkit ,簡稱NLTK 。

NLTK 當(dāng)然不只是處理情感分析,NLTK 有著整套自然語言處理的工具,從分詞到實體識別,從情感分類到句法分析,完整而豐富,功能強大。實乃居家旅行,越貨殺人之必備良藥。

兩本NLTK 的參考書,非常好用。一本是《Python 自然語言處理》,這是《Natural Language Processing with Python》的中文翻譯版,是志愿者翻譯沒有出版社出版的,開源精神萬歲!另一本是《Python Text Processing with NLTK 2.0 Cookbook》,這本書寫得清晰明了,雖然是英文版的,看起來也很舒服。特別值得一提的是,該書作者Jacob 就是NLTK 包的主要貢獻(xiàn)者之一。而且他的博客中有一系列的文章是關(guān)于使用機器學(xué)習(xí)進(jìn)行情感分類的,我的代碼可以說是完全基于他的,在此表示我的感謝。

其實還有國外作者也被他啟發(fā),用Python 來處理情感分類。比如這篇文章,寫得特別詳細(xì)認(rèn)真,也是我重點參考的文章,他的代碼我也有所借用。

Jacob 在文章中也有提到,近段時間NLTK 新增的scikit-learn 的接口,使得它的分類功能更為強大好用了,可以用很多高端冷艷的分類算法了。于是我又滾過去看scikit-learn 。簡直是天賜我好工具,媽媽再也不用擔(dān)心我用不了機器學(xué)習(xí)啦!

有了scikit-learn 的接口,NLTK 做分類變得比之前更簡單快捷,但是相關(guān)的結(jié)合NLTK 和 sciki-learn 的文章實在少,這篇文章是僅有的講得比較詳細(xì)的把兩者結(jié)合的,在此也表示感謝。

但對于我而言還是有點不夠的,因為中文和英文有一定的差別,而且上面提到的一些博客里面的代碼也是需要改動的。終于把一份代碼啃完之后,能寫出一個跑得通的中文情感分類代碼了。接下來會介紹它的實現(xiàn)思路和具體代碼。

在這個系列的文章里面,機器學(xué)習(xí)都可以認(rèn)為是有監(jiān)督的分類方法。

總體流程如圖: 

\
圖1:機器學(xué)習(xí)的流程和結(jié)構(gòu)(摘自《Natural Language Processing with Python》)

一、有監(jiān)督意味著需要人工標(biāo)注,需要人為的給文本一個類標(biāo)簽。

比如我有5000條商品評論,如果我要把這些評論分成積極和消極兩類。那我就可以先從里面選2000條評論,然后對這2000條數(shù)據(jù)進(jìn)行人工標(biāo)注,把這2000條評論標(biāo)為“積極”或“消極”。這“積極”和“消極”就是類標(biāo)簽。

假設(shè)有1000條評論被標(biāo)為“積極”,有1000條評論被標(biāo)為“消極”。(兩者數(shù)量相同對訓(xùn)練分類器是有用的,如果實際中數(shù)量不相同,應(yīng)該減少和增加數(shù)據(jù)以使得它們數(shù)量相同)

二、之后就要選擇特征。

特征就是分類對象所展現(xiàn)的部分特點,是實現(xiàn)分類的依據(jù)。我們經(jīng)常會做出分類的行為,那我們依據(jù)些什么進(jìn)行分類呢?

舉個例子,如果我看到一個年輕人,穿著新的正裝,提著嶄新的公文包,快步行走,那我就會覺得他是一個剛?cè)肼毜穆殘鲂氯恕T谶@里面,“嶄新”,“正裝”,“公文包”,“快步行走”都是這個人所展現(xiàn)出的特點,也是我用來判斷這個人屬于哪一類的依據(jù)。這些特點和依據(jù)就是特征。可能有些特征對我判斷更有用,有些對我判斷沒什么用,有些可能會讓我判斷錯誤,但這些都是我分類的依據(jù)。

我們沒辦法發(fā)現(xiàn)一個人的所有特點,所以我們沒辦法客觀的選擇所有特點,我們只能主觀的選擇一部分特點來作為我分類的依據(jù)。這也是特征選擇的特點,需要人為的進(jìn)行一定選擇。

而在情感分類中,一般從“詞”這個層次來選擇特征。

比如這句話“手機非常好用!”,我給了它一個類標(biāo)簽“Positive”。里面有四個詞(把感嘆號也算上),“手機”,“非常”,“好用”,“!”。我可以認(rèn)為這4個詞都對分類產(chǎn)生了影響,都是分類的依據(jù)。也就是無論什么地方出現(xiàn)了這四個詞的其中之一,文本都可以被分類為“積極”。這個是把所有詞都作為分類特征。

同樣的,對這句話,我也可以選擇它的雙詞搭配(Bigrams)作為特征。比如“手機 非常”,“非常 好用”,“好用 !”這三個搭配作為分類的特征。以此類推,三詞搭配(Trigrams),四詞搭配都是可以被作為特征的。

三、再之后特征要降維。

特征降維說白了就是減少特征的數(shù)量。這有兩個意義,一個是特征數(shù)量減少了之后可以加快算法計算的速度(數(shù)量少了當(dāng)然計算就快了),另一個是如果用一定的方法選擇信息量豐富的特征,可以減少噪音,有效提高分類的準(zhǔn)確率。

所謂信息量豐富,可以看回上面這個例子“手機非常好用!”,很明顯,其實不需要把“手機”,“非常”,“好用”,“!”這4個都當(dāng)做特征,因為“好用”這么一個詞,或者“非常 好用”這么一個雙詞搭配就已經(jīng)決定了這個句子是“積極”的。這就是說,“好用”這個詞的信息量非常豐富。

那要用什么方法來減少特征數(shù)量呢?答案是通過一定的統(tǒng)計方法找到信息量豐富的特征。

統(tǒng)計方法包括:詞頻(Term Frequency)、文檔頻率(Document Frequency)、互信息(Pointwise Mutual Information)、信息熵(Information Entropy)、卡方統(tǒng)計(Chi-Square)等等。

在情感分類中,用詞頻選擇特征,也就是選在語料庫中出現(xiàn)頻率高的詞。比如我可以選擇語料庫中詞頻最高的2000個詞作為特征。用文檔頻率選特征,是選在語料庫的不同文檔中出現(xiàn)頻率最高的詞。而其它三個,太高端冷艷,表示理解得還不清楚,暫且不表。。。

不過意思都是一樣的,都是要通過某個統(tǒng)計方法選擇信息量豐富的特征。特征可以是詞,可以是詞組合。

四、把語料文本變成使用特征表示。

在使用分類算法進(jìn)行分類之前,***步是要把所有原始的語料文本轉(zhuǎn)化為特征表示的形式。

還是以上面那句話做例子,“手機非常好用!”

  • 如果在NLTK 中,如果選擇所有詞作為特征,其形式是這樣的:[ {“手機”: True, “非常”: True, “好用”: True, “!”: True} , positive]
  • 如果選擇雙詞作為特征,其形式是這樣的:[ {“手機 非常”: True, “非常 好用”: True, “好用 !”: True} , positive ]
  • 如果選擇信息量豐富的詞作為特征,其形式是這樣的:[ {“好用”: True} , positive ]

(NLTK需要使用字典和數(shù)組兩個數(shù)據(jù)類型,True 表示對應(yīng)的元素是特征。至于為什么要用True 這樣的方式,我也不知道。。。反正見到的例子都是這樣的。。。有空再研究看是不是可以不這樣的吧)

無論使用什么特征選擇方法,其形式都是一樣的。都是[ {“特征1”: True, “特征2”: True, “特征N”: True, }, 類標(biāo)簽 ]

五、把用特征表示之后的文本分成開發(fā)集和測試集,把開發(fā)集分成訓(xùn)練集和開發(fā)測試集。

機器學(xué)習(xí)分類必須有數(shù)據(jù)給分類算法訓(xùn)練,這樣才能得到一個(基于訓(xùn)練數(shù)據(jù)的)分類器。

有了分類器之后,就需要檢測這個分類器的準(zhǔn)確度。

根據(jù)《Python 自然語言處理》的方法,數(shù)據(jù)可以分為開發(fā)集合測試集。開發(fā)集專門用于不斷調(diào)整和發(fā)現(xiàn)***的分類算法和特征維度(數(shù)量),測試集應(yīng)該一直保持“不被污染”。在開發(fā)集開發(fā)完畢之后,再使用測試集檢驗由開發(fā)集確定的***算法和特征維度的效果。具體如圖: 

\
圖2:開發(fā)集和測試集(摘自《Natural Language Processing with Python》)

一般來說,訓(xùn)練集的數(shù)量應(yīng)該遠(yuǎn)大于測試集,這樣分類算法才能找出里面的規(guī)律,構(gòu)建出高效的分類器。

用回前面的例子。假設(shè)2000條已經(jīng)標(biāo)注了積極和消極的評論數(shù)據(jù),開發(fā)集可以是隨機的1600條,測試集是剩余的隨機400條。然后開發(fā)集中,訓(xùn)練集可以是隨機的1400條,開發(fā)測試集是200條。

六、用不同的分類算法給訓(xùn)練集構(gòu)建分類器,用開發(fā)測試集檢驗分類器的準(zhǔn)確度(選出***算法后可以調(diào)整特征的數(shù)量來測試準(zhǔn)確度)。

這個時候終于可以使用各種高端冷艷的機器學(xué)習(xí)算法啦!

我們的目標(biāo)是:找到***的機器學(xué)習(xí)算法。

可以使用樸素貝葉斯(NaiveBayes),決策樹(Decision Tree)等NLTK 自帶的機器學(xué)習(xí)方法。也可以更進(jìn)一步,使用NLTK 的scikit-learn 接口,這樣就可以調(diào)用scikit-learn 里面的所有,對,是所有機器學(xué)習(xí)算法了。我已經(jīng)忍不住的淚流滿面。

其實方法很容易。只要以下五步。

  1. 僅僅使用開發(fā)集(Development Set)。
  2. 用分類算法訓(xùn)練里面的訓(xùn)練集(Training Set),得出分類器。
  3. 用分類器給開發(fā)測試集分類(Dev-Test Set),得出分類結(jié)果。
  4. 對比分類器給出的分類結(jié)果和人工標(biāo)注的正確結(jié)果,給出分類器的準(zhǔn)確度。
  5. 使用另一個分類算法,重復(fù)以上三步。

在檢驗完所有算法的分類準(zhǔn)確度之后,就可以選出***的一個分類算法了。

在選出***的分類算法之后,就可以測試不同的特征維度對分類準(zhǔn)確度的影響了。一般來說,特征太少則不足以反映分類的所有特點,使得分類準(zhǔn)確率低;特征太多則會引入噪音,干擾分類,也會降低分類準(zhǔn)確度。所以,需要不斷的測試特征的數(shù)量,這樣才可以得到***的分類效果。

七、選擇出開發(fā)集中***的分類算法和特征維度,使用測試集檢驗得出情感分類的準(zhǔn)確度。

在終于得到***分類算法和特征維度(數(shù)量)之后,就可以動用測試集。

直接用***的分類算法對測試集進(jìn)行分類,得出分類結(jié)果。對比分類器的分類結(jié)果和人工標(biāo)注的正確結(jié)果,給出分類器的最終準(zhǔn)確度。

用Python 進(jìn)行機器學(xué)習(xí)及情感分析,需要用到兩個主要的程序包:nltk 和 scikit-learn

nltk 主要負(fù)責(zé)處理特征提取(雙詞或多詞搭配需要使用nltk 來做)和特征選擇(需要nltk 提供的統(tǒng)計方法)。

scikit-learn 主要負(fù)責(zé)分類算法,評價分類效果,進(jìn)行分類等任務(wù)。

接下來會有四篇文章按照以下步驟來實現(xiàn)機器學(xué)習(xí)的情感分析。

  1. 特征提取和特征選擇(選擇***特征)
  2. 賦予類標(biāo)簽,分割開發(fā)集和測試集
  3. 構(gòu)建分類器,檢驗分類準(zhǔn)確度,選擇***分類算法
  4. 存儲和使用***分類器進(jìn)行分類,分類結(jié)果為概率值

首先是特征提取和選擇

一、特征提取方法

1. 把所有詞作為特征 

  1. def bag_of_words(words):  
  2. return dict([(word, Truefor word in words]) 

返回的是字典類型,這是nltk 處理情感分類的一個標(biāo)準(zhǔn)形式。

2. 把雙詞搭配(bigrams)作為特征 

  1. mport nltk  
  2. from nltk.collocations import BigramCollocationFinder  
  3. from nltk.metrics import BigramAssocMeasures  
  4. def bigram(words, score_fn=BigramAssocMeasures.chi_sq, n=1000):  
  5. bigram_finder = BigramCollocationFinder.from_words(words) #把文本變成雙詞搭配的形式  
  6. bigrams = bigram_finder.nbest(score_fn, n) #使用了卡方統(tǒng)計的方法,選擇排名前1000的雙詞  
  7. return bag_of_words(bigrams) 

除了可以使用卡方統(tǒng)計來選擇信息量豐富的雙詞搭配,還可以使用其它的方法,比如互信息(PMI)。而排名前1000也只是人工選擇的閾值,可以隨意選擇其它值,可經(jīng)過測試一步步找到***值。

3. 把所有詞和雙詞搭配一起作為特征 

  1. def bigram_words(words, score_fn=BigramAssocMeasures.chi_sq, n=1000):  
  2. bigram_finder = BigramCollocationFinder.from_words(words)  
  3. bigrams = bigram_finder.nbest(score_fn, n)  
  4. return bag_of_words(words + bigrams) #所有詞和(信息量大的)雙詞搭配一起作為特征 

二、特征選擇方法

有了提取特征的方法后,我們就可以提取特征來進(jìn)行分類學(xué)習(xí)了。但一般來說,太多的特征會降低分類的準(zhǔn)確度,所以需要使用一定的方法,來“選擇”出信息量最豐富的特征,再使用這些特征來分類。

特征選擇遵循如下步驟:

  1. 計算出整個語料里面每個詞的信息量
  2. 根據(jù)信息量進(jìn)行倒序排序,選擇排名靠前的信息量的詞
  3. 把這些詞作為特征

1. 計算出整個語料里面每個詞的信息量

1.1 計算整個語料里面每個詞的信息量 

  1. from nltk.probability import FreqDist, ConditionalFreqDist  
  2. def create_word_scores(): posWords = pickle.load(open('D:/code/sentiment_test/pos_review.pkl','r')) ..... return word_scores #包括了每個詞和這個詞的信息量 

1.2 計算整個語料里面每個詞和雙詞搭配的信息量 

  1. def create_word_bigram_scores():  
  2. posdata = pickle.load(open('D:/code/sentiment_test/pos_review.pkl','r')) negdata = pickle.load(open('D:/code/sentiment_test/neg_review.pkl','r')) ..... return word_scores 

2. 根據(jù)信息量進(jìn)行倒序排序,選擇排名靠前的信息量的詞 

  1. def find_best_words(word_scores, number):  
  2. best_vals = sorted(word_scores.iteritems(), key=lambda (w, s): s, reverse=True)[:number] #把詞按信息量倒序排序。number是特征的維度,是可以不斷調(diào)整直至***的 
  3. best_words = set([w for w, s in best_vals])  
  4. return best_words 

然后需要對find_best_words 賦值,如下: 

  1. word_scores_1 = create_word_scores()  
  2. word_scores_2 = create_word_bigram_scores() 

3. 把選出的這些詞作為特征(這就是選擇了信息量豐富的特征)

  1. def best_word_features(words): return dict([(word, Truefor word in words if word in best_words]) 

三、檢測哪中特征選擇方法更優(yōu)

見構(gòu)建分類器,檢驗分類準(zhǔn)確度,選擇***分類算法

***步,載入數(shù)據(jù)。

要做情感分析,首要的是要有數(shù)據(jù)。

數(shù)據(jù)是人工已經(jīng)標(biāo)注好的文本,有一部分積極的文本,一部分是消極的文本。

文本是已經(jīng)分詞去停用詞的商品評論,形式大致如下:[[word11, word12, ... word1n], [word21, word22, ... , word2n], ... , [wordn1, wordn2, ... , wordnn]]

這是一個多維數(shù)組,每一維是一條評論,每條評論是已經(jīng)又該評論的分詞組成。 

  1. #! /usr/bin/env python2.7  
  2. #coding=utf-8  
  3. pos_review = pickle.load(open('D:/code/sentiment_test/pos_review.pkl','r'))  
  4. neg_review = pickle.load(open('D:/code/sentiment_test/neg_review.pkl','r')) 

我用pickle 存儲了相應(yīng)的數(shù)據(jù),這里直接載入即可。

第二步,使積極文本的數(shù)量和消極文本的數(shù)量一樣。 

  1. from random import shuffle  
  2. shuffle(pos_review) #把積極文本的排列隨機化  
  3. size = int(len(pos_review)/2 - 18)  
  4. pos = pos_review[:size 
  5. neg = neg_review 

我這里積極文本的數(shù)據(jù)恰好是消極文本的2倍還多18個,所以為了平衡兩者數(shù)量才這樣做。

第三步,賦予類標(biāo)簽。 

  1. def pos_features(feature_extraction_method):  
  2. posFeatures = []  
  3. ....  
  4. negFeatures.append(negWords)  
  5. return negFeatures 

這個需要用特征選擇方法把文本特征化之后再賦予類標(biāo)簽。

第四步、把特征化之后的數(shù)據(jù)數(shù)據(jù)分割為開發(fā)集和測試集 

  1. train = posFeatures[174:]+negFeatures[174:]  
  2. devtest = posFeatures[124:174]+negFeatures[124:174]  
  3. test = posFeatures[:124]+negFeatures[:124] 

這里把前124個數(shù)據(jù)作為測試集,中間50個數(shù)據(jù)作為開發(fā)測試集,***剩下的大部分?jǐn)?shù)據(jù)作為訓(xùn)練集。

在把文本轉(zhuǎn)化為特征表示,并且分割為開發(fā)集和測試集之后,我們就需要針對開發(fā)集進(jìn)行情感分類器的開發(fā)。測試集就放在一邊暫時不管。

開發(fā)集分為訓(xùn)練集(Training Set)和開發(fā)測試集(Dev-Test Set)。訓(xùn)練集用于訓(xùn)練分類器,而開發(fā)測試集用于檢驗分類器的準(zhǔn)確度。

為了檢驗分類器準(zhǔn)確度,必須對比“分類器的分類結(jié)果”和“人工標(biāo)注的正確結(jié)果”之間的差異。

所以:

  • ***步,是要把開發(fā)測試集中,人工標(biāo)注的標(biāo)簽和數(shù)據(jù)分割開來。
  • 第二步是使用訓(xùn)練集訓(xùn)練分類器;
  • 第三步是用分類器對開發(fā)測試集里面的數(shù)據(jù)進(jìn)行分類,給出分類預(yù)測的標(biāo)簽;第四步是對比分類標(biāo)簽和人工標(biāo)注的差異,計算出準(zhǔn)確度。

一、分割人工標(biāo)注的標(biāo)簽和數(shù)據(jù)

dev, tag_dev = zip(*devtest) #把開發(fā)測試集(已經(jīng)經(jīng)過特征化和賦予標(biāo)簽了)分為數(shù)據(jù)和標(biāo)簽

二到四、可以用一個函數(shù)來做 

  1. def score(classifier):  
  2. classifier = SklearnClassifier(classifier) #在nltk 中使用scikit-learn 的接口  
  3. classifier.train(train) #訓(xùn)練分類器  
  4. pred = classifier.batch_classify(testSet) #對開發(fā)測試集的數(shù)據(jù)進(jìn)行分類,給出預(yù)測的標(biāo)簽  
  5. return accuracy_score(tag_test, pred) #對比分類預(yù)測結(jié)果和人工標(biāo)注的正確結(jié)果,給出分類器準(zhǔn)確度 

之后我們就可以簡單的檢驗不同分類器和不同的特征選擇的結(jié)果。

  1. import sklearn  
  2. .....  
  3. print 'NuSVC`s accuracy is %f' %score(NuSVC()) 

1. 我選擇了六個分類算法,可以先看到它們在使用所有詞作特征時的效果: 

  1. BernoulliNB`s accuracy is 0.790000  
  2. MultinomiaNB`s accuracy is 0.810000  
  3. LogisticRegression`s accuracy is 0.710000  
  4. SVC`s accuracy is 0.650000  
  5. LinearSVC`s accuracy is 0.680000  
  6. NuSVC`s accuracy is 0.740000 

2. 再看使用雙詞搭配作特征時的效果(代碼改動如下地方即可) 

  1. posFeatures = pos_features(bigrams)  
  2. negFeatures = neg_features(bigrams) 

結(jié)果如下:

  1. BernoulliNB`s accuracy is 0.710000 MultinomiaNB`s accuracy is 0.750000 LogisticRegression`s accuracy is 0.790000 SVC`s accuracy is 0.750000 LinearSVC`s accuracy is 0.770000 NuSVC`s accuracy is 0.780000 

3. 再看使用所有詞加上雙詞搭配作特征的效果

posFeatures = pos_features(bigram_words) negFeatures = neg_features(bigram_words)

結(jié)果如下: 

  1. BernoulliNB`s accuracy is 0.710000  
  2. MultinomiaNB`s accuracy is 0.750000  
  3. LogisticRegression`s accuracy is 0.790000  
  4. SVC`s accuracy is 0.750000  
  5. LinearSVC`s accuracy is 0.770000  
  6. NuSVC`s accuracy is 0.780000 

可以看到在不選擇信息量豐富的特征時,僅僅使用全部的詞或雙詞搭配作為特征,分類器的效果并不理想。

接下來將使用卡方統(tǒng)計量(Chi-square)來選擇信息量豐富的特征,再用這些特征來訓(xùn)練分類器。

4. 計算信息量豐富的詞,并以此作為分類特征 

  1. word_scores = create_word_scores()  
  2. best_words = find_best_words(word_scores, 1500) #選擇信息量最豐富的1500個的特征  
  3. posFeatures = pos_features(best_word_features)  
  4. negFeatures = neg_features(best_word_features) 

結(jié)果如下: 

  1. BernoulliNB`s accuracy is 0.870000  
  2. MultinomiaNB`s accuracy is 0.860000  
  3. LogisticRegression`s accuracy is 0.730000  
  4. SVC`s accuracy is 0.770000  
  5. LinearSVC`s accuracy is 0.720000  
  6. NuSVC`s accuracy is 0.780000 

可見貝葉斯分類器的分類效果有了很大提升。

5. 計算信息量豐富的詞和雙詞搭配,并以此作為特征 

  1. word_scores = create_word_bigram_scores()  
  2. best_words = find_best_words(word_scores, 1500) #選擇信息量最豐富的1500個的特征  
  3. posFeatures = pos_features(best_word_features)  
  4. negFeatures = neg_features(best_word_features) 

結(jié)果如下: 

  1. BernoulliNB`s accuracy is 0.910000  
  2. MultinomiaNB`s accuracy is 0.860000  
  3. LogisticRegression`s accuracy is 0.800000  
  4. SVC`s accuracy is 0.800000  
  5. LinearSVC`s accuracy is 0.750000  
  6. NuSVC`s accuracy is 0.860000 

可以發(fā)現(xiàn)貝努利的貝葉斯分類器效果繼續(xù)提升,同時NuSVC 也有很大的提升。

此時,我們選用BernoulliNB、MultinomiaNB、NuSVC 作為候選分類器,使用詞和雙詞搭配作為特征提取方式,測試不同的特征維度的效果。 

  1. dimension = ['500','1000','1500','2000','2500','3000' 
  2. for d in dimension:  
  3. word_scores = create_word_scores_bigram()  
  4. best_words = find_best_words(word_scores, int(d))  
  5. posFeatures = pos_features(best_word_features)  
  6. negFeatures = neg_features(best_word_features)  
  7. train = posFeatures[174:]+negFeatures[174:]  
  8. devtest = posFeatures[124:174]+negFeatures[124:174]  
  9. test = posFeatures[:124]+negFeatures[:124]  
  10. dev, tag_dev = zip(*devtest)  
  11. print 'Feature number %f' %d  
  12. print 'BernoulliNB`s accuracy is %f' %score(BernoulliNB())  
  13. print 'MultinomiaNB`s accuracy is %f' %score(MultinomialNB())  
  14. print 'LogisticRegression`s accuracy is %f' %score(LogisticRegression()) 
  15. print 'SVC`s accuracy is %f' %score(SVC())  
  16. print 'LinearSVC`s accuracy is %f' %score(LinearSVC())  
  17. print 'NuSVC`s accuracy is %f' %score(NuSVC()) 

結(jié)果如下(很長。。): 

  1. Feature number 500  
  2. BernoulliNB`s accuracy is 0.880000  
  3. MultinomiaNB`s accuracy is 0.850000  
  4. LogisticRegression`s accuracy is 0.740000  
  5. SVC`s accuracy is 0.840000  
  6. LinearSVC`s accuracy is 0.700000  
  7. NuSVC`s accuracy is 0.810000  
  8. Feature number 1000  
  9. BernoulliNB`s accuracy is 0.860000  
  10. MultinomiaNB`s accuracy is 0.850000  
  11. LogisticRegression`s accuracy is 0.750000  
  12. SVC`s accuracy is 0.800000  
  13. LinearSVC`s accuracy is 0.720000  
  14. NuSVC`s accuracy is 0.760000  
  15. Feature number 1500  
  16. BernoulliNB`s accuracy is 0.870000  
  17. MultinomiaNB`s accuracy is 0.860000  
  18. LogisticRegression`s accuracy is 0.770000  
  19. SVC`s accuracy is 0.770000  
  20. LinearSVC`s accuracy is 0.750000  
  21. NuSVC`s accuracy is 0.790000  
  22. Feature number 2000  
  23. BernoulliNB`s accuracy is 0.870000  
  24. MultinomiaNB`s accuracy is 0.850000  
  25. LogisticRegression`s accuracy is 0.770000  
  26. SVC`s accuracy is 0.690000  
  27. LinearSVC`s accuracy is 0.700000  
  28. NuSVC`s accuracy is 0.800000  
  29. Feature number 2500  
  30. BernoulliNB`s accuracy is 0.850000  
  31. MultinomiaNB`s accuracy is 0.830000  
  32. LogisticRegression`s accuracy is 0.780000  
  33. SVC`s accuracy is 0.700000  
  34. LinearSVC`s accuracy is 0.730000  
  35. NuSVC`s accuracy is 0.800000  
  36. Feature number 3000  
  37. BernoulliNB`s accuracy is 0.850000  
  38. MultinomiaNB`s accuracy is 0.830000  
  39. LogisticRegression`s accuracy is 0.780000  
  40. SVC`s accuracy is 0.690000  
  41. LinearSVC`s accuracy is 0.710000  
  42. NuSVC`s accuracy is 0.800000 

把上面的所有測試結(jié)果進(jìn)行綜合可匯總?cè)缦拢?/p>

不同分類器的不同特征選擇方法效果 

\

綜合來看,可以看出特征維數(shù)在500 或 1500的時候,分類器的效果是***的。

所以在經(jīng)過上面一系列的分析之后,可以得出如下的結(jié)論:

  • Bernoulli 樸素貝葉斯分類器效果***
  • 詞和雙詞搭配作為特征時效果***
  • 當(dāng)特征維數(shù)為1500時效果***

為了不用每次分類之前都要訓(xùn)練一次數(shù)據(jù),所以可以在用開發(fā)集找出***分類器后,把***分類器存儲下來以便以后使用。然后再使用這個分類器對文本進(jìn)行分類。

一、使用測試集測試分類器的最終效果 

  1. word_scores = create_word_bigram_scores() #使用詞和雙詞搭配作為特征  
  2. best_words = find_best_words(word_scores, 1500) #特征維度1500  
  3. posFeatures = pos_features(best_word_features)  
  4. negFeatures = neg_features(best_word_features)  
  5. trainSet = posFeatures[:500] + negFeatures[:500] #使用了更多數(shù)據(jù)  
  6. testSet = posFeatures[500:] + negFeatures[500:]  
  7. test, tag_test = zip(*testSet)  
  8. def final_score(classifier):  
  9. classifier = SklearnClassifier(classifier)  
  10. classifier.train(trainSet)  
  11. pred = classifier.batch_classify(test)  
  12. return accuracy_score(tag_test, pred)  
  13. print final_score(BernoulliNB()) #使用開發(fā)集中得出的***分類器 

其結(jié)果是很給力的:

  1. 0.979166666667 

二、把分類器存儲下來

(存儲分類器和前面沒有區(qū)別,只是使用了更多的訓(xùn)練數(shù)據(jù)以便分類器更為準(zhǔn)確) 

  1. word_scores = create_word_bigram_scores()  
  2. best_words = find_best_words(word_scores, 1500)  
  3. posFeatures = pos_features(best_word_features)  
  4. negFeatures = neg_features(best_word_features)  
  5. trainSet = posFeatures + negFeatures  
  6. BernoulliNB_classifier = SklearnClassifier(BernoulliNB())  
  7. BernoulliNB_classifier.train(trainSet)  
  8. pickle.dump(BernoulliNB_classifier, open('D:/code/sentiment_test/classifier.pkl','w')) 

在存儲了分類器之后,就可以使用該分類器來進(jìn)行分類了。

三、使用分類器進(jìn)行分類,并給出概率值

給出概率值的意思是用分類器判斷一條評論文本的積極概率和消極概率。給出類別也是可以的,也就是可以直接用分類器判斷一條評論文本是積極的還是消極的,但概率可以提供更多的參考信息,對以后判斷評論的效用也是比單純給出類別更有幫助。

1. 把文本變?yōu)樘卣鞅硎镜男问?/strong>

要對文本進(jìn)行分類,首先要把文本變成特征表示的形式。而且要選擇和分類器一樣的特征提取方法。 

  1. #! /usr/bin/env python2.7  
  2. #coding=utf-8  
  3. moto = pickle.load(open('D:/code/review_set/senti_review_pkl/moto_senti_seg.pkl','r')) #載入文本數(shù)據(jù)  
  4. def extract_features(data):  
  5. feat = []  
  6. for i in data:  
  7. feat.append(best_word_features(i))  
  8. return feat  
  9. moto_features = extract_features(moto) #把文本轉(zhuǎn)化為特征表示的形式 

注:載入的文本數(shù)據(jù)已經(jīng)經(jīng)過分詞和去停用詞處理。

2. 對文本進(jìn)行分類,給出概率值 

  1. import pickle  
  2. import sklearn  
  3. clf = pickle.load(open('D:/code/sentiment_test/classifier.pkl')) #載入分類器  
  4. pred = clf.batch_prob_classify(moto_features) #該方法是計算分類概率值的  
  5. p_file = open('D:/code/sentiment_test/score/Motorala/moto_ml_socre.txt','w') #把結(jié)果寫入文檔  
  6. for i in pred:  
  7. p_file.write(str(i.prob('pos')) + ' ' + str(i.prob('neg')) + '\n' 
  8. p_file.close() 

***分類結(jié)果如下圖: 

\

前面是積極概率,后面是消極概率

折騰了這么久就為了搞這么一個文件出來。。。這傷不起的節(jié)奏已經(jīng)無人阻擋了嗎。。。

不過這個結(jié)果確實比詞典匹配準(zhǔn)確很多,也算欣慰了。。。

 

責(zé)任編輯:未麗燕 來源: 網(wǎng)絡(luò)大數(shù)據(jù)
相關(guān)推薦

2016-12-07 14:45:25

KNIME情感分析數(shù)據(jù)分析

2016-12-07 14:23:48

KNIME數(shù)據(jù)分析情感分析

2016-12-07 14:56:51

KNIME數(shù)據(jù)分析

2023-02-03 11:40:49

機器學(xué)習(xí)分析情感

2019-05-14 10:37:26

Python機器學(xué)習(xí)編程語言

2022-06-09 09:14:31

機器學(xué)習(xí)PythonJava

2022-06-05 21:16:08

機器學(xué)習(xí)Python

2024-10-30 16:59:57

Python機器學(xué)習(xí)

2012-08-06 09:04:01

決策樹建模

2017-09-17 23:14:41

機器學(xué)習(xí)人工智能設(shè)計

2016-09-30 15:33:02

集成學(xué)習(xí)機器學(xué)習(xí)算法

2025-01-06 08:35:42

SVM機器學(xué)習(xí)人工智能

2017-10-10 13:13:48

2016-12-28 15:19:22

大數(shù)據(jù)機器學(xué)習(xí)銷售預(yù)測

2018-09-04 11:45:31

前端JavaScriptNodeJS

2020-12-25 15:24:24

人工智能

2016-01-11 10:44:38

惡意軟件惡意軟件分析

2009-06-17 15:06:39

Java 學(xué)習(xí)方法

2009-09-16 10:16:29

CCNA學(xué)習(xí)方法CCNA

2009-09-08 09:25:46

思科認(rèn)證學(xué)習(xí)方法思科認(rèn)證
點贊
收藏

51CTO技術(shù)棧公眾號

精品亚洲一区二区三区在线观看| 99国产精品99久久久久久| 日韩在线视频一区| 91丨porny丨九色| 草草影院在线| 中文字幕国产一区二区| 国产99视频精品免视看7| 国产亚洲精品久久久久久豆腐| 色8久久影院午夜场| 亚洲日本青草视频在线怡红院| 国产精品久久99久久| 欧美成人免费看| 国产精品最新| 亚洲成人动漫在线播放| 日韩av.com| 波多视频一区| 亚洲午夜久久久久中文字幕久| 国产日韩综合一区二区性色av| 中国1级黄色片| 老司机精品在线| 午夜伦理一区二区| 在线丝袜欧美日韩制服| 欧洲综合视频| 9色porny自拍视频一区二区| 成人国产精品一区二区| 亚洲欧美综合自拍| 亚洲激情网址| 欧美韩国理论所午夜片917电影| 久久性爱视频网站| 朝桐光一区二区| 亚洲h精品动漫在线观看| 一区二区国产日产| 国产中文字幕在线播放| 26uuu精品一区二区在线观看| 国产精品美女在线观看| 私库av在线播放| 欧亚精品一区| 亚洲精品黄网在线观看| 亚洲精品久久久久久| 日韩毛片免费看| 精品视频123区在线观看| 国产精品乱码久久久久| 欧美极品影院| 色综合一区二区三区| 亚洲熟妇无码一区二区三区| 青青青国内视频在线观看软件| 不卡av在线免费观看| 久久久久久久久久亚洲| 青青草激情视频| 午夜国产欧美理论在线播放| 久久视频在线视频| 国产真实乱在线更新| 另类ts人妖一区二区三区| 精品成人a区在线观看| 三级在线免费看| 欧美xnxx| 欧美精品自拍偷拍| 天天色天天干天天色| 精品视频一区二区三区| 欧美一区二区成人| 日韩精品xxx| 国内毛片久久| 亚洲精品国产拍免费91在线| 蜜桃av免费看| 日韩精品欧美激情一区二区| 色伦专区97中文字幕| 国产67194| 亚洲视频免费| 欧美在线www| 黄色一区二区视频| 亚洲综合丁香| 国产精品日韩在线观看| 91国在线视频| 成人午夜看片网址| 看欧美日韩国产| 91啦中文在线| 亚洲一区中文在线| 国产二区视频在线播放| 日本.亚洲电影| 欧美一区二区三级| www.这里只有精品| 三级欧美日韩| 亚洲免费中文字幕| 日韩av手机在线免费观看| 国产影视精品一区二区三区| 日韩中文字幕在线精品| 99免费在线观看| 日本不卡在线视频| 91精品婷婷国产综合久久蝌蚪| 国产一区二区女内射| 成人一级片在线观看| 欧美激情国产日韩| 日本高清视频在线观看| 中文字幕第一区二区| 青青草视频在线视频| 一级毛片久久久| 狠狠综合久久av一区二区小说| 国产a级片网站| 免费在线看污片| 在线视频一区二区三| av在线天堂网| 超碰成人久久| 最近2019年手机中文字幕| av男人的天堂av| 欧美日本一区二区高清播放视频| 久久99热精品| 中文字幕永久在线| 成人av片在线观看| 一级全黄肉体裸体全过程| 成人av观看| 欧美tk丨vk视频| 国产日产在线观看| 国产精品普通话对白| 亚洲xxxx做受欧美| 91在线导航| 欧美性猛交丰臀xxxxx网站| 国产成人强伦免费视频网站| 国产一区二区三区不卡视频网站| 亚洲人成在线观看| 国产精品第九页| 国产在线播放一区| 成人免费在线看片| 毛片av在线| 亚洲国产aⅴ天堂久久| 青青青国产在线观看| 欧美日韩黄色| 色婷婷综合久久久久中文字幕1| 91香蕉视频污在线观看| 可以看av的网站久久看| 国产精品一区二区三区免费观看| 日本不卡视频一区二区| 国产精品丝袜黑色高跟| 欧美综合在线观看视频| 精品福利在线| 日韩欧美一区在线| 中文字幕国产专区| 免费看的黄色欧美网站| 国产日韩欧美精品| heyzo中文字幕在线| 欧美xxxxxxxx| 免费看黄色三级| 久久精品女人| 欧洲亚洲一区| 99久久er| 影音先锋欧美精品| 中文字幕久久久久| 欧美—级在线免费片| 国产日韩成人内射视频| 国内精品久久久久久99蜜桃| 国产a∨精品一区二区三区不卡| 国产夫妻性生活视频| 亚洲卡通欧美制服中文| 男人添女人荫蒂国产| 伊人精品成人久久综合软件| 国产精品香蕉视屏| 精品黄色免费中文电影在线播放| 岛国av在线不卡| 久久久亚洲av波多野结衣| 天堂成人免费av电影一区| 99在线观看视频| 日本网站在线免费观看视频| 欧美精品1区2区3区| 久久精品99国产精| 极品少妇xxxx精品少妇偷拍| 少妇熟女一区二区| 99久久免费精品国产72精品九九| 久久精品视频va| 亚洲AV无码成人片在线观看| 午夜激情一区二区三区| 欧美熟妇激情一区二区三区| 激情六月婷婷久久| 国产毛片久久久久久国产毛片| 日韩毛片免费视频一级特黄| 欧美国产极速在线| 欧美偷拍视频| 欧美精品日日鲁夜夜添| 久久视频免费看| 久久久久久日产精品| 天天干天天av| 在线综合欧美| 一区二区三区四区五区精品| 18国产精品| 欧美精品18videos性欧| 日本黄在线观看| 欧美精选午夜久久久乱码6080| 国产18无套直看片| 日本午夜精品一区二区三区电影| 蜜桃在线一区二区三区精品| 日韩毛片免费视频一级特黄| 91国产视频在线播放| 97超碰人人在线| 欧美日韩国产中文| 亚洲色图100p| 成人深夜在线观看| 午夜免费看视频| a91a精品视频在线观看| 一区二区三区我不卡| 久久资源综合| 91在线视频免费| 久久uomeier| 欧美福利小视频| 高清中文字幕一区二区三区| 亚洲成人网在线| 99国产在线播放| 91国模大尺度私拍在线视频| 欧美黄色免费观看| 国产精品精品国产色婷婷| 中文字幕狠狠干| 国产成人精品综合在线观看 | 国产一区二区三区四区五区| 99久久无色码| 草草视频在线观看| 久久天堂电影网| 国产精品二线| 日韩高清av在线| 亚洲av无码乱码在线观看性色| 一区二区三区高清不卡| 天天摸日日摸狠狠添| 99久久er热在这里只有精品15| 人妻内射一区二区在线视频| 欧美精品麻豆| 超碰在线免费观看97| 精品美女在线视频| 久久爱av电影| 六月丁香久久丫| 国产精品成人国产乱一区| 密臀av在线播放| 久久久久成人精品| 午夜av在线播放| 草民午夜欧美限制a级福利片| 人妻一区二区三区四区| 在线一区二区三区四区| 国产成人无码精品久在线观看 | 黄色精品在线观看| 中文字幕亚洲二区| 成年人在线观看| 亚洲一二在线观看| 成年在线电影| 日日骚av一区| 麻豆传媒视频在线观看免费| 日韩小视频网址| 欧美成年黄网站色视频| 久久精品91久久久久久再现| 香蕉视频免费在线看| 亚洲国产天堂久久综合网| 亚洲图片在线播放| 欧美日本高清视频在线观看| 在线免费a视频| 欧美猛男男办公室激情| 国产精品嫩草影院桃色| 日韩三级视频中文字幕| 亚洲成人av综合| 亚洲成色777777在线观看影院| 一级爱爱免费视频| 欧美视频在线观看免费| 欧美成人一二三区| 亚洲自拍另类综合| 亚洲视频免费播放| 色噜噜夜夜夜综合网| 最新国产中文字幕| 91精品中文字幕一区二区三区| 少妇高潮av久久久久久| 91国模大尺度私拍在线视频| 中文字幕乱码人妻二区三区| 色婷婷av一区二区| 亚洲视频在线免费播放| 欧美精品精品一区| 亚洲精品久久久蜜桃动漫| 亚洲精品白浆高清久久久久久| 国产a级免费视频| 亚洲第一中文字幕在线观看| 水中色av综合| 中国日韩欧美久久久久久久久| 在线观看xxx| 中文字幕成人在线| 性国产高清在线观看| 2019国产精品自在线拍国产不卡| 黄视频网站在线| 久久精彩免费视频| 嗯~啊~轻一点视频日本在线观看| 久久777国产线看观看精品| 特黄毛片在线观看| 国产精品偷伦视频免费观看国产 | 三区在线观看| 色青青草原桃花久久综合| 暖暖在线中文免费日本| 国产精品 欧美在线| 欧美欧美在线| 日韩一区国产在线观看| 国内久久视频| 污污的网站18| 成人av网站在线观看免费| 岛国片在线免费观看| 精品福利免费观看| 中文字幕在线日亚洲9| 在线看不卡av| 成人小说亚洲一区二区三区| 国产一区二区三区网站| av在线网页| 国产日韩在线亚洲字幕中文| 欧美性生活一级片| 国产女主播av| 日韩二区三区四区| 超碰97在线资源站| 又紧又大又爽精品一区二区| 成年人晚上看的视频| 亚洲第一国产精品| 免费网站成人| 国产精品白丝jk喷水视频一区| av免费在线一区| 久久久久久久有限公司| 国产一区二区三区四区二区| 亚洲视频在线二区| 久久午夜电影| 日本黄色片在线播放| 亚洲综合在线观看视频| 国产又粗又猛又黄又爽| 精品国产乱码久久久久久久| 天天影视久久综合| 日韩免费观看网站| 欧美自拍视频| 国产一区二区视频播放| 国产不卡高清在线观看视频| 亚洲欧洲日产国产网站| 亚洲黄色免费视频| 成人免费在线视频| 成年人av网站| 日韩成人在线视频观看| 自拍视频在线| 国产精品成人一区二区三区吃奶| **日韩最新| 中文字幕一区二区三区最新| 日韩高清一级片| 人妻aⅴ无码一区二区三区| 欧美日韩一区二区在线| 午夜视频免费在线| 欧美中文字幕精品| 久久91精品| 国内自拍视频一区| 国产午夜精品一区二区| 无码人妻丰满熟妇区五十路| 日韩一区二区中文字幕| 欧美香蕉爽爽人人爽| 日本不卡视频在线播放| 神马影视一区二区| 久久午夜夜伦鲁鲁一区二区| 国产欧美日韩视频一区二区| 欧美日韩a v| 最近2019中文免费高清视频观看www99| 麻豆福利在线观看| 国产精品日本一区二区| 日韩一级网站| 国产精品成人一区二区三区电影毛片| 亚洲免费观看高清完整版在线观看熊 | 成人一区二区免费视频| 成人动漫一区二区在线| 在线能看的av| 国产一区二区三区四区福利| 国外成人福利视频| 日本一区二区精品| 一区二区视频欧美| 国产三级国产精品| 欧美午夜影院一区| 国产三区在线观看| 国产精品一区二区三区成人| 91精品国产乱码久久久久久久 | 日韩欧美精品一区二区综合视频| 国产视频99| 日韩中文字幕不卡| 日本福利片在线观看| 亚洲国产成人av在线| 亚州一区二区三区| 自拍亚洲欧美老师丝袜| 成人综合在线观看| 久久久精品毛片| 欧美老少配视频| 亚洲+小说+欧美+激情+另类| 亚洲一区日韩精品| 五月激情六月综合| 色多多视频在线观看| 国产精品免费观看高清| 日本伊人午夜精品| 久久免费少妇高潮99精品| 亚洲色图激情小说| 国语精品视频| 久久久久人妻精品一区三寸| 国产精品免费免费| 三级网站免费观看| 国产玖玖精品视频| 91综合久久一区二区| 国产高潮视频在线观看| 欧美日韩国产综合一区二区| 草美女在线观看| 一区二区三区av| 26uuu国产电影一区二区| www五月天com| 久久91精品国产91久久久| 久久99精品久久久久久园产越南| 毛片av免费在线观看| 欧美高清在线精品一区|