精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

仿造百度實現基于Lucene.net全文檢索

開發 后端
Lucene.Net只能對文本信息進行檢索。如果不是文本信息,要轉換為文本信息,比如要檢索Excel文件,就要用NPOI把Excel讀取成字符串,然后把字符串扔給Lucene.Net。

Lucene.Net

Lucene.net是Lucene的.net移植版本,是一個開源的全文檢索引擎開發包,即它不是一個完整的全文檢索引擎,而是一個全文檢索引擎的架構,是一個Library.你也可以把它理解為一個將索引,搜索功能封裝的很好的一套簡單易用的API(提供了完整的查詢引擎和索引引擎)。利用這套API你可以做很多有關搜索的事情,而且很方便.。開發人員可以基于Lucene.net實現全文檢索的功能。

注意:Lucene.Net只能對文本信息進行檢索。如果不是文本信息,要轉換為文本信息,比如要檢索Excel文件,就要用NPOI把Excel讀取成字符串,然后把字符串扔給Lucene.Net。Lucene.Net會把扔給它的文本切詞保存,加快檢索速度。

更多概念性的知識可以參考這篇博文:http://blog.csdn.net/xiucool/archive/2008/11/28/3397182.aspx

這個小Demo樣例展示:

ok,接下來就細細詳解下士怎樣一步一步實現這個效果的。

Lucene.Net 核心——分詞算法(Analyzer)

學習Lucune.Net,分詞是核心。當然最理想狀態下是能自己擴展分詞,但這要很高的算法要求。Lucene.Net中不同的分詞算法就是不同的類。所有分詞算法類都從Analyzer類繼承,不同的分詞算法有不同的優缺點。

內置的StandardAnalyzer是將英文按照空格、標點符號等進行分詞,將中文按照單個字進行分詞,一個漢字算一個詞

  1. Analyzer analyzer = new StandardAnalyzer();  
  2. TokenStream tokenStream = analyzer.TokenStream("",new StringReader("Hello Lucene.Net,我1愛1你China"));  
  3. Lucene.Net.Analysis.Token token = null;  
  4. while ((token = tokenStream.Next()) != null)  
  5. {  
  6.     Console.WriteLine(token.TermText());  

分詞后結果:

二元分詞算法,每兩個漢字算一個單詞,“我愛你China”會分詞為“我愛 愛你 china”,點擊查看二元分詞算法CJKAnalyzer。

  1. Analyzer analyzer = new CJKAnalyzer();  
  2. TokenStream tokenStream = analyzer.TokenStream(""new StringReader("我愛你中國China中華人名共和國"));  
  3. Lucene.Net.Analysis.Token token = null;  
  4. while ((token = tokenStream.Next()) != null)  
  5. {  
  6.     Response.Write(token.TermText()+"<br/>");  

這時,你肯定在想,上面沒有一個好用的,二元分詞算法亂槍打鳥,很想自己擴展Analyzer,但并不是算法上的專業人士。怎么辦?

天降圣器,盤古分詞,點擊下載

#p#

Lucene.Net核心類簡介(一)

Directory表示索引文件(Lucene.net用來保存用戶扔過來的數據的地方)保存的地方,是抽象類,兩個子類FSDirectory(文件中)、RAMDirectory (內存中)。

IndexReader對索引進行讀取的類,對IndexWriter進行寫的類。

IndexReader的靜態方法bool IndexExists(Directory directory)判斷目錄directory是否是一個索引目錄。IndexWriter的bool IsLocked(Directory directory) 判斷目錄是否鎖定,在對目錄寫之前會先把目錄鎖定。兩個IndexWriter沒法同時寫一個索引文件。IndexWriter在進行寫操作的時候會自動加鎖,close的時候會自動解鎖。IndexWriter.Unlock方法手動解鎖(比如還沒來得及close IndexWriter 程序就崩潰了,可能造成一直被鎖定)。

創建索引庫操作:

構造函數:IndexWriter(Directory dir, Analyzer a, bool create, MaxFieldLength mfl)因為IndexWriter把輸入寫入索引的時候,Lucene.net是把寫入的文件用指定的分詞器將文章分詞(這樣檢索的時候才能查的快),然后將詞放入索引文件。

void AddDocument(Document doc),向索引中添加文檔(Insert)。Document類代表要索引的文檔(文章),最重要的方法Add(Field field),向文檔中添加字段。Document是一片文檔,Field是字段(屬性)。Document相當于一條記錄,Field相當于字段。

Field類的構造函數 Field(string name, string value, Field.Store store, Field.Index index, Field.TermVector termVector): name表示字段名; value表示字段值; store表示是否存儲value值,可選值 Field.Store.YES存儲, Field.Store.NO不存儲,Field.Store.COMPRESS壓縮存儲;默認只保存分詞以后的一堆詞,而不保存分詞之前的內容,搜索的時候無法根據分詞后的東西還原原文,因此如果要顯示原文(比如文章正文)則需要設置存儲。 index表示如何創建索引,可選值Field.Index. NOT_ANALYZED ,不創建索引,Field.Index. ANALYZED,創建索引;創建索引的字段才可以比較好的檢索。是否碎尸萬段!是否需要按照這個字段進行“全文檢索”。 termVector表示如何保存索引詞之間的距離。“北京歡迎你們大家”,索引中是如何保存“北京”和“大家”之間“隔多少單詞”。方便只檢索在一定距離之內的詞。

  1. private void CreateIndex()  
  2.         {  
  3.             //索引庫存放在這個文件夾里  
  4.             string indexPath = ConfigurationManager.AppSettings["pathIndex"];  
  5.             //Directory表示索引文件保存的地方,是抽象類,兩個子類FSDirectory表示文件中,RAMDirectory 表示存儲在內存中  
  6.             FSDirectory directory = FSDirectory.Open(new DirectoryInfo(indexPath), new NativeFSLockFactory());  
  7.             //判斷目錄directory是否是一個索引目錄。  
  8.             bool isUpdate = IndexReader.IndexExists(directory);  
  9.             logger.Debug("索引庫存在狀態:"+isUpdate);  
  10.             if (isUpdate)  
  11.             {  
  12.                 if (IndexWriter.IsLocked(directory))  
  13.                 {  
  14.                     IndexWriter.Unlock(directory);  
  15.                 }  
  16.             }  
  17.             //第三個參數為是否創建索引文件夾,Bool Create,如果為True,則新創建的索引會覆蓋掉原來的索引文件,反之,則不必創建,更新即可。  
  18.             IndexWriter write = new IndexWriter(directory, new PanGuAnalyzer(), !isUpdate, IndexWriter.MaxFieldLength.UNLIMITED);  
  19.  
  20.             WebClient wc = new WebClient();  
  21.             //編碼,防止亂碼  
  22.             wc.Encoding = Encoding.UTF8;  
  23.             int maxID;  
  24.             try 
  25.             {  
  26.                 //讀取rss,獲得第一個item中的鏈接的編號部分就是最大的帖子編號  
  27.                 maxID = GetMaxID();  
  28.             }  
  29.             catch (WebException webEx)  
  30.             {  
  31.                 logger.Error("獲得最大帖子號出錯",webEx);  
  32.                 return;  
  33.                   
  34.             }  
  35.             for (int i = 1; i <= maxID; i++)  
  36.             {  
  37.                 try 
  38.                 {  
  39.                     string url = "http://localhost:8080/showtopic-" + i + ".aspx";  
  40.                     logger.Debug("開始下載:"+url);  
  41.                     string html = wc.DownloadString(url);  
  42.                     HTMLDocumentClass doc = new HTMLDocumentClass();  
  43.  
  44.                     doc.designMode = "on";//不讓解析引擎嘗試去執行  
  45.                     doc.IHTMLDocument2_write(html);  
  46.                     doc.close();  
  47.  
  48.                     string title = doc.title;  
  49.                     string body = doc.body.innerText;  
  50.                     //為避免重復索引,先輸出number=i的記錄,在重新添加  
  51.                     write.DeleteDocuments(new Term("number", i.ToString()));  
  52.  
  53.                     Document document = new Document();  
  54.                     //Field為字段,只有對全文檢索的字段才分詞,Field.Store是否存儲  
  55.                     document.Add(new Field("number", i.ToString(), Field.Store.YES, Field.Index.NOT_ANALYZED));  
  56.                     document.Add(new Field("title", title, Field.Store.YES, Field.Index.NOT_ANALYZED));  
  57.                     document.Add(new Field("body", body, Field.Store.YES, Field.Index.ANALYZED, Field.TermVector.WITH_POSITIONS_OFFSETS));  
  58.                     write.AddDocument(document);  
  59.                     logger.Debug("索引" + i.ToString() + "完畢");  
  60.                 }  
  61.                 catch (WebException webEx)  
  62.                 {  
  63.  
  64.                     logger.Error("下載"+i.ToString()+"失敗",webEx);  
  65.                 }  
  66.  
  67.             }  
  68.             write.Close();  
  69.             directory.Close();  
  70.             logger.Debug("全部索引完畢");  
  71.         }  
  72.         //取最大帖子號  
  73.         private int GetMaxID()  
  74.         {  
  75.             XDocument xdoc = XDocument.Load("Http://localhost:8080/tools/rss.aspx");  
  76.             XElement channel = xdoc.Root.Element("channel");  
  77.             XElement fitstItem = channel.Elements("item").First();  
  78.             XElement link = fitstItem.Element("link");  
  79.             Match match = Regex.Match(link.Value, @"http://localhost:8080/showtopic-(\d+)\.aspx");  
  80.             string id = match.Groups[1].Value;  
  81.             return Convert.ToInt32(id);  
  82.         } 

這樣就創建了索引庫,利用WebClient爬去所有網頁的內容,這兒需要你添加引用Microsoft mshtml組件,MSHTML是微軟公司的一個COM組件,該組件封裝了HTML語言中的所有元素及其屬性,通過其提供的標準接口,可以訪問指定網頁的所有元素。

當然,創建索引庫最好定時給我們自動創建,類似于Windows計劃任務。

這兒你可以了解Quartz.Net

首先添加對其(我這個版本有兩個,一個是Quartz.dll,還有一個是Common.Logging)的引用,貌似兩個缺一不可,否則會報錯,類似于文件路徑錯誤。

在Global里配置如下:

  1. public class Global : System.Web.HttpApplication  
  2.  {  
  3.      private static ILog logger = LogManager.GetLogger(typeof(Global));  
  4.      private IScheduler sched;  
  5.      protected void Application_Start(object sender, EventArgs e)  
  6.      {  
  7.          //控制臺就放在Main  
  8.          logger.Debug("Application_Start");  
  9.          log4net.Config.XmlConfigurator.Configure();  
  10.          //從配置中讀取任務啟動時間  
  11.          int indexStartHour = Convert.ToInt32(ConfigurationManager.AppSettings["IndexStartHour"]);  
  12.          int indexStartMin = Convert.ToInt32(ConfigurationManager.AppSettings["IndexStartMin"]);  
  13.          ISchedulerFactory sf = new StdSchedulerFactory();  
  14.          sched = sf.GetScheduler();  
  15.          JobDetail job = new JobDetail("job1""group1"typeof(IndexJob));//IndexJob為實現了IJob接口的類  
  16.          Trigger trigger = TriggerUtils.MakeDailyTrigger("tigger1", indexStartHour, indexStartMin);//每天10點3分執行  
  17.          trigger.JobName = "job1";  
  18.          trigger.JobGroup = "group1";  
  19.          trigger.Group = "group1";  
  20.  
  21.          sched.AddJob(job, true);  
  22.          sched.ScheduleJob(trigger);  
  23.          //IIS啟動了就不會來了  
  24.          sched.Start();  
  25.      }  
  26.      protected void Session_Start(object sender, EventArgs e)  
  27.      {  
  28.      }  
  29.      protected void Application_BeginRequest(object sender, EventArgs e)  
  30.      {  
  31.      }  
  32.      protected void Application_AuthenticateRequest(object sender, EventArgs e)  
  33.      {  
  34.      }  
  35.      protected void Application_Error(object sender, EventArgs e)  
  36.      {  
  37.          logger.Debug("網絡出現未處理異常:",HttpContext.Current.Server.GetLastError());  
  38.      }  
  39.      protected void Session_End(object sender, EventArgs e)  
  40.      {  
  41.      }  
  42.      protected void Application_End(object sender, EventArgs e)  
  43.      {  
  44.          logger.Debug("Application_End");  
  45.          sched.Shutdown(true);  
  46.      }  
  47.  } 

最后我們的Job去做任務,但需要實現IJob接口

  1. public class IndexJob:IJob  
  2.     {  
  3.         private ILog logger = LogManager.GetLogger(typeof(IndexJob));  
  4.         public void Execute(JobExecutionContext context)  
  5.         {  
  6.             try 
  7.             {  
  8.                 logger.Debug("索引開始");  
  9.                 CreateIndex();  
  10.                 logger.Debug("索引結束");  
  11.             }  
  12.             catch (Exception ex)  
  13.             {  
  14.                 logger.Debug("啟動索引任務異常", ex);  
  15.             }  
  16.         }  

Ok,我們的索引庫建立完了,接下來就是搜索了。

#p#

Lucene.Net核心類簡介(二)

IndexSearcher是進行搜索的類,構造函數傳遞一個IndexReader。IndexSearcher的void Search(Query query, Filter filter, Collector results)方法用來搜索,Query是查詢條件, filter目前傳遞null, results是檢索結果,TopScoreDocCollector.create(1000, true)方法創建一個Collector,1000表示最多結果條數,Collector就是一個結果收集器。

Query有很多子類,PhraseQuery是一個子類。 PhraseQuery用來進行多個關鍵詞的檢索,調用Add方法添加關鍵詞,query.Add(new Term("字段名", 關鍵詞)),PhraseQuery. SetSlop(int slop)用來設置關鍵詞之間的最大距離,默認是0,設置了Slop以后哪怕文檔中兩個關鍵詞之間沒有緊挨著也能找到。 query.Add(new Term("字段名", 關鍵詞)) query.Add(new Term("字段名", 關鍵詞2)) 類似于:where 字段名 contains 關鍵詞 and 字段名 contais 關鍵詞。

調用TopScoreDocCollector的GetTotalHits()方法得到搜索結果條數,調用Hits的TopDocs TopDocs(int start, int howMany)得到一個范圍內的結果(分頁),TopDocs的scoreDocs字段是結果ScoreDoc數組, ScoreDoc 的doc字段為Lucene.Net為文檔分配的id(為降低內存占用,只先返回文檔id),根據這個id調用searcher的Doc方法就能拿到Document了(放進去的是Document,取出來的也是Document);調用doc.Get("字段名")可以得到文檔指定字段的值,注意只有Store.YES的字段才能得到,因為Store.NO的沒有保存全部內容,只保存了分割后的詞。

搜索的代碼:

查看盤古分詞文檔找到高亮顯示:

  1. private string Preview(string body,string keyword)  
  2.  {  
  3.      PanGu.HighLight.SimpleHTMLFormatter simpleHTMLFormatter = new PanGu.HighLight.SimpleHTMLFormatter("<font color=\"Red\">","</font>");  
  4.      PanGu.HighLight.Highlighter highlighter = new PanGu.HighLight.Highlighter(simpleHTMLFormatter, new Segment());  
  5.      highlighter.FragmentSize = 100;  
  6.      string bodyPreview = highlighter.GetBestFragment(keyword, body);  
  7.      return bodyPreview;  
  8.  } 

因為我們頁面剛進入需要加載熱詞,為了減輕服務端壓力,緩存的使用能使我們解決這一問題。

既然是熱詞,當然是最近幾天搜索量最多的,故Sql語句需要考慮指定的時間之內的搜索數量的排序。

  1. public IEnumerable<Model.SearchSum> GetHotWords()  
  2.         {   
  3.             //緩存  
  4.             var data=HttpRuntime.Cache["hotwords"];  
  5.             if (data==null)  
  6.             {  
  7.                 IEnumerable<Model.SearchSum> hotWords = DoSelect();  
  8.                 HttpRuntime.Cache.Insert("hotwords",hotWords,null,DateTime.Now.AddMilliseconds(30),TimeSpan.Zero );  
  9.                 return hotWords;  
  10.             }  
  11.             return (IEnumerable<Model.SearchSum>)data;  
  12.         }  
  13.         private IEnumerable<Model.SearchSum> DoSelect()  
  14.         {  
  15.             DataTable dt = SqlHelper.ExecuteDataTable(@"  
  16. select top 5 Keyword,count(*) as searchcount  from keywords   
  17. where datediff(day,searchdatetime,getdate())<7  
  18. group by Keyword   
  19. order by count(*) desc ");  
  20.             List<Model.SearchSum> list = new List<Model.SearchSum>();  
  21.             if (dt!=null&&dt.Rows!=null&&dt.Rows.Count>0)  
  22.             {  
  23.                 foreach (DataRow row in dt.Rows)  
  24.                 {  
  25.                     Model.SearchSum oneModel=new Model.SearchSum ();  
  26.                     oneModel.Keyword = Convert.ToString(row["keyword"]);  
  27.                     oneModel.SearchCount = Convert.ToInt32(row["SearchCount"]);  
  28.                     list.Add(oneModel);  
  29.                 }  
  30.             }  
  31.             return list;  
  32.         } 

搜索建議,類似于Baidu搜索時下拉提示框,Jquery UI模擬,下面是獲取根據搜索數量最多的進行排序,得到IEnumerable<Model.SearchSum>集合

  1.  public IEnumerable<Model.SearchSum> GetSuggestion(string kw)  
  2.         {  
  3.             DataTable dt = SqlHelper.ExecuteDataTable(@"select top 5 Keyword,count(*) as searchcount  from keywords   
  4. where datediff(day,searchdatetime,getdate())<7  
  5. and keyword like @keyword  
  6. group by Keyword   
  7. order by count(*) desc",new SqlParameter("@keyword","%"+kw+"%"));  
  8.             List<Model.SearchSum> list = new List<Model.SearchSum>();  
  9.             if (dt != null && dt.Rows != null && dt.Rows.Count > 0)  
  10.             {  
  11.                 foreach (DataRow row in dt.Rows)  
  12.                 {  
  13.                     Model.SearchSum oneModel = new Model.SearchSum();  
  14.                     oneModel.Keyword = Convert.ToString(row["keyword"]);  
  15.                     oneModel.SearchCount = Convert.ToInt32(row["SearchCount"]);  
  16.                     list.Add(oneModel);  
  17.                 }  
  18.             }  
  19.             return list;  
  20.         } 

最關鍵的搜索代碼,詳見注釋和上面Lucene.Net核心類二:

  1. protected void Page_Load(object sender, EventArgs e)  
  2.  {  
  3.      //加載熱詞  
  4.  
  5.      hotwordsRepeater.DataSource = new Dao.KeywordDao().GetHotWords();  
  6.      hotwordsRepeater.DataBind();  
  7.      kw = Request["kw"];  
  8.      if (string.IsNullOrWhiteSpace(kw))  
  9.      {  
  10.          return;  
  11.      }  
  12.      //處理:將用戶的搜索記錄加入數據庫,方便統計熱詞  
  13.      Model.SerachKeyword model = new Model.SerachKeyword();  
  14.      model.Keyword = kw;  
  15.      model.SearchDateTime = DateTime.Now;  
  16.      model.ClinetAddress = Request.UserHostAddress;  
  17.  
  18.      new Dao.KeywordDao().Add(model);  
  19.      //分頁控件  
  20.      MyPage pager = new MyPage();  
  21.      pager.TryParseCurrentPageIndex(Request["pagenum"]);  
  22.      //超鏈接href屬性  
  23.      pager.UrlFormat = "CreateIndex.aspx?pagenum={n}&kw=" + Server.UrlEncode(kw);  
  24.        
  25.      int startRowIndex = (pager.CurrentPageIndex - 1) * pager.PageSize;  
  26.  
  27.  
  28.      int totalCount = -1;  
  29.      List<SearchResult> list = DoSearch(startRowIndex,pager.PageSize,out totalCount);  
  30.      pager.TotalCount = totalCount;  
  31.      RenderToHTML = pager.RenderToHTML();  
  32.      dataRepeater.DataSource = list;  
  33.      dataRepeater.DataBind();  
  34.  }  
  35.  
  36.  private List<SearchResult> DoSearch(int startRowIndex,int pageSize,out int totalCount)  
  37.  {  
  38.      string indexPath = "C:/Index";  
  39.      FSDirectory directory = FSDirectory.Open(new DirectoryInfo(indexPath), new NoLockFactory());  
  40.      IndexReader reader = IndexReader.Open(directory, true);  
  41.      //IndexSearcher是進行搜索的類  
  42.      IndexSearcher searcher = new IndexSearcher(reader);  
  43.      PhraseQuery query = new PhraseQuery();  
  44.        
  45.      foreach (string word in CommonHelper.SplitWord(kw))  
  46.      {  
  47.          query.Add(new Term("body", word));  
  48.      }  
  49.      query.SetSlop(100);//相聚100以內才算是查詢到  
  50.      TopScoreDocCollector collector = TopScoreDocCollector.create(1024, true);//最大1024條記錄  
  51.      searcher.Search(query, null, collector);  
  52.      totalCount = collector.GetTotalHits();//返回總條數  
  53.      ScoreDoc[] docs = collector.TopDocs(startRowIndex, pageSize).scoreDocs;//分頁,下標應該從0開始吧,0是第一條記錄  
  54.      List<SearchResult> list = new List<SearchResult>();  
  55.      for (int i = 0; i < docs.Length; i++)  
  56.      {  
  57.          int docID = docs[i].doc;//取文檔的編號,這個是主鍵,lucene.net分配  
  58.          //檢索結果中只有文檔的id,如果要取Document,則需要Doc再去取  
  59.          //降低內容占用  
  60.          Document doc = searcher.Doc(docID);  
  61.          string number = doc.Get("number");  
  62.          string title = doc.Get("title");  
  63.          string body = doc.Get("body");  
  64.  
  65.          SearchResult searchResult = new SearchResult() { Number = number, Title = title, BodyPreview = Preview(body, kw) };  
  66.          list.Add(searchResult);  
  67.  
  68.      }  
  69.      return list;  
  70.  } 

#p#

Jquery UI模擬Baidu下拉提示和數據的綁定

  1. <script type="text/javascript">  
  2.      $(function () {  
  3.          $("#txtKeyword").autocomplete(  
  4.          {   source: "SearchSuggestion.ashx",  
  5.              select: function (event, ui) { $("#txtKeyword").val(ui.item.value); $("#form1").submit(); }  
  6.          });  
  7.      });  
  8.  </script> 
  1. <div align="center">  
  2.         <input type="text" id="txtKeyword" name="kw" value='<%=kw %>'/>  
  3.         <%-- <asp:Button ID="createIndexButton" runat="server" onclick="searchButton_Click"   
  4.             Text="創建索引庫" />--%>  
  5.         <input type="submit" name="searchButton" value="搜索" style="width: 91px" /><br />  
  6.     </div>  
  7.     <br />  
  8.     <ul id="hotwordsUL">  
  9.           <asp:Repeater ID="hotwordsRepeater" runat="server">  
  10.             <ItemTemplate>  
  11.                 <li><a href='CreateIndex.aspx?kw=<%#Eval("Keyword") %>'><%#Eval("Keyword") %></a></li>  
  12.             </ItemTemplate>  
  13.           </asp:Repeater>  
  14.     </ul>  
  15.     &nbsp;<br />  
  16.     
  17.     <asp:Repeater ID="dataRepeater" runat="server" EnableViewState="true">  
  18.         <HeaderTemplate>  
  19.             <ul>  
  20.         </HeaderTemplate>  
  21.         <ItemTemplate>  
  22.             <li>  
  23.                 <a href='http://localhost:8080/showtopic-<%#Eval("Number") %>.aspx'><%#Eval("Title") %></a>  
  24.                 <br />  
  25.                 <%#Eval("BodyPreview") %>  
  26.               
  27.             </li>  
  28.         </ItemTemplate>  
  29.         <FooterTemplate>  
  30.         </ul>  
  31.         </FooterTemplate>  
  32.     </asp:Repeater>  
  33.     <br />  
  34.     <div class="pager"><%=RenderToHTML%></div> 

點擊附件下載:

原文鏈接:http://www.cnblogs.com/OceanEyes/archive/2012/07/31/2616178.html

【編輯推薦】

  1. 發布一個自己寫的企業站源碼
  2. YQBlog .NET MVC3博客系統之用戶系統實戰
  3. ASP.NET MVC涉及到的5個同步與異步
  4. ASP.NET 餐飲管理系統制作
  5. ASP.NET Cache的一些總結
責任編輯:張偉 來源: 木宛城主的博客
相關推薦

2010-09-07 09:44:44

Lucene.NETHubbleDotNe

2012-08-30 10:20:55

Lucene分布式全文檢索

2013-12-22 22:46:12

百度李彥宏

2014-07-25 17:12:39

數據庫WOT2014MongoDB

2013-08-22 17:08:50

2010-11-10 14:18:15

SQL SERVER全

2025-09-09 01:55:00

StarBlog權重高亮

2024-06-11 10:03:56

2012-05-28 22:51:53

百度

2018-09-06 18:37:45

百度云

2012-10-19 09:47:30

百度云百度音樂云計算

2013-06-27 10:23:30

百度云百度開放云

2014-09-04 02:25:24

百度世界大會2014直達號BaiduEye

2011-10-21 09:28:25

百度地圖API

2011-12-05 09:58:02

百度易手機Android3000元

2011-06-03 16:04:05

SEO分詞

2020-12-03 06:13:46

iOS

2016-03-25 11:18:23

中華網

2015-09-22 10:36:30

百度媒體云人臉識別
點贊
收藏

51CTO技術棧公眾號

欧美极品欧美精品欧美图片| 91精品婷婷国产综合久久蝌蚪| 亚洲精品第三页| 99免在线观看免费视频高清| 久久精品999| 欧美成人高清视频| 国产高清999| free性欧美16hd| 久久免费精品国产久精品久久久久| 国产成人免费av电影| 欧美视频一区二区在线| 精品一级视频| 红桃视频成人在线观看| 日本一区美女| 国产夫绿帽单男3p精品视频| 亚洲免费激情| 中文字幕亚洲情99在线| 亚洲天堂国产视频| 成年女人在线看片| 中文字幕精品三区| 国产精品毛片一区视频| 天天爽夜夜爽夜夜爽精品| sdde在线播放一区二区| 日韩一级在线观看| 精品一卡二卡三卡| 成人亚洲性情网站www在线观看| 狠狠网亚洲精品| 91成人福利在线| 艳妇荡乳欲伦69影片| 欧美成人午夜77777| 欧美日韩精品欧美日韩精品| 成人免费观看cn| 三区四区电影在线观看| av资源网一区| 亚洲aⅴ日韩av电影在线观看 | 欧美国产欧美综合| 99久久自偷自偷国产精品不卡| 欧美一级淫片免费视频黄| 亚洲欧美一级二级三级| 日韩黄色高清视频| 一级淫片在线观看| 亚洲第一二三四区| 亚洲一本大道在线| 一本一生久久a久久精品综合蜜| 天堂av在线免费| 国产最新精品精品你懂的| 国产91精品久| 国产亚洲精品成人| 婷婷亚洲图片| 伊人久久久久久久久久久久久| 182在线视频| 91精品国产乱码久久蜜臀| 国产精品久久久久久久久久久久冷| 欧美特级黄色片| 亚洲国内精品| 九九精品在线视频| 国产探花在线视频| 欧美丝袜激情| 在线观看91久久久久久| 国产一区二区三区四区五区六区| 美国一区二区| 亚洲国产精品va在线看黑人 | 国内免费精品视频| 精品国产一区二区三区久久久蜜臀| 亚洲成人久久网| 一二三区视频在线观看| 伊人久久影院| 欧美亚洲高清一区二区三区不卡| 大肉大捧一进一出好爽视频| 欧美videossex| 亚洲人亚洲人成电影网站色| 亚洲在线观看一区| 91看片在线观看| 91丨porny丨蝌蚪视频| 精品国产乱码久久久久久郑州公司| 亚洲av无码一区二区三区性色| 卡一卡二国产精品| 国产综合久久久久| 91麻豆一区二区| 国产一区二区三区四区五区入口 | 国产av 一区二区三区| 91精品电影| 欧美人与性动交a欧美精品| 欧美日韩精品在线观看视频 | 久久福利免费视频| 自拍偷拍欧美| 97热精品视频官网| 日本三级一区二区| 久久精品成人| 国产在线日韩在线| www.亚洲天堂.com| 99re视频精品| 日韩不卡av| 色哟哟免费在线观看| 亚洲色图都市小说| 成人av在线不卡| 忘忧草在线影院两性视频| 亚洲国产一区视频| 啊啊啊一区二区| 国产第一亚洲| 精品欧美乱码久久久久久1区2区| 特级西西人体4444xxxx| 黑人操亚洲人| 久久在精品线影院精品国产| 久久精品视频日本| 亚洲激情女人| 国产精品国语对白| 亚洲AV无码成人片在线观看| wwwwww.欧美系列| 日日噜噜噜噜夜夜爽亚洲精品| 免费日本一区二区三区视频| 亚洲国产另类av| 亚洲综合在线网站| 国产一区二区三区| 精品国产乱码久久久久久久久 | 亚洲欧洲av一区二区| 国产又粗又猛又爽又黄的视频小说| 欧美一区久久| 国产精品99久久久久久白浆小说| 国产成人精品毛片| 26uuu另类欧美| 日本女人高潮视频| 欧美momandson| 欧美zozozo| 日本人亚洲人jjzzjjz| 亚洲调教视频在线观看| 国产成人精品在线观看| 狠狠躁夜夜躁av无码中文幕| 中文字幕av不卡| 国产在线精品91| 精品伊人久久| 宅男66日本亚洲欧美视频| 日韩精品久久久久久久酒店| 精品一区二区成人精品| 欧洲亚洲一区二区三区四区五区| 黄网站在线观| 91精品国产麻豆| 日韩一级片在线免费观看| 亚洲巨乳在线| 91超碰rencao97精品| jzzjzzjzz亚洲成熟少妇| 五月激情六月综合| 国产在线a视频| 久久激情电影| 国内精品一区二区三区| 999精品国产| 国产精品对白交换视频| 黄色高清无遮挡| 欧美日韩一本| 欧美精品激情blacked18| 国产精品一级二级| 国产精品久久久久9999吃药| 欧美一级片免费播放| 免费精品一区| 成年人精品视频| 97免费观看视频| 综合色天天鬼久久鬼色| 在线一区二区不卡| 欧美综合一区| 国产精品美女网站| 一区二区高清不卡| 欧美日韩国产bt| av在线免费播放网址| 美女国产精品| 日本一区高清不卡| 国产一区二区三区四区五区3d| 国产性色av一区二区| 精人妻无码一区二区三区| 99精品国产91久久久久久| 性一交一乱一伧国产女士spa| 国产精品色婷婷在线观看| 久久色在线播放| 国产精品久久777777换脸| 中文字幕在线观看一区二区| 色www免费视频| 天天射—综合中文网| 亚洲xxxxx| 蜜臀av在线| 亚洲精品国产精品久久清纯直播 | 天天操狠狠操夜夜操| 欧美色图激情小说| 国产精品视频色| 麻豆91在线| 欧美一区2区视频在线观看| 波多野结衣爱爱视频| 粉嫩嫩av羞羞动漫久久久 | 岛国一区二区三区高清视频| 亚洲欧美在线第一页| 艳妇荡乳欲伦69影片| 成人免费视频网站在线观看| 欧美日韩亚洲一| 99久久久久国产精品| 国产一区自拍视频| 九九久久国产| 午夜免费久久久久| 日本在线观看网站| 亚洲国产高潮在线观看| 在线观看免费观看在线| 一区二区三区毛片| 无码 人妻 在线 视频| 国产精品自拍在线| 91av俱乐部| 外国成人激情视频| 欧美不卡在线一区二区三区| 麻豆久久一区| 国产精品久久久久91| www在线看| 色偷偷噜噜噜亚洲男人| 天天干天天爽天天操| 欧美久久一区二区| 手机看片久久久| 亚洲综合激情另类小说区| 国产馆在线观看| 91免费版在线| 极品白嫩少妇无套内谢| 久久综合综合久久综合| 成熟老妇女视频| 一区二区高清| 国产激情片在线观看| 日本欧美视频| 欧美理论一区二区| 国产精品自在| av一区二区三区免费| 99精品在线免费观看| 国产精品福利在线| 北岛玲heyzo一区二区| 久久久久久高潮国产精品视| 免费在线看黄色| 中文字幕亚洲在线| 高清美女视频一区| 亚洲精选一区二区| 十八禁一区二区三区| 欧美一区二区精品| 99精品国产99久久久久久97| 欧美日韩一区二区三区在线看| 国产成人精品网| 亚洲国产精品久久不卡毛片 | 黄色av成人| 男同互操gay射视频在线看| 日韩情爱电影在线观看| 亚洲精品永久www嫩草| 精品国内自产拍在线观看视频 | 一本一道波多野结衣一区二区| 国产无遮挡又黄又爽又色| 一区二区日韩电影| 欧美精品成人久久| 亚洲一区二区三区四区在线免费观看| 18岁成人毛片| 一区二区三区在线观看国产| 精品国产欧美日韩不卡在线观看| 亚洲色图欧洲色图| 黄色一级片在线| 亚洲国产一区二区三区青草影视| 九九热只有精品| 亚洲二区在线视频| 在线观看中文字幕视频| 色综合久久中文综合久久牛| 男人天堂2024| 欧美偷拍一区二区| 91国产免费视频| 日韩精品一区二区三区蜜臀 | 精品久久免费| 国产91免费视频| 韩国女主播一区二区三区| 精品一区二区日本| 精品成av人一区二区三区| 图片区小说区区亚洲五月| 婷婷久久综合| 天堂8在线天堂资源bt| 国产精品一卡| 最近免费中文字幕中文高清百度| 青娱乐精品视频| 久久久久久久久久毛片| 高清国产午夜精品久久久久久| 精品视频站长推荐| 久久精品亚洲国产奇米99| 五月天免费网站| 亚洲最新在线观看| 国产精品va无码一区二区三区| 欧美视频一区在线| 精品人妻av一区二区三区| 日韩电影中文字幕在线观看| а√天堂中文在线资源bt在线| 久久久av亚洲男天堂| www555久久| 国产精品久久久久av| 999久久久精品一区二区| 奇米影视首页 狠狠色丁香婷婷久久综合| 第四色成人网| 91黄色在线看| 免费观看日韩电影| 91人人澡人人爽| 国产日产精品一区| 国产精品18p| 欧美午夜宅男影院| 乱精品一区字幕二区| 中文字幕欧美亚洲| av日韩中文| 国产精自产拍久久久久久蜜| 红杏成人性视频免费看| 亚洲一区不卡在线| 国产亚洲亚洲| 一级日本黄色片| 国产欧美一区二区精品婷婷| 欧美成人综合色| 欧美日韩国产三级| 日韩欧美电影在线观看| 欧美日韩电影在线观看| 99久久婷婷国产综合精品首页| 国产精品香蕉视屏| 亚洲91中文字幕无线码三区| www.亚洲天堂网| 成人免费毛片app| 日本一二三区在线观看| 一本一道综合狠狠老| 女人18毛片水真多18精品| 日韩一区二区欧美| 日韩欧美一区二区三区免费观看| 国产精品免费一区二区三区在线观看| 日本午夜一区| 日本三区在线观看| www国产精品av| 日本亚洲色大成网站www久久| 9191久久久久久久久久久| 电影在线一区| 日韩av手机在线看| 久久97精品| 日韩黄色短视频| 国产成人在线视频播放| 精品无码一区二区三区蜜臀| 欧洲一区二区三区在线| 男女污污视频在线观看| 668精品在线视频| 波多野结衣在线一区二区| 成人在线观看www| 久久99久久精品| 一本一本久久a久久| 欧美视频中文字幕| www 日韩| 国产精品视频最多的网站| 第四色成人网| mm1313亚洲国产精品无码试看| 久久这里只精品最新地址| 日本熟妇成熟毛茸茸| 精品999久久久| 国产免费拔擦拔擦8x在线播放 | 五月激情六月婷婷| 国内自拍欧美激情| 西瓜成人精品人成网站| 欧美在线观看成人| 久久久国产精品不卡| 午夜一级黄色片| 在线精品国产成人综合| 成人福利片在线| 色香蕉在线观看| 国产一区二区h| 国产在线观看免费av| 日韩av在线免费| 欧美理论影院| 亚洲国产精品视频一区| 久草精品在线观看| 国产三级国产精品国产国在线观看 | 伊人久久男人天堂| 91国产精品| avav在线播放| 久久久综合视频| 一级aaaa毛片| 欧美激情在线视频二区| 日韩免费电影在线观看| 中文字幕第21页| 亚洲日本在线天堂| 丰满熟女一区二区三区| 欧美亚洲第一区| 色综合久久网| 亚洲美女精品视频| 欧美日韩国产在线| av天在线观看| 成人羞羞视频免费| 久久九九精品| 一区二区国产精品精华液| 精品福利一区二区三区| 日韩av超清在线观看| 青青草影院在线观看| 成人爱爱电影网址| 亚洲精品91天天久久人人| 欧美日韩第一页| 欧美日韩一二三四| 中文写幕一区二区三区免费观成熟| 狠狠躁夜夜躁人人爽天天天天97| 一级毛片视频在线观看| 国产美女99p| 麻豆成人免费电影| 一级免费在线观看| 日韩中文字幕精品| 青青一区二区| 激情在线观看视频| 欧美日韩美女在线| 50度灰在线| 色就是色欧美| caoporn国产精品|