中文分詞

分詞就是將連續的字序列按照一定的規範重新組合成詞序列的過程。我們知道,在英文的行文中,單詞之間是以空格作為自然分界符的,而中文只是字、句和段可以通過明顯的分界符來簡單劃界,唯獨詞沒有一個形式上的分界符,雖然英文也同樣存在短語的劃分問題,但是在詞這一層上,中文比之英文要複雜的多、困難的多。

意義和作用

要想說清楚中文分詞的意義和作用,就要提到智慧型計算技術。智慧型計算技術涉及的學科包括物理學、數學計算機科學電子機械通訊生理學進化理論心理學等等。簡單的說,智慧型計算就是讓機器“能看會想,能聽會講”。要想實現這樣的一個目標,首先就要讓機器理解人類的語言,只有機器理解了人類的語言文字,才使得人與機器的交流成為可能。再反觀我們人類的語言中,“詞是最小的能夠獨立活動的有意義的語言成分”,所以對於中文來講,將詞確定下來是理解自然語言的第一步,只有跨越了這一步,中文才能象英文那樣過渡到短語劃分、概念抽取以及主題分析,以至於自然語言理解,最終達到智慧型計算的最高境界,實現人類的夢想。
從現階段的實際情況來看,英文已經跨越了分詞這一步,也就是說在詞的利用上已經先我們一步,並且已經展現了良好的套用前景,無論是信息檢索還是主題分析的研究都要強於中文,究其根本原因就是中文要通過分詞這道難關,只有攻破了這道難關,我們才有希望趕上並超過英文在信息領域的發展,所以中文分詞對我們來說意義重大,可以說直接影響到使用中文的每一個人的方方面面。

套用

中文分詞主要套用於信息檢索、漢字的智慧型輸入中外文對譯中文校對自動摘要自動分類等很多方面。下面就以信息檢索為例來說明中文分詞的套用。
通過近幾年的發展,網際網路已經離我們不再遙遠。網際網路上的信息也在急劇膨脹,在這海量信息中,各類信息混雜在一起,要想充分利用這些信息資源就要對它們進行整理,如果由人來做這項工作,已經是不可能的,而如果面對中文信息不採用分詞技術,那么整理的結果就過於粗糙,而導致資源的不可用,例如:“製造業和服務業是兩個不同的行業”和“我們出口日本的和服比去年有所增長”中都有“和服”,而被當作同一類來處理,結果是檢索“和服”的相關信息,會將他們都檢索到,在信息量少的情況下,似乎還能夠忍受,如果是海量信息,這樣的結果就會令人討厭了。通過引入分詞技術,就可以使機器對海量信息的整理更準確更合理,在“製造業和服務業是兩個不同的行業”中“和服”不會被當做一個詞來處理,那么檢索“和服”當然不會將它檢索到,使得檢索結果更準確,效率也會大幅度的提高。
所以中文分詞的套用會改善我們的生活,使人們真正體會到科技為我所用。

分詞算法分類

現有的分詞算法可分為三大類:基於字元串匹配的分詞方法、基於理解的分詞方法和基於統計的分詞方法。按照是否與詞性標註過程相結合,又可以分為單純分詞方法和分詞與標註相結合的一體化方法。
1、字元串匹配分詞
這種方法又叫做機械分詞方法,它是按照一定的策略將待分析的漢字串與一個“充分大的”機器詞典中的詞條進行配,若在詞典中找到某個字元串,則匹配成功(識別出一個詞)。按照掃描方向的不同,串匹配分詞方法可以分為正向匹配和逆向匹配;按照不同長度優先匹配的情況,可以分為最大(最長)匹配和最小(最短)匹配;常用的幾種機械分詞方法如下:
1)正向最大匹配法(由左到右的方向);
2)逆向最大匹配法(由右到左的方向);
3)最少切分(使每一句中切出的詞數最小);
4)雙向最大匹配法(進行由左到右、由右到左兩次掃描)
還可以將上述各種方法相互組合,例如,可以將正向最大匹配方法和逆向最大匹配方法結合起來構成雙向匹配法。由於漢語單字成詞的特點,正向最小匹配和逆向最小匹配一般很少使用。一般說來,逆向匹配的切分精度略高於正向匹配,遇到的歧義現象也較少。統計結果表明,單純使用正向最大匹配的錯誤率為1/169,單純使用逆向最大匹配的錯誤率為1/245。但這種精度還遠遠不能滿足實際的需要。實際使用的分詞系統,都是把機械分詞作為一種初分手段,還需通過利用各種其它的語言信息來進一步提高切分的準確率。
一種方法是改進掃描方式,稱為特徵掃描或標誌切分,優先在待分析字元串中識別和切分出一些帶有明顯特徵的詞,以這些詞作為斷點,可將原字元串分為較小的串再來進機械分詞,從而減少匹配的錯誤率。另一種方法是將分詞和詞類標註結合起來,利用豐富的詞類信息對分詞決策提供幫助,並且在標註過程中又反過來對分詞結果進行檢驗、調整,從而極大地提高切分的準確率。
對於機械分詞方法,可以建立一個一般的模型,在這方面有專業的學術論文,這裡不做詳細論述。
2、理解分詞方法
這種分詞方法是通過讓計算機模擬人對句子的理解,達到識別詞的效果。其基本思想就是在分詞的同時進行句法、語義分析,利用句法信息和語義信息來處理歧義現象。它通常包括三個部分:分詞子系統、句法語義子系統、總控部分。在總控部分的協調下,分詞子系統可以獲得有關詞、句子等的句法和語義信息來對分詞歧義進行判斷,即它模擬了人對句子的理解過程。這種分詞方法需要使用大量的語言知識和信息。由於漢語語言知識的籠統、複雜性,難以將各種語言信息組織成機器可直接讀取的形式,因此目前基於理解的分詞系統還處在試驗階段。
3、統計分詞方法
從形式上看,詞是穩定的字的組合,因此在上下文中,相鄰的字同時出現的次數越多,就越有可能構成一個詞。因此字與字相鄰共現的頻率或機率能夠較好的反映成詞的可信度。可以對語料中相鄰共現的各個字的組合的頻度進行統計,計算它們的互現信息。定義兩個字的互現信息,計算兩個漢字X、Y的相鄰共現機率。互現信息體現了漢字之間結合關係的緊密程度。當緊密程度高於某一個閾值時,便可認為此字組可能構成了一個詞。這種方法只需對語料中的字組頻度進行統計,不需要切分詞典,因而又叫做無詞典分詞法或統計取詞方法。但這種方法也有一定的局限性,會經常抽出一些共現頻度高、但並不是詞的常用字組,例如“這一”、“之一”、“有的”、“我的”、“許多的”等,並且對常用詞的識別精度差,時空開銷大。實際套用的統計分詞系統都要使用一部基本的分詞詞典(常用詞詞典)進行串匹配分詞,同時使用統計方法識別一些新的詞,即將串頻統計和串匹配結合起來,既發揮匹配分詞切分速度快、效率高的特點,又利用了無詞典分詞結合上下文識別生詞、自動消除歧義的優點。
另外一類是基於統計機器學習的方法。首先給出大量已經分詞的文本,利用統計機器學習模型學習詞語切分的規律(稱為訓練),從而實現對未知文本的切分。我們知道,漢語中各個字單獨作詞語的能力是不同的,此外有的字常常作為前綴出現,有的字缺常常作為後綴(“者”“性”),結合兩個字相臨時是否成詞的信息,這樣就得到了許多與分詞有關的知識。這種方法就是充分利用漢語組詞的規律來分詞。這種方法的最大缺點是需要有大量預先分好詞的語料作支撐,而且訓練過程中時空開銷極大。
到底哪種分詞算法的準確度更高,目前並無定論。對於任何一個成熟的分詞系統來說,不可能單獨依靠某一種算法來實現,都需要綜合不同的算法。例如,海量科技的分詞算法就採用“複方分詞法”,所謂複方,就是像中西醫結合般綜合運用機械方法和知識方法。對於成熟的中文分詞系統,需要多種算法綜合處理問題。

熱門詞條

聯絡我們