這篇文章主要講解了“Python中jieba分詞模塊的用法”,文中的講解內(nèi)容簡單清晰,易于學(xué)習(xí)與理解,下面請大家跟著小編的思路慢慢深入,一起來研究和學(xué)習(xí)“Python中jieba分詞模塊的用法”吧!
類烏齊ssl適用于網(wǎng)站、小程序/APP、API接口等需要進(jìn)行數(shù)據(jù)傳輸應(yīng)用場景,ssl證書未來市場廣闊!成為成都創(chuàng)新互聯(lián)公司的ssl證書銷售渠道,可以享受市場價格4-6折優(yōu)惠!如果有意向歡迎電話聯(lián)系或者加微信:13518219792(備注:SSL證書合作)期待與您的合作!
0、前言
jieba庫是進(jìn)行中文分詞的利器,根據(jù)文檔描述,具有以下特點:
分詞
提取關(guān)鍵詞
搜索詞匯位置
在處理詞匯時,常常我們會提取出現(xiàn)頻率比較高的關(guān)鍵詞,jieba.analyse.extract_tags()具有此功能,它接受 4 個參數(shù)
3、搜索詞匯位置
jieba 庫也包含了定位詞匯位置的功能,jieba.tokenize() 可以實現(xiàn)此功能,該函數(shù)接收字符串,返回一個生成器,包含所有分詞結(jié)果以及始末位置,基本用法如下:
import jieba string = '今天天氣特別好,很開心' result = jieba.tokenize(string) print(list(result))
結(jié)果如下:
[('今天天氣', 0, 4), ('特別', 4, 6), ('好', 6, 7), (',', 7, 8), ('很', 8, 9), ('開心', 9, 11)]
如果我們只是找到某個特定的詞匯在文中的位置,拿之前的西游記文本為例,我們?nèi)ふ以~匯 “行者” 第一次出現(xiàn)的位置
with open('西游記.txt','r',errors='ignore')as f: data = f.read() result = jieba.tokenize(data) for i in result: if '行者' in i: print(i) break
結(jié)果:
('行者', 8593, 8595)
如此,就能很方便的找到特定詞匯在文章中出現(xiàn)的位置。
以上就是 jieba 庫的常用的方法,該庫還包括詞性標(biāo)注、并行分詞、命令行分詞、添加字典等等功能。
更詳細(xì)的內(nèi)容參考官方文檔:https://github.com/fxsjy/jieba
對該庫的算法感興趣的同學(xué)可參考
jieba分詞的基本思路:
https://segmentfault.com/a/1190000004061791
對Python中文分詞模塊結(jié)巴分詞算法過程的理解和分析:http://blog.csdn.net/rav009/article/details/12196623
感謝各位的閱讀,以上就是“Python中jieba分詞模塊的用法”的內(nèi)容了,經(jīng)過本文的學(xué)習(xí)后,相信大家對Python中jieba分詞模塊的用法這一問題有了更深刻的體會,具體使用情況還需要大家實踐驗證。這里是創(chuàng)新互聯(lián),小編將為大家推送更多相關(guān)知識點的文章,歡迎關(guān)注!