返回顶部
首页 > 资讯 > 后端开发 > Python >Note of Jieba ( 词云图实
  • 119
分享到

Note of Jieba ( 词云图实

云图NoteJieba 2023-01-31 00:01:51 119人浏览 八月长安

Python 官方文档:入门教程 => 点击学习

摘要

Note of Jieba jieba库是python 一个重要的第三方中文分词函数库,但需要用户自行安装。 一、jieba 库简介   (1) jieba 库的分词原理是利用一个中文词库,将待分词的内容与分词词库进行比对,通过图结构和动

Note of Jieba

jieba库是python 一个重要的第三方中文分词函数库,但需要用户自行安装。

一、jieba 库简介

 

(1) jieba 库的分词原理是利用一个中文词库,将待分词的内容与分词词库进行比对,通过图结构和动态规划方法找到最大概率的词组;除此之外,jieba 库还提供了增加自定义中文单词的功能。

(2) jieba 库支持3种分词模式:

精确模式:将句子最精确地切开,适合文本分析。

全模式:将句子中所以可以成词的词语都扫描出来,速度非常快,但是不能消除歧义。

索引擎模式:在精确模式的基础上,对长分词再次切分,提高召回率,适合搜索引擎分词。

二、安装库函数

(1) 在命令行下输入指令:

pip install jieba

(2) 安装进程:

 

 

三、调用库函数

(1) 导入库函数:import  <库名>

使用库中函数:<库名> . <函数名> (<函数参数>)

 

(2) 导入库函数:from  <库名>  import * ( *为通配符 )

使用库中函数:<函数名> (<函数参数>)

四、jieba 库函数

(1) 库函数功能

模式

函数

说明

精确模式

cut(s)

返回一个可迭代数据类型

lcut(s)

返回一个列表类型 (建议使用)

全模式

cut(s,cut_all=True)

输出s中所以可能的分词

lcut(s,cut_all=True)

返回一个列表类型 (建议使用)

搜索引擎模式

cut_for_search(s)

适合搜索引擎建立索引的分词结果

lcut_for_search(s)

返回一个列表类型 (建议使用)

自定义新词

add_word(w)

向分词词典中增加新词w

 

(2) 函数使用实例

五、对一篇文档进行词频统计

(1) jieba 库单枪匹马

A. 代码实现

注:代码使用的文档 >>> Detective_Novel(utf-8).zip [点击下载],也可自行找 utf-8 编码格式的txt文件。

 1 # -*- coding:utf-8 -*-
 2 from jieba import *
 3 
 4 def Replace(text,old,new): #替换列表的字符串
 5     for char in old:
 6         text = text.replace(char,new)
 7     return text
 8 
 9 def getText(filename): #读取文件内容(utf-8 编码格式)
10     #特殊符号和部分无意义的词
11     sign = '''!~·@¥……*“”‘’\n(){}【】;:"'「,」。-、?'''
12     txt = open('{}.txt'.fORMat(filename),encoding='utf-8').read()
13     return Replace(txt,sign," ")
14 
15 def Word_count(passage,N): #计算passage文件中的词频数,并将前N个输出
16     words = lcut(passage) #精确模式分词形式
17     counts = {}             #创建计数器 --- 字典类型
18     for word in words:      #消除同意义的词和遍历计数
19         if word == '小五' or word == '小五郎' or word == '五郎':
20             rword = '毛利'
21         elif word == '柯' or word == '南':
22             rword = '柯南'
23         elif word == '小' or word == '兰':
24             rword = '小兰'
25         elif word == '目' or word == '暮' or word == '警官':
26             rword = '暮目'
27         else:
28             rword = word
29         counts[rword] = counts.get(rword,0) + 1
30     excludes = lcut_for_search("你我事他和她在这也有什么的是就吧啊吗哦呢都了一个")
31     for word in excludes:   #除去意义不大的词语
32         del(counts[word])
33     items = list(counts.items()) #转换成列表形式
34     items.sort(key = lambda x : x[1], reverse = True ) #按次数排序
35     for i in range(N):     #依次输出
36         word,count = items[i]
37         print("{:<7}{:>6}".format(word,count))
38 
39 if __name__ == '__main__':
40     passage = getText('Detective_Novel')  #输入文件名称读入文件内容
41     word_count(passage,20) #调用函数得到词频数

 

B. 执行结果

 

(2) jieba 库 和 wordcloud 库 强强联合 --- 词云图

A. 代码实现

 1 # -*- coding:utf-8 -*-
 2 from wordcloud import WordCloud
 3 import matplotlib.pyplot as plt
 4 import numpy as np
 5 from PIL import Image
 6 from jieba import *
 7 
 8 def Replace(text,old,new): #替换列表的字符串
 9     for char in old:
10         text = text.replace(char,new)
11     return text
12 
13 def getText(filename): #读取文件内容(utf-8 编码格式)
14     #特殊符号和部分无意义的词
15     sign = '''!~·@¥……*“”‘’\n(){}【】;:"'「,」。-、?'''
16     txt = open('{}.txt'.format(filename),encoding='utf-8').read()
17     return Replace(txt,sign," ")
18 
19 def creat_word_cloud(filename): #将filename 文件的词语按出现次数输出为词云图
20     text = getText(filename) #读取文件
21     wordlist = lcut(text) #jieba库精确模式分词
22     wl = ' '.join(wordlist) #生成新的字符串
23 
24     #设置词云图
25     font = r'C:\windows\Fonts\simfang.ttf' #设置字体路径
26     wc = WordCloud(
27         background_color = 'black', #背景颜色
28         max_words = 2000,           #设置最大显示的词云数
29         font_path = font,           #设置字体形式(在本机系统中)
30         height = 1200,              #图片高度
31         width = 1600,               #图片宽度
32         max_font_size = 100,        #字体最大值
33         random_state = 100,         #配色方案的种类
34         )
35     myword = wc.generate(wl) #生成词云
36     #展示词云图
37     plt.imshow(myword)
38     plt.axis('off')
39     plt.show()
40     #以原本的filename命名保存词云图
41     wc.to_file('{}.png'.format(filename))
42 
43 if __name__ == '__main__':
44     creat_word_cloud('Detective_Novel') #输入文件名生成词云图

 

B. 执行结果

 

--结束END--

本文标题: Note of Jieba ( 词云图实

本文链接: https://lsjlt.com/news/181676.html(转载时请注明来源链接)

有问题或投稿请发送至: 邮箱/279061341@qq.com    QQ/279061341

猜你喜欢
  • Note of Jieba ( 词云图实
    Note of Jieba jieba库是python 一个重要的第三方中文分词函数库,但需要用户自行安装。 一、jieba 库简介   (1) jieba 库的分词原理是利用一个中文词库,将待分词的内容与分词词库进行比对,通过图结构和动...
    99+
    2023-01-31
    云图 Note Jieba
  • Python基于jieba分词实现snownlp情感分析
    情感分析(sentiment analysis)是2018年公布的计算机科学技术名词。 它可以根据文本内容判断出所代表的含义是积极的还是负面的,也可以用来分析文本中的意思是褒义还是贬...
    99+
    2023-01-30
    Python snownlp情感分析 Python 情感分析 Python snownlp
  • Python实现词云图词频统计
    目录一:安装必要的库二:数据分析 条形图可视化三:数据分析 词频统计 词云图可视化一:安装必要的库 导入必要的库 import collections # 词频统计库 import...
    99+
    2022-12-26
    Python词云图词频统计 Python词云图 Python 词频统计
  • 使用python生成云词图实现画红楼梦词云图
    目录在用Python绘制红楼梦词云图文章中讲到我们使用Python把红楼梦中的核心词汇给绘画出来了,但是,红楼梦这么唯美的书,给我们乌漆麻黑的搞了一张词云,宝宝们肯定接受不了 那怎...
    99+
    2024-04-02
  • Python——jieba优秀的中文分词库(基础知识+实例)
    Hello,World! 从去年开始学习Python,在长久的学习过程中,发现了许多有趣的知识,不断充实自己。今天我所写的内容也是极具趣味性,关于优秀的中文分词库——jieba库。 🏔关于Jieba         &...
    99+
    2023-09-18
    中文分词 自然语言处理
  • 利用词云图分析热词
    1.安装第三方库(matplotlib,jieba,wordcloud,numpy)   1.1安装方法:pip命令在线安装(python3.x默认安装了pip,pip下载地址:https://pypi.python.org/pypi/p...
    99+
    2023-01-30
    云图
  • 基于python + django + whoosh + jieba 分词器实现站内检索功能
    基于 python django 源码 前期准备 安装库: pip install django-haystack pip install whoosh pip install jieba 如果pip 安装超时...
    99+
    2022-06-10
    python django 分词器 python 站内检索
  • python如何实现生成词云图
    这篇文章主要介绍python如何实现生成词云图,文中介绍的非常详细,具有一定的参考价值,感兴趣的小伙伴们一定要看完!生成的词云图,如下:安装wordcloud,jieba,其他包自行安装:conda install -c conda-for...
    99+
    2023-06-05
  • Python selenium把歌词评论做成词云图
    目录前言本次目的本次用到的模块和包:驱动安装一、下载歌曲评论1.代码实现2.爬取评论运行效果二、制作词云图总结前言 一首歌热门了,参与评论的人也很多,这时无论好坏评论都来了,没有人控...
    99+
    2024-04-02
  • python词云图如何做
    要制作Python词云图,可以使用第三方库WordCloud。以下是一个简单的示例代码,演示如何使用WordCloud库生成词云图:...
    99+
    2024-04-09
    python
  • vue使用echarts词云图的实战记录
    echarts词云图是echarts的一个扩展 https://echarts.apache.org/zh/download-extension.html 1.安装依赖 &nb...
    99+
    2024-04-02
  • vue中使用词云图的实现方法
    这篇文章将为大家详细讲解有关vue中使用词云图的实现方法,文章内容质量较高,因此小编分享给大家做个参考,希望大家阅读完这篇文章后对相关知识有一定的了解。在vue中, 查找到有两种方法来实现词云图, 分别是echarts 和 highchar...
    99+
    2023-06-29
  • Java如何实现快速生成词云图
    本篇内容介绍了“Java如何实现快速生成词云图”的有关知识,在实际案例的操作过程中,不少人都会遇到这样的困境,接下来就让小编带领大家学习一下如何处理这些情况吧!希望大家仔细阅读,能够学有所成!下载并安装jar到本地maven库登录该网站,在...
    99+
    2023-07-05
  • vue中使用词云图的实现示例
    在vue中, 查找到有两种方法来实现词云图, 分别是echarts 和 highcharts Echarts: 注意,wordcloud对应的echarts版本有要求:echarts...
    99+
    2024-04-02
  • 利用python制作词云图
    目录 前言 一、使用步骤 1.下载所需库 2.引入库 3.打开文本 4.分词 5.生成词云图 6.保存文件 总结 前言         词云图是一种为了文本数据的视觉表示,由词汇组成类似云的彩色图形,当需要统计文本中出现词汇的规模大小时,...
    99+
    2023-09-08
    python matplotlib
  • python怎么制作词云图
    要制作词云图,可以借助Python中的wordcloud包来实现。首先,需要安装wordcloud包。可以使用以下命令安装:```p...
    99+
    2023-08-18
    python
  • Plotly怎么创建词云图
    要在Plotly中创建词云图,你可以使用plotly.express中的wordcloud函数。下面是一个简单的例子,展示了如何使用...
    99+
    2024-05-21
    Plotly
  • Python selenium如何把歌词评论做成词云图
    今天给大家介绍一下Python selenium如何把歌词评论做成词云图。文章的内容小编觉得不错,现在给大家分享一下,觉得有需要的朋友可以了解一下,希望对大家有所帮助,下面跟着小编的思路一起来阅读吧。前言一首歌热门了,参与评论的人...
    99+
    2023-06-26
  • 【Python】生成词云图太简单了|拿来就用能的词云图代码
    1 词云简介 词云也叫文字云,是一种可视化的结果呈现,常用在爬虫数据分析中,原理就是统计文本中高频出现的词,过滤掉某些干扰词,将结果生成一张图片,直观的获取数据的重点信息。今天,我们一起来学习一下Python生成词云的常用库「wordclo...
    99+
    2023-09-21
    python 开发语言 中文分词
  • Python爬取网易云歌曲评论实现词云图
    目录前言环境使用代码实现先是安装、导入所需模块1. 创建一个浏览器对象2. 执行自动化下拉页面, 直接下拉到页面的底部3.解析数据保存数据翻页保存为txt文件运行代码得到结果再做个词...
    99+
    2024-04-02
软考高级职称资格查询
编程网,编程工程师的家园,是目前国内优秀的开源技术社区之一,形成了由开源软件库、代码分享、资讯、协作翻译、讨论区和博客等几大频道内容,为IT开发者提供了一个发现、使用、并交流开源技术的平台。
  • 官方手机版

  • 微信公众号

  • 商务合作