注意:pil安裝需要使用 pip install pillow 命令
1.首先需要把文字中的詞語先分割出來
使用jieba.cut()方法可以將一段文字中的中文詞條切割
2.選擇一張作為詞云的背景(要求輪廓清晰)
使用numpy.array()方法把轉化成陣列形式,為最終生成詞云做鋪墊
3.將統計好的詞按照頻率放入到指定的輪廓中
使用wordcloud()方法設定背景、字型、最多詞數、過濾噪音文字等 例項化
轉化成然後儲存為
from wordcloud import wordcloud # 詞云庫
import pil.image as image # 處理庫
import jieba # 中文文書處理庫
import numpy # 渲染
stopwords = # 定義過濾字
# 定義乙個中文的分詞函式
def chinese_word(text):
worldlist_jieba = jieba.cut(text) # 將文字中的詞條切割開來,生成的是乙個迭代器
wd_space_slipt = " ".join(worldlist_jieba) # 將分割開來的各個詞語用空格連線起來
return wd_space_slipt # 返回處理結果
with open("news.txt", encoding="utf-8") as f: # 開啟文字文件
text = f.read() # 讀取文件內容
cn_text = chinese_word(text) # 呼叫中文分詞函式,將中文詞條切割
mask_pic = numpy.array(image.open("china.jpg")) # 載入
# 生成詞云的核心**,可以指定背景顏色,字型,背景,最多詞數,過濾噪音文字
worldcloud = wordcloud(background_color='white', font_path='simkai.ttf', mask=mask_pic, max_words=3000,
stopwords=stopwords).generate(text)
image = worldcloud.to_image() # 轉化成
image.show() # 顯示生成的
worldcloud.to_file("pic.jpg") # 儲存為檔案
Python 利用wordloud製作詞云
本文首發於我的部落格 gongyanli.com 詞云github 前言 第一次使用wordcloud,然後記錄了自己的點滴,使用其實很簡單。我輸出的圖形看著不太美觀,後續可以深入研究,輸出自己想要的形狀。pip install wordcloud from wordcloud import wor...
乾貨收藏 python製作詞云
import matplotlib.pyplot as plt import jieba from wordcloud import wordcloud 1.讀入txt文字資料 text open r test.txt r read print text 2.結巴中文分詞,生成字串,預設精確模式,如...
第一次用Python製作詞云
用了一天時間終於做好第一張算是滿意的詞云了。網上的教程看了不少,還是有不少坑的。下面貼上我用的 author solarzhou usr bin env python coding utf 8 from os import path from wordcloud import wordcloud,s...