都米网>健康养生>df888主页优惠|gensim词向量Word2Vec安装及《庆余年》中文短文本相似度计算 | CSDN博文精选

df888主页优惠|gensim词向量Word2Vec安装及《庆余年》中文短文本相似度计算 | CSDN博文精选

2020-01-10 14:11:44

df888主页优惠|gensim词向量Word2Vec安装及《庆余年》中文短文本相似度计算 | CSDN博文精选

df888主页优惠,作者 | eastmount

来源 | csdn博文精选

(*点击阅读原文,查看作者更多精彩文章)

本篇文章将分享gensim词向量word2vec安装、基础用法,并实现《庆余年》中文短文本相似度计算及多个案例。本专栏主要结合作者之前的博客、ai经验和相关文章及论文介绍,后面随着深入会讲解更多的python人工智能案例及应用。

基础性文章,希望对您有所帮助,如果文章中存在错误或不足之处,还请海涵~作者作为人工智能的菜鸟,希望大家能与我在这一笔一划的博客中成长起来。写了这么多年博客,尝试第一个付费专栏,但更多博客尤其基础性文章,还是会继续免费分享,但该专栏也会用心撰写,望对得起读者,共勉!

https://github.com/eastmountyxz/ai-for-tensorflow

文章目录

一、word2vec原理

统计语言模型

神经网络概率语言模型

词向量

word2vec

二、word2vec安装及入门

安装

基础用法

三、word2vec+dbscan短文本聚类及可视化

四、word2vec计算《庆余年》中文短文本相似度

五、word2vec写诗详解

六、总结

一、word2vec原理

作者第一次接触word2vec是2015年左右,那时候lda+word2vec系列的论文都比较火,现在图书情报领域应用也挺多的,而自然语言处理领域bilstm+cnn+attention相对流行。这个系列专栏不只是讲解tensorflow知识,也会围绕nlp和ai前沿技术及论文、图像识别、语义识别、数据挖掘、恶意代码识别、情报分析等案例进行补充,本文就带领大家走进word2vec的世界,希望能帮助到大家!

参考前文:word2vec词向量训练及中文文本相似度计算(https://blog.csdn.net/eastmount/article/details/50637476)

1.统计语言模型

统计语言模型的一般形式是给定已知的一组词,求解下一个词的条件概率。形式如下:

统计语言模型的一般形式直观、准确,n-gram模型中假设在不改变词语在上下文中的顺序前提下,距离相近的词语关系越近,距离较远的关联度越远,当距离足够远时,词语之间则没有关联度。

但该模型没有完全利用语料的信息:

(1) 没有考虑距离更远的词语与当前词的关系,即超出范围n的词被忽略了,而这两者很可能有关系的。

例如,“华盛顿是美国的首都”是当前语句,隔了大于n个词的地方又出现了“北京是中国的首都”,在n元模型中“华盛顿”和“北京”是没有关系的,然而这两个句子却隐含了语法及语义关系,即”华盛顿“和“北京”都是名词,并且分别是美国和中国的首都。

(2) 忽略了词语之间的相似性,即上述模型无法考虑词语的语法关系。

例如,语料中的“鱼在水中游”应该能够帮助我们产生“马在草原上跑”这样的句子,因为两个句子中“鱼”和“马”、“水”和“草原”、“游”和“跑”、“中”和“上”具有相同的语法特性。

而在神经网络概率语言模型中,这两种信息将充分利用到。

2.神经网络概率语言模型

神经网络概率语言模型是一种新兴的自然语言处理算法,该模型通过学习训练语料获取词向量和概率密度函数,词向量是多维实数向量,向量中包含了自然语言中的语义和语法关系,词向量之间余弦距离的大小代表了词语之间关系的远近,词向量的加减运算则是计算机在"遣词造句"。

神经网络概率语言模型经历了很长的发展阶段,由bengio等人2003年提出的神经网络语言模型nnlm(neural network language model)最为知名,以后的发展工作都参照此模型进行。历经十余年的研究,神经网络概率语言模型有了很大发展。如今在架构方面有比nnlm更简单的cbow模型、skip-gram模型;其次在训练方面,出现了hierarchical softmax算法、负采样算法(negative sampling),以及为了减小频繁词对结果准确性和训练速度的影响而引入的欠采样(subsumpling)技术。

上图是基于三层神经网络的自然语言估计模型nnlm(neural network language model)。nnlm可以计算某一个上下文的下一个词为wi的概率,即(wi=i|context),词向量是其训练的副产物,nnlm根据语料库c生成对应的词汇表v。

近年来,神经网络概率语言模型发展迅速,word2vec是最新技术理论的合集。word2vec是google公司在2013年开放的一款用于训练词向量的软件工具。所以,在讲述word2vec之前,先给大家介绍词向量的概念。

3.词向量

这里推荐licstar大神的nlp文章:deep learning in nlp (一)词向量和语言模型(http://licstar.net/archives/328)

正如作者所说:deep learning 算法已经在图像和音频领域取得了惊人的成果,但是在 nlp 领域中尚未见到如此激动人心的结果。有一种说法是,语言(词、句子、篇章等)属于人类认知过程中产生的高层认知抽象实体,而语音和图像属于较为底层的原始输入信号,所以后两者更适合做deep learning来学习特征。

但是将词用“词向量”的方式表示可谓是将deep learning算法引入nlp领域的一个核心技术。自然语言理解问题转化为机器学习问题的第一步都是通过一种方法把这些符号数学化。

词向量具有良好的语义特性,是表示词语特征的常用方式。词向量的每一维的值代表一个具有一定的语义和语法上解释的特征。故可以将词向量的每一维称为一个词语特征。词向量用distributed representation表示,一种低维实数向量。

例如,nlp中最直观、最常用的词表示方法是one-hot representation。每个词用一个很长的向量表示,向量的维度表示词表大小,绝大多数是0,只有一个维度是1,代表当前词。“话筒”表示为 [0 0 0 1 0 0 0 0 0 0 0 0 0 0 0 0 …] 即从0开始话筒记为3。

但这种one-hot representation采用稀疏矩阵的方式表示词,在解决某些任务时会造成维数灾难,而使用低维的词向量就很好的解决了该问题。同时从实践上看,高维的特征如果要套用deep learning,其复杂度几乎是难以接受的,因此低维的词向量在这里也饱受追捧。distributed representation低维实数向量,如:[0.792, −0.177, −0.107, 0.109, −0.542, …]。它让相似或相关的词在距离上更加接近。

总之,distributed representation是一个稠密、低维的实数限量,它的每一维表示词语的一个潜在特征,该特征捕获了有用的句法和语义特征。其特点是将词语的不同句法和语义特征分布到它的每一个维度上去表示。

4.word2vec

word2vec是google公司在2013年开放的一款用于训练词向量的软件工具。它根据给定的语料库,通过优化后的训练模型快速有效的将一个词语表达成向量形式,其核心架构包括cbow和skip-gram。

在开始之前,引入模型复杂度,定义如下:

其中,e表示训练的次数,t表示训练语料中词的个数,q因模型而异。e值不是我们关心的内容,t与训练语料有关,其值越大模型就越准确,q在下面讲述具体模型是讨论。

nnlm模型是神经网络概率语言模型的基础模型。在nnlm模型中,从隐含层到输出层的计算是主要影响训练效率的地方,cbow和skip-gram模型考虑去掉隐含层。实践证明新训练的词向量的精确度可能不如nnlm模型(具有隐含层),但可以通过增加训练语料的方法来完善。

word2vec包含两种训练模型,分别是cbow和skip_gram(输入层、发射层、输出层),如下图所示:

cbow模型:

理解为上下文决定当前词出现的概率。在cbow模型中,上下文所有的词对当前词出现概率的影响的权重是一样的,因此叫cbow(continuous bag-of-words model)模型。如在袋子中取词,取出数量足够的词就可以了,至于取出的先后顺序是无关紧要的。

skip-gram模型:

skip-gram模型是一个简单实用的模型。为什么会提出该模型呢?

在nlp中,语料的选取是一个相当重要的问题。

首先,语料必须充分。一方面词典的词量要足够大,另一方面尽可能地包含反映词语之间关系的句子,如“鱼在水中游”这种句式在语料中尽可能地多,模型才能学习到该句中的语义和语法关系,这和人类学习自然语言是一个道理,重复次数多了,也就会模型了。

其次,语料必须准确。所选取的语料能够正确反映该语言的语义和语法关系,如中文的《人民日报》比较准确。但更多时候不是语料选取引发准确性问题,而是处理的方法。

由于窗口大小的限制,这会导致超出窗口的词语与当前词之间的关系不能正确地反映到模型中,如果单纯扩大窗口大小会增加训练的复杂度。skip-gram模型的提出很好解决了这些问题。

skip-gram表示“跳过某些符号”。例如句子“中国足球踢得真是太烂了”有4个3元词组,分别是“中国足球踢得”、“足球踢得真是”、“踢得真是太烂”、“真是太烂了”,句子的本意都是“中国足球太烂”,可是上面4个3元组并不能反映出这个信息。

此时,使用skip-gram模型允许某些词被跳过,因此可组成“中国足球太烂”这个3元词组。如果允许跳过2个词,即2-skip-gram,那么上句话组成的3元词组为:

由上表可知:一方面skip-gram反映了句子的真实意思,在新组成的这18个3元词组中,有8个词组能够正确反映例句中的真实意思;另一方面,扩大了语料,3元词组由原来的4个扩展到了18个。语料的扩展能够提高训练的准确度,获得的词向量更能反映真实的文本含义。

word2vec总结

word2vec是通过深度学习将词表征为数值型向量的工具。它把文本内容简化处理,把词当做特征,word2vec将特征映射到k维向量空间,为文本数据寻求更加深层次的特征表示。word2vec获得的词向量可被用于聚类、找同义词、词性分析等。通过词之间的距离(如cosine相似度、欧氏距离等)来判断它们之间的语义相似度,采用一个三层的神经网络 “输入层-隐层-输出层”。word2vec有个核心的技术是根据词频用huffman编码 ,使得所有词频相似的词隐藏层激活的内容基本一致,出现频率越高的词语,他们激活的隐藏层数目越少,这样有效的降低了计算的复杂度。

word2vec优点如下:

高效、考虑词语上下文的语义关系

与潜在语义分析(latent semantic index, lsi)、潜在狄立克雷分配(latent dirichlet allocation,lda)的经典过程相比,word2vec利用了词的上下文,语义信息更加地丰富

在医疗项目(诊断报告)、短信舆情分析、社交网络评价分析等领域,短文本很常见,因此word2vec会达到很好的语义表征效果

ps:这里推荐大家阅读熊富林等老师论文《word2vec的核心架构及其应用》。

二.word2vec安装及入门

word2vec原理知识讲解完毕之后,我们开始尝试在anaconda的tensorflow环境中安装该扩展包。

1.安装

第一步,打开anaconda程序,并选择已经安装好的“tensorflow”环境,运行spyder。

第二步,我们需要在tensorflow环境中安装gensim扩展包,否则会提示错误“modulenotfounderror: no module named ‘gensim’”。调用anaconda prompt安装即可,如下图所示:

activate tensorflow

conda install gensim

但是,由于anaconda的.org服务器在国外,下载速度很慢,提示错误“anaconda an http error occurred when trying to retrieve this url.http errors are often intermittent”。

解决方法一:从国内清华的镜像下载,参考文章:配置清华pip镜像(https://blog.csdn.net/weixin_44479045/article/details/89817549)

解决方法二:从pypi网站(https://pypi.org/project/gensim/#files)下载对应版本的gensim,在再安装本地下载的.whl文件。

由于第一种方法一直失败,这里推荐读者尝试第二种方法,同时作者会将完整的实验环境上传供大家直接使用。

第三步,调用pip安装本地gensim扩展包。

pip install c:\users\xiuzhang\desktop\tensorflow\gensim-3.8.1-cp36-cp36m-win_amd64.whl

安装成功之后,开始编写我们的代码吧!

2.基础用法

第一步,调用random.choice随机生成数据集。

初始数据集为三个方向“人工智能”、“网络安全”和“网站开发”,然后调用choice函数随机选择某行数据,再从该行数据中4个词语随机挑选,最终形成1000行的数据集。

from random import choice

from gensim.models import word2vec

#----------------------------------数据集生成----------------------------------

# 定义初始数据集

ls_of_ls = [['python', '大数据', '人工智能', 'tensorflow'],

['网络安全', 'web渗透', 'sqlmap', 'burpsuite'],

['网站开发', 'java', 'mysql', 'html5']]

# 真实项目中为数据集中文分词(jieba.cut)后的词列表

ls_of_words =

for i in range(1000):

ls = choice(ls_of_ls) #随机选择某行数据集

ls_of_words.append([choice(ls) for _ in range(9, 15)])

print(ls_of_words)

输出部分结果如下所示,真实项目中会将中文预料分词,然后构建特征预料。

[['web渗透', 'sqlmap', 'burpsuite', 'sqlmap', 'web渗透', '网络安全'],

['html5', 'mysql', 'java', 'mysql', 'html5', 'mysql'],

['tensorflow', '大数据', '人工智能', 'python', 'tensorflow', '大数据'],

['tensorflow', '人工智能', '大数据', 'python', 'python', '大数据'],

['网络安全', 'burpsuite', '网络安全', 'sqlmap', 'burpsuite', '网络安全'],

['java', 'java', '网站开发', '网站开发', 'java', 'html5'],

....

['人工智能', '人工智能', 'python', 'python', 'tensorflow', 'tensorflow'],

['html5', 'java', '网站开发', '网站开发', 'mysql', '网站开发'],

['python', '大数据', 'python', 'tensorflow', 'python', '大数据'],

['mysql', 'mysql', 'html5', '网站开发', 'mysql', 'html5'],

['html5', 'mysql', 'mysql', 'java', 'java', '网站开发']

第二步,调用word2vec进行词向量训练,这里仅一个参数,即传入的数据集序列。

# 训练

model = word2vec(ls_of_words)

print(model)

其输出结果为模型,即word2vec(vocab=12, size=100, alpha=0.025)。参数含义如下:

sentences:传入的数据集序列(list of lists of tokens),默认值为none

size:词向量维数,默认值为100

window:同句中当前词和预测词的最大距离,默认值为5

min_count:最低词频过滤,默认值为5

workers:线程数,默认值为3

sg:模型参数,其值为0表示cbow,值为1表示skip-gram,默认值为0

hs:模型参数,其值为0表示负例采样,值为1表示层次softmax,默认值为0

negative:负例样本数,默认值为5

ns_exponent:用于形成负例样本的指数,默认值为0.75

cbow_mean:上下文词向量参数,其值为0表示上下文词向量求和值,值为1表示上下文词向量平均值,默认值为1

alpha:初始学习率,默认值为0.025

min_alpha:最小学习率,默认值为0.0001

第三步,计算两个词语之间的相似度、某个词语与所有词语的相似度。

print(model.wv.similar_by_word('tensorflow'))

print(model.wv.similarity('web渗透', 'sqlmap'))

输出结果如下图所示,可以发现“tensorflow”最相关的词语包括“人工智能”、“python”、“大数据”等,然后才是其他关键词,这就是所谓的基于上下文语义信息的相似度计算。在真实的数据集中,某个词如“人工智能”,经常和“cnn”同时出现,其相似度就较高;反之较低。通过该方法可以进行主题提取、文本分类、实体消歧等研究,比如将“体育”、“音乐”、“娱乐”、“学术”等不同主题新闻进行分类。

[('人工智能', 0.989766538143158),

('python', 0.9859075546264648),

('大数据', 0.9857005476951599),

('网络安全', 0.9730607271194458),

('java', 0.9701968431472778),

('html5', 0.9696391820907593),

('web渗透', 0.9695969820022583),

('sqlmap', 0.9685726165771484),

('burpsuite', 0.9682992696762085),

('网站开发', 0.9662492871284485)]

0.9881845

第四步,显示词语并计算词向量矩阵及相似度。

#-------------------------------词矩阵计算------------------------------

# 显示词

print("【显示词语】")

print(model.wv.index2word)

# 显示词向量矩阵

print("【词向量矩阵】")

vectors = model.wv.vectors

print(vectors)

print(vectors.shape)

# 显示四个词语最相关的相似度

print("【词向量相似度】")

for i in range(4):

print(model.wv.similar_by_vector(vectors[i]))

输出结果如下所示,可以看到我们的12个词语,每个词语会表示成一个100维的词向量,最终形状为(12,100)。接着计算四个词语的相似度,第一个词语是“tensorflow”,它与自身的相似度为1,与“人工智能”、“大数据”、“python”等高度相似。

【显示词语】

['tensorflow', 'mysql', '人工智能', '大数据', 'python', 'sqlmap', 'html5', '网站开发', 'burpsuite', 'java', 'web渗透', '网络安全']

【词向量矩阵】

[[-2.95917643e-03 -2.66699842e-03 -2.78887269e-03 ... -1.96327344e-02

-8.24492238e-03 1.00784563e-02]

[-1.68114714e-03 -1.09694153e-02 -5.14865573e-03 ... -1.93562061e-02

-8.51074420e-03 2.57991627e-02]

[-2.47456809e-03 -5.95887068e-05 -4.99962037e-03 ... -1.30442847e-02

-1.27229355e-02 9.84096527e-03]

...

[ 6.16406498e-04 -2.90613738e-03 3.06741858e-04 ... -9.37678479e-03

-5.20517444e-03 1.89058483e-02]

[-1.10806311e-02 -1.09268585e-02 -5.63549530e-03 ... -8.65904987e-03

-4.51919530e-03 2.01134961e-02]

[-1.34018352e-02 -1.60384644e-03 2.59250798e-03 ... -1.38302138e-02

-1.92157237e-03 1.76613722e-02]]

(12, 100)

【词向量相似度】

[('tensorflow', 1.0), ('人工智能', 0.9916591644287109), ('大数据', 0.9904486536979675), ('python', 0.9859318137168884), ...]

[('mysql', 1.0), ('网站开发', 0.9906301498413086), ('html5', 0.9899565577507019), ('java', 0.9862704277038574), ...]

[('人工智能', 0.9999999403953552), ('tensorflow', 0.9916592836380005), ('大数据', 0.9901371598243713), ('python', 0.984708309173584), ...]

[('大数据', 1.0), ('tensorflow', 0.9904486536979675), ('人工智能', 0.9901370406150818), ('python', 0.9863395690917969), ...]

第五步,调用predict_output_word函数预测新词,并计算器概率总和。

print("【预测新词】")

print(model.predict_output_word(['人工智能']))

total = sum(i[1] for i in model.predict_output_word(['人工智能']))

print('概率总和为%.2f' % total)

输出结果如下所示:

【预测新词】

[('网站开发', 0.08391691), ('网络安全', 0.08386225), ('sqlmap', 0.08367824),

('html5', 0.08365326), ('burpsuite', 0.083473735), ('web渗透', 0.08326004),

('tensorflow', 0.08323507), ('java', 0.08317445), ('mysql', 0.08317307),

('python', 0.08307663)]

概率总和为0.83

完整代码为:

# -*- coding: utf-8 -*-

"""

created on mon dec 23 17:48:50 2019

@author: xiuzhang eastmount csdn

"""

from random import choice

from gensim.models import word2vec

#----------------------------------数据集生成----------------------------------

# 定义初始数据集

ls_of_ls = [['python', '大数据', '人工智能', 'tensorflow'],

['网络安全', 'web渗透', 'sqlmap', 'burpsuite'],

['网站开发', 'java', 'mysql', 'html5']]

# 真实项目中为数据集中文分词(jieba.cut)后的词列表

ls_of_words =

for i in range(1000):

ls = choice(ls_of_ls) #随机选择某行数据集

ls_of_words.append([choice(ls) for _ in range(9, 15)])

print(ls_of_words)

#----------------------------------词向量训练----------------------------------

# 训练

model = word2vec(ls_of_words)

print(model)

#-------------------------------计算词语之间相似度------------------------------

print(model.wv.similar_by_word('tensorflow'))

print(model.wv.similarity('web渗透', 'sqlmap'))

#-------------------------------词矩阵计算------------------------------

# 显示词

print("【显示词语】")

print(model.wv.index2word)

# 显示词向量矩阵

print("【词向量矩阵】")

vectors = model.wv.vectors

print(vectors)

print(vectors.shape)

# 显示四个词语最相关的相似度

print("【词向量相似度】")

for i in range(4):

print(model.wv.similar_by_vector(vectors[i]))

#-------------------------------预测新词------------------------------

print("【预测新词】")

print(model.predict_output_word(['人工智能']))

total = sum(i[1] for i in model.predict_output_word(['人工智能']))

print('概率总和为%.2f' % total)

写到这里,word2vec基础用法介绍完毕,接下来我们将结合具体案例分享中文短文本相似度的分析。同时,本文实验参考了很多yellow_python大神的文章,真心推荐大家学习,他的地址为:https://blog.csdn.net/yellow_python。

三、word2vec+dbscan短文本聚类及可视化

首先我们用word2vec结合dbscan对上一部分的案例进行聚类分析及可视化展示,预测的类标为:[0 0 0 1 0 1 1 1 2 2 2 2],对应的图如下所示,其显示的结果挺好的。

接着我们来看看完整的代码,详细过程见注释。

# -*- coding: utf-8 -*-

"""

created on mon dec 23 17:48:50 2019

@author: xiuzhang eastmount csdn

"""

from random import choice

from gensim.models import word2vec

from sklearn.cluster import dbscan

import matplotlib

from mpl_toolkits import mplot3d

import matplotlib.pyplot as plt

#----------------------------------数据集生成----------------------------------

# 定义初始数据集

ls_of_ls = [['python', '大数据', '人工智能', 'tensorflow'],

['网络安全', 'web渗透', 'sqlmap', 'burpsuite'],

['网站开发', 'java', 'mysql', 'html5']]

# 真实项目中为数据集中文分词(jieba.cut)后的词列表

ls_of_words =

for i in range(2000):

ls = choice(ls_of_ls) #随机选择某行数据集

ls_of_words.append([choice(ls) for _ in range(9, 15)])

print(ls_of_words)

#----------------------------------词向量训练----------------------------------

# 训练 size词向量维数3 window预测距离7

model = word2vec(ls_of_words, size=3, window=7)

print(model)

# 提取词向量

vectors = [model[word] for word in model.wv.index2word]

#----------------------------------词向量聚类----------------------------------

# 基于密度的dbscan聚类

labels = dbscan(eps=0.24, min_samples=3).fit(vectors).labels_

print(labels)

#----------------------------------可视化显示----------------------------------

plt.rcparams['font.sans-serif'] = ['simhei'] # 显示中文

matplotlib.rcparams['axes.unicode_minus'] = false # 显示负号

fig = plt.figure

ax = mplot3d.axes3d(fig) # 创建3d坐标轴

colors = ['red', 'blue', 'green', 'black']

# 绘制散点图 词语 词向量 类标(颜色)

for word, vector, label in zip(model.wv.index2word, vectors, labels):

ax.scatter(vector[0], vector[1], vector[2], c=colors[label], s=500, alpha=0.4)

ax.text(vector[0], vector[1], vector[2], word, ha='center', va='center')

plt.show

假设我们从中国知网抓取了四个主题论文的关键词,包括数据挖掘、民族、数学、文学。每个主题包括220篇论文,其关键词均空格连接(已分词),如下图所示。

接着通过读取数据集,并转换成词向量序列进行聚类,最终输出结果如下图所示,效果不是很理想,后续深入分析。

完整代码如下图所示:

# -*- coding: utf-8 -*-

"""

created on mon dec 23 17:48:50 2019

@author: xiuzhang eastmount csdn

"""

from gensim.models import word2vec

from sklearn.cluster import kmeans

import matplotlib

from mpl_toolkits import mplot3d

import matplotlib.pyplot as plt

#----------------------------------加载语料----------------------------------

file_name = "data_fc.txt"

ls_of_words =

f = open(file_name, encoding='utf-8')

for lines in f.readlines:

words = lines.strip.split(" ")

#print(words)

ls_of_words.append(words)

print(ls_of_words)

#----------------------------------词向量训练----------------------------------

# 训练 size词向量维数100 vocab单词200

model = word2vec(sentences=ls_of_words, size=100, window=10)

print(model)

# 提取词向量

vectors = [model[word] for word in model.wv.index2word]

print(len(model.wv.index2word))

#----------------------------------词向量聚类----------------------------------

# 基于kmeans聚类

labels = kmeans(n_clusters=4).fit(vectors).labels_

print(labels)

#----------------------------------可视化显示----------------------------------

plt.rcparams['font.sans-serif'] = ['simhei'] # 显示中文

matplotlib.rcparams['axes.unicode_minus'] = false # 显示负号

fig = plt.figure

ax = mplot3d.axes3d(fig) # 创建3d坐标轴

colors = ['red', 'blue', 'green', 'black']

# 绘制散点图 词语 词向量 类标(颜色)

for word, vector, label in zip(model.wv.index2word, vectors, labels):

ax.scatter(vector[0], vector[1], vector[2], c=colors[label], s=500, alpha=0.4)

ax.text(vector[0], vector[1], vector[2], word, ha='center', va='center')

plt.show

四、word2vec计算《庆余年》中文短文本相似度

第一步,我们下载《庆余年》txt小说,编码方式设置为“utf-8”。

第二步,调用jieba工具进行中文分词,安装调用“pip install jieba”。

中文分词代码如下所示:

import os

import jieba

from gensim.models import word2vec

from gensim.models import word2vec

#----------------------------------中文分词----------------------------------

# 定义中文分词后文件名

file_name = "庆余年.txt"

cut_file = "庆余年_cut.txt"

# 文件读取操作

f = open(file_name, 'r', encoding='utf-8')

text = f.read

# jieba分词

new_text = jieba.cut(text, cut_all=false) #精确模式

# 过滤标点符号

str_out = ' '.join(new_text).replace(',', '').replace('。', '').replace('?', '').replace('!', '') \

.replace('“', '').replace('”', '').replace(':', '').replace('…', '').replace('(', '').replace(')', '') \

.replace('—', '').replace('《', '').replace('》', '').replace('、', '').replace('‘', '') \

.replace('’', '')

# 输出文件

fo = open(cut_file, 'w', encoding='utf-8')

# 写入操作

fo.write(str_out)

f.close

fo.close

第三步,调用word2vec进行上下文语义相似度计算,代码如下。

这里的亮点是代码中判断是否训练,如果存在训练模型文件,则直接调用

#----------------------------------训练模型----------------------------------

save_model_name = '庆余年.model'

# 判断训练的模型文件是否存在

if not os.path.exists(save_model_name): # 模型训练

sentences = word2vec.text8corpus(cut_file) # 加载语料

model = word2vec(sentences, size=200) # 训练skip-gram模型

model.save(save_model_name)

# 二进制类型保存模型 后续直接使用

model.wv.save_word2vec_format(save_model_name + ".bin", binary=true)

else:

print('此训练模型已经存在,不用再次训练')

#----------------------------------预测结果----------------------------------

# 加载已训练好的模型

model = word2vec.load(save_model_name)

# 计算两个词的相似度/相关程度

res1 = model.wv.similarity("范闲", "林婉儿")

print(u"范闲和林婉儿的相似度为:", res1, "\n")

# 计算某个词的相关词列表

res2 = model.wv.most_similar("范闲", topn=10) # 10个最相关的

print(u"和 [范闲] 最相关的词有:\n")

for item in res2:

print(item[0], item[1])

print("-------------------------------\n")

# 计算某个词的相关词列表

res3 = model.wv.most_similar("五竹", topn=10) # 10个最相关的

print(u"和 [五竹] 最相关的词有:\n")

for item in res3:

print(item[0], item[1])

print("-------------------------------\n")

最终输出结果如下所示:

此训练模型已经存在,不用再次训练

范闲和林婉儿的相似度为: 0.76498425

和 [范闲] 最相关的词有:

他 0.8427201509475708

婉儿 0.7699953317642212

林婉儿 0.7649842500686646

洪竹 0.7614920139312744

她 0.7607567310333252

夏栖飞 0.7595056891441345

言冰云 0.7514396905899048

杨万里 0.7514225840568542

明青达 0.7475594282150269

五竹 0.7399575710296631

-------------------------------

和 [五竹] 最相关的词有:

肖恩 0.7810727953910828

言冰云 0.7754340171813965

他 0.7447681427001953

范闲 0.7399576902389526

她 0.7292275428771973

婉儿 0.7235128879547119

海棠 0.721315860748291

洪竹 0.7139796018600464

陈萍萍 0.7094859480857849

林婉儿 0.6981754302978516

-------------------------------

注:该部分思路参考了笑傲苍穹老师的思想,推荐大家学习:中文word2vec的python实现(https://blog.csdn.net/sinat_29694963/article/details/79177832)

五、word2vec写诗详解

最后补充一段yellow_python大神的写诗博客,这里强烈推荐大家学习他的论文,ai和nlp系列每篇都是精华。博客地址:python程序写诗【训练1分钟】古诗生成 - yellow_python(https://blog.csdn.net/yellow_python/article/details/86726619)

基本流程如下:

首先,存在一个“古诗词.txt”数据集,包含了43101首诗,通过该数据集进行训练。

接着,读取古诗词数据,通过 ls_of_ls_of_c = [list(line.strip()) for line in f] 代码将古诗词拆分成单个字,每首诗句里面的字都有上下文。

然后,调用word2vec进行训练,转换成词向量并保存模型。

最后,输入标题进行补全,根据标题四个字进行语义查找,计算每个字的相似度,最终形成对应的诗句。核心代码为:model.predict_output_word(poem[-self.window:], max(self.topn, len(poem) + 1))

完整代码如下:

# -*- coding: utf-8 -*-

"""

created on mon dec 23 17:48:50 2019

@author: xiuzhang eastmount csdn

博客原地址:https://blog.csdn.net/yellow_python/article/details/86726619

推荐大家学习yellow_python大神的文章

"""

from gensim.models import word2vec # 词向量

from random import choice

from os.path import exists

class conf:

path = '古诗词.txt'

window = 16 # 滑窗大小

min_count = 60 # 过滤低频字

size = 125 # 词向量维度

topn = 14 # 生成诗词的开放度

model_path = 'word2vec'

# 定义模型

class model:

def __init__(self, window, topn, model):

self.window = window

self.topn = topn

self.model = model # 词向量模型

self.chr_dict = model.wv.index2word # 字典

"""模型初始化"""

@classmethod

def initialize(cls, config):

if exists(config.model_path):

# 模型读取

model = word2vec.load(config.model_path)

else:

# 语料读取

with open(config.path, encoding='utf-8') as f:

ls_of_ls_of_c = [list(line.strip()) for line in f]

# 模型训练和保存

model = word2vec(sentences=ls_of_ls_of_c, size=config.size, window=config.window, min_count=config.min_count)

model.save(config.model_path)

return cls(config.window, config.topn, model)

"""古诗词生成"""

def poem_generator(self, title, form):

filter = lambda lst: [t[0] for t in lst if t[0] not in [',', '。']]

# 标题补全

if len(title) < 4:

if not title:

title += choice(self.chr_dict)

for _ in range(4 - len(title)):

similar_chr = self.model.similar_by_word(title[-1], self.topn // 2)

similar_chr = filter(similar_chr)

char = choice([c for c in similar_chr if c not in title])

title += char

# 文本生成

poem = list(title)

for i in range(form[0]):

for _ in range(form[1]):

predict_chr = self.model.predict_output_word(poem[-self.window:], max(self.topn, len(poem) + 1))

predict_chr = filter(predict_chr)

char = choice([c for c in predict_chr if c not in poem[len(title):]])

poem.append(char)

poem.append(',' if i % 2 == 0 else '。')

length = form[0] * (form[1] + 1)

return '《%s》' % ''.join(poem[:-length]) + '\n' + ''.join(poem[-length:])

def main(config=conf):

form = {'五言绝句': (4, 5), '七言绝句': (4, 7), '对联': (2, 9)}

m = model.initialize(config)

while true:

title = input('输入标题:').strip

try:

poem = m.poem_generator(title, form['五言绝句'])

print('%s' % poem) # red

poem = m.poem_generator(title, form['七言绝句'])

print('%s' % poem) # yellow

poem = m.poem_generator(title, form['对联'])

print('%s' % poem) # purple

print

except:

pass

if __name__ == '__main__':

main

输出结果如下图所示:

比如输入“武大”,输出的五言绝句、七严绝句如下所示,注意“勋旗旌虏战”这句话在我们的“古诗词.txt”中是找不到的,而是因为“勋”和“旗”存在相似度语义所致。

输入标题:武大

《武大震甲》

勋旗旌虏战,戎阵勇军旆。营鼓兵猎烽,嫖卒戍蕃马。

《武大运德》

皇德圣功昭谟臣,勋尧宣祀祚肃禋。舜庆睿礼雍昌承,爰启旒穆恭崇嘉。

《武大震建》

王宣昌帝昭皇祀穆圣,臣尧谟德恭孝礼祚肃。

六、总结

写到这里,这篇文章就讲解完毕,不知道您是否体会到了word2vec的强大功能。但如果您从事论文研究,您会发现它真是无处不在,从数据挖掘、自然语言处理大数据、人工智能,再到情感分析、图书情报、医学本体识别等,甚至恶意代码识别也有它的身影。但它写得诗也有辞藻堆砌的感觉,后续我们学到强化学习的时候,再对比它们的效果。

本文详细介绍了word2vec的基本原理,通过案例代码详细介绍了word2vec的用法。最后,希望这篇基础性文章对您有所帮助,如果文章中存在错误或不足之处,还请海涵~作为人工智能的菜鸟,我希望自己能不断进步并深入,后续将它应用于图像识别、网络安全、对抗样本等领域,指导大家撰写简单的学术论文,一起加油!

ps:这是作者的第一个付费专栏,会非常用心的去撰写,希望能对得起读者的9块钱。本来只想设置1快的,但csdn固定了价格。写了八年的免费文章,这也算知识付费的一个简单尝试吧!毕竟读博也不易,写文章也花费时间和精力,但作者更多的文章会免费分享。如果您购买了该专栏,有python数据分析、图像处理、人工智能、网络安全的问题,我们都可以深入探讨,尤其是做研究的同学,共同进步~

参考文献

[1] word2vec词向量训练及中文文本相似度计算 - 作者的文章

https://blog.csdn.net/eastmount/article/details/50637476

[2] 《word2vec的核心架构及其应用》· 熊富林,邓怡豪,唐晓晟 · 北邮2015年

[3] 《word2vec的工作原理及应用探究》 · 周练 · 西安电子科技大学2014年

[4] word2vec——高效word特征求取 - 推荐rachel-zhang大神文章

https://blog.csdn.net/abcjennifer/article/details/46397829

[5] deep learning in nlp (一)词向量和语言模型 - licstar大神

http://licstar.net/archives/328

[6] gensim词向量word2vec - yellow_python(强推)

https://blog.csdn.net/yellow_python/article/details/84347878

[7] word2vec函数参数 - 冥更

https://blog.csdn.net/qq_24852439/article/details/85302172

[8] nlp之词向量:利用word2vec对20类新闻文本数据集进行词向量训练、测试(某个单词的相关词汇) - 一个处女座的程序猿

https://blog.csdn.net/qq_41185868/article/details/88344822

[9]gensim中word2vec python源码理解(一)初始化构建单词表 - forcedoverflow

https://blog.csdn.net/u014568072/article/details/79071116

[10] https://github.com/aryeyellow/pyprojects

[11] python程序写诗【训练1分钟】古诗生成 - yellow_python

https://blog.csdn.net/yellow_python/article/details/86726619

[12] 机器学习100问|word2vec是如何工作的?它和lda有什么区别与联系?

https://cloud.tencent.com/developer/article/1464953

[13] https://github.com/eastmountyxz/ai-for-tensorflow

[14] windows下使用word2vec训练维基百科中文语料全攻略!(三)- 文哥的学习日记

https://www.jianshu.com/p/83b742994946

[15] nlp之——word2vec详解 - 郭耀华

https://www.cnblogs.com/guoyaohua/p/9240336.html

[16] 中文word2vec的python实现 - 笑傲苍穹0

https://blog.csdn.net/sinat_29694963/article/details/79177832

作者theano人工智能系列:

[python人工智能] 一.神经网络入门及theano基础代码讲解

https://blog.csdn.net/eastmount/article/details/80363106

[python人工智能] 二.theano实现回归神经网络分析

https://blog.csdn.net/eastmount/article/details/80390462

[python人工智能] 三.theano实现分类神经网络及机器学习基础

https://blog.csdn.net/eastmount/article/details/80432844

[python人工智能] 四.神经网络和深度学习入门知识

https://blog.csdn.net/eastmount/article/details/80499259

[python人工智能] 五.theano实现神经网络正规化regularization处理

https://blog.csdn.net/eastmount/article/details/80536725

[python人工智能] 六.神经网络的评价指标、特征标准化和特征选择

https://blog.csdn.net/eastmount/article/details/80650980

[python人工智能] 七.加速神经网络、激励函数和过拟合

https://blog.csdn.net/eastmount/article/details/80757556

技术的道路一个人走着极为艰难?

一身的本领得不施展?

优质的文章得不到曝光?

  • 最新新闻