导航目录
1. 了解Gensim
Gensim(generate similarity)是一个简单高效的自然语言处理Python库,用于抽取文档的语义主题(semantic topics)。Gensim的输入是原始的、无结构的数字文本(纯文本),内置的算法包括Word2Vec,FastText,潜在语义分析(Latent Semantic Analysis,LSA),潜在狄利克雷分布(Latent Dirichlet Allocation,LDA)等,通过计算训练语料中的统计共现模式自动发现文档的语义结构。这些算法都是非监督的,这意味着不需要人工输入——仅仅需要一组纯文本语料。一旦发现这些统计模式后,任何纯文本(句子、短语、单词)就能采用语义表示简洁地表达。
1.1 特点
- Memory independence: 不需要一次性将整个训练语料读入内存,Gensim充分利用了Python内置的生成器(generator)和迭代器(iterator)用于流式数据处理,内存效率是Gensim设计目标之一。
- Memory sharing: 训练好的模型可以持久化到硬盘,和重载到内存。多个进程之间可以共享相同的数据,减少了内存消耗。
- 多种向量空间算法的高效实现: 包括Word2Vec,Doc2Vec,FastText,TF-IDF,LSA,LDA,随机映射等。
- 支持多种数据结构。
- 基于语义表示的文档相似度查询。
1.2 核心概念
1.2.1 corpus
一组纯文本的集合,在Gensim中,语料有两个角色:
- 模型训练的输入。此时语料用于自动训练机器学习模型,如LsiModel,LdaModel,模型使用训练语料发现公共主题,初始化模型参数。因为Gensim聚焦于非监督模型,因此无需人工干预。
- Documents to organize。模型训练好后,可以用于从新文档(训练语料中没有出现过的)抽取主题。
1.2.2 向量空间模型(vector space model,VSM)
在向量空间模型中,每一篇文档被表示成一组特征。特征可以认为是问答对(question-answer pair),例如:
- How many times does the word splonge appear in the document? Zero.
- How many paragraphs does the document consist of? Two.
- How many fonts does the document use? Five.
- 单词splonge在文档中出现过几次? 0
- 文档包含几个段落? 2
- 文档里包含几种字体? 5
通常对于每一个question分配一个id,因此这篇文档可以表示成一系列的二元对:
- (1, 0.0): 第1个问题, 答案是0.0
- (2, 2.0): 第2个问题, 答案是2.0
- (3, 5.0): 第3个问题, 答案是5.0
如果我们事先知道所有的question,我们可以隐式的省略这些id只保留answer序列,简写成:
- ( 0.0 , 2.0 , 5.0 )
这组answer序列就可以被认为是一个向量,用于代表这篇文档。
每一篇文档的questions都是相同的,因此在观察两个向量后,我们希望能够得到如下结论:两个向量很相似,因此原始文档一定也很相似。 当然,这个结论是否正确取决于questions选择的好坏。
我们最常用的词袋模型就是一种向量空间模型,question是词汇表中的词w i w_iwi是否出现在文档中,因此用词袋模型表示文档,向量的维度等于词汇表中单词的数量V。
1.2.3 sparse vector
为了节约空间,在Gensim中省略了所有值为0.0的元素,例如,对于上面的向量( 0.0 , 2.0 , 5.0 ) (0.0,2.0,5.0),我们只需要写[ ( 2 , 2.0 ) , ( 3 , 5.0 ) ] ,向量中每一个元素是一个二元元组(feature_id, feature_value)。如果某个特征在稀疏表示中缺省,可以很自然的认为其值为0.0。
1.2.4 streamed corpus
Gensim没有规定任何指定的数据格式,语料是一组稀疏向量序列。例如:[ [ ( 2 , 2.0 ) , ( 3 , 5.0 ) ]]是一个包含两篇文档的简单语料,两篇文档被表示成两个稀疏向量,第一个有两个非零元素,第二个有一个非零元素。这个例子中,我们将语料用Python中list表示,但是Gensim并没有规定语料必须表示成list,Numpy中array,Pandas中dataframe或者其他任何对象,迭代时,将依次产生这些稀疏向量。这个灵活性允许我们创建自己的语料类,直接从硬盘、网络、数据库……中流式产生稀疏向量。
1.2.5 model, transformation
Gensim中用model指代将一篇文档转换(transform)为另一种形式的模型代码以及相关参数,因为文档被表示成向量,因此model可以认为是从一个向量空间到另一个向量空间的变换,这个变换的参数是从训练数据中学习得到的。训练好的models可以被持久化到硬盘,之后在重载回来,无论是在新的训练文档中继续训练还是用于转换一篇文档。Gensim实现了很多模型,比如:Word2Vec,LsiModel,LdaModel,FastText等,具体的可以参考Gensim API。
1.3 一个例子
给定语料包含9篇文档,12个特征:
- 9篇文档, 9个内层list
- 12个特征, 12个特征id
corpus=[[(0, 1.0), (1, 1.0), (2,1.0)],
[(2, 1.0), (3, 1.0), (4, 1.0), (5, 1.0), (6, 1.0), (8, 1.0)],
[(1, 1.0), (3, 1.0), (4, 1.0), (7, 1.0)],
[(0, 1.0), (4, 2.0), (7, 1.0)],
[(3, 1.0), (5, 1.0), (6, 1.0)],
[(9, 1.0)],
[(9, 1.0), (10, 1.0)],
[(9, 1.0), (10, 1.0), (11, 1.0)],
[(8, 1.0), (10, 1.0), (11, 1.0)]]
接下来,我们初始化一个转换:
from gensim import corpora, models, similarities
tfidf = models.TfidfModel(corpus)
我们采用tfidf模型训练这个转换,即原始bag-of-words向量→ \rightarrow→tfidf向量,训练好的模型存储在变量tfidf中,接下来我们用这个tfidf模型将一篇新的文档vec转换为tfidf向量:
vec = [(0, 1), (4, 1)]
print(tfidf[vec])
得到的结果是[ ( 0 , 0.80752440244407231 ) , ( 4 , 0.58983416267400446 ) ] [(0, 0.80752440244407231)]。
同样,我们可以利用语料的tfidf向量训练一个相似度计算模型:
index = similarities.SparseMatrixSimilarity(tfidf[corpus], num_features=12)
然后计算文档vec与语料每一篇文档的相似度:
sims = index[tfidf[vec]]
print(list(enumerate(sims)))
[(0,0.4662244),(1,0.19139354),(2,0.24600551),(3,0.82094586),(4,0.0),(5,0.0),(6,0.0),(7,0.0),(8,0.0)],表示vec与第一篇文档有46.6%的相似度,与第二篇文档有19.1%的相似度……
gensim的处理流程也可以分为三步:首先将文档表示成特征向量,然后利用训练语料训练转换模型,最后将训练好的模型应用到新文档上。
本站文章除单独注明外均为原创,本文链接https://bowmanjin.com/767,未经允许请勿转载。
请先
!