文本情感分析:基于词袋模型(vsmlsan-gram)的文本表示(代码片段)

luv-gem luv-gem     2022-12-11     116

关键词:

现在自然语言处理用深度学习做的比较多,我还没试过用传统的监督学习方法做分类器,比如SVM、Xgboost、随机森林,来训练模型。因此,用Kaggle上经典的电影评论情感分析题,来学习如何用传统机器学习方法解决分类问题。

通过这个情感分析的题目,我会整理做特征工程、参数调优和模型融合的方法,这一系列会有四篇文章。这篇文章整理文本特征工程的内容。

文本的特征工程主要包括数据清洗、特征构造、降维和特征选择等。

首先是数据清洗,比如去停用词、去非字母汉字的特殊字符、大写转小写、去掉html标签等。

然后是特征构建,可以基于词袋模型构造文本特征,比如向量空间模型的词频矩阵、Tf-Idf矩阵,又比如LSA和LDA,也可以用word2vec、glove等文本分布式表示方法,来构造文本特征。此外还可以用n-gram构造文本特征。

接下来可以选择是否降维,可以用PCA或SVD等方法对文本特征矩阵进行降维。

最后选择效果比较突出的1个或几个特征来训练模型。

 

一、基于向量空间模型的文本特征表示

向量空间模型(Vector Space Model,VSM)也就是单词向量空间模型,区别于LSA、PLSA、LDA这些话题向量空间模型,但是单词向量空间模型和话题向量空间模型都属于词袋模型,又和word2vec等文本分布式表示方法相区别。

向量空间模型的基本想法是:给定一个文本,用一个向量表示该文本的语义,向量的每一维对应一个单词,其数值是该单词在该文本中出现的频数或Tf-Idf。那么每个文本就是一个向量,特征数量为所有文本中的单词总数,通过计算向量之间的余弦相似度可以得到文本的相似度。

而文本集合中的所有文本的向量就会构成一个单词-文本矩阵,元素为单词的频数或Tf-Idf。

技术图片

在我们这个Kaggle案例中,单词-文本矩阵的行数为样本的数量,列数为单词的数量,训练集中样本有25000条,选取最高频的5000个单词,故矩阵X是(25000,5000)的矩阵。我们以词频和Tf-Idf作为文本特征,计算出两个单词-文本矩阵,然后分别训练随机森林二分类器。

首先导入所需要的库。

import os,re
import numpy as np
import pandas as pd

from bs4 import BeautifulSoup

from sklearn.feature_extraction.text import CountVectorizer
from sklearn.feature_extraction.text import TfidfVectorizer
from sklearn.ensemble import RandomForestClassifier
from sklearn import metrics 

import nltk

from nltk.corpus import stopwords

第一步:读取训练数据,一共25000条评论数据。

"""第一步:用pandas读取训练数据"""

datafile = os.path.join(.., data, labeledTrainData.tsv)
# escapechar=‘\\\\‘用来去掉转义字符‘\\‘
df = pd.read_csv(datafile, sep=\\t, escapechar=\\\\)
print(Number of reviews: .format(len(df)))
df.head()

 技术图片

第二步:对影评数据做预处理。

大概有以下环节:

  1. 去掉html标签
  2. 移除标点
  3. 切分成词/token
  4. 去掉停用词
  5. 重组为新的句子
"""第二步:数据预处理"""

eng_stopwords = stopwords.words(english)

# 去掉html标签
# 去掉非英文字符
# 去停用词
# 重新组合为句子
def clean_text(text):
    text = BeautifulSoup(text, html.parser).get_text()
    text = re.sub(r[^a-zA-Z],  , text)
    words = text.lower().split()
    words = [w for w in words if w not in eng_stopwords]
    return  .join(words)

df[clean_review] = df.review.apply(clean_text)
df.head()

 技术图片

第三步:用向量空间模型抽取文本特征

分别计算单词的词频和Tf-Idf,作为文本特征,计算单词-文本矩阵。

"""第三步:用VSM抽取文本特征"""

# 统计词频,作为文本特征,计算文本-单词矩阵
vectorizer_freq = CountVectorizer(max_features = 5000) 
train_vsm_freq = vectorizer_freq.fit_transform(df.clean_review).toarray()
print("以词频为元素的文本-单词矩阵的维度是:\\n\\n",train_vsm_freq.shape)

# 计算tfidf,作为另一种文本特征,计算文本-单词矩阵
vectorizer_tfidf=TfidfVectorizer(max_features=5000)
train_vsm_tfidf=vectorizer_tfidf.fit_transform(df.clean_review).toarray()

print("\\n用单词向量空间模型成功抽取文本特征!\\n")
以词频为元素的文本-单词矩阵的维度是:

 (25000, 5000)

用单词向量空间模型成功抽取文本特征!

 第四步:训练分类器

决策树为200棵。

"""第四步:用随机森林训练二分类器"""

"""首先使用以词频为元素的文本-单词矩阵训练一个分类器"""
# 使用包外估计作为模型泛化误差的估计,即oob_score=True,那么无须再做交叉验证
forest = RandomForestClassifier(oob_score=True,n_estimators = 200)
forest = forest.fit(train_vsm_freq, df.sentiment)

第五步:评估分类器的性能

这里没有进行交叉验证了,没有划分验证集来计算准确率、召回率和AUC,直接用训练集来计算这些指标。因为随机森林通过自助采样,可以得到大约36.8%的验证集,用于评估模型的泛化误差,称这为包外估计,因此我们主要观察包外估计这个指标,来评估分类器的性能。

从评估结果来看,包外估计为0.84232。

"""第五步:评估模型"""

def model_eval(train_data):

    print("1、混淆矩阵为:\\n")
    print(metrics.confusion_matrix(df.sentiment, forest.predict(train_data)))

    print("\\n2、准确率、召回率和F1值为:\\n")
    print(metrics.classification_report(df.sentiment,forest.predict(train_data)))

    print("\\n3、包外估计为:\\n")
    print(forest.oob_score_)
    
    print("\\n4、AUC Score为:\\n")
    y_predprob = forest.predict_proba(train_data)[:,1]
    print(metrics.roc_auc_score(df.sentiment, y_predprob))

print("\\n====================评估以词频为特征训练的模型==================\\n")
model_eval(train_vsm_freq)

技术图片

第六步:以Tf-Idf作为文本特征,训练分类器

结果包外估计为0.84168,比词频矩阵的要低一点,问题不大。

"""再使用以tfidf为元素的文本-单词矩阵训练一个分类器"""

forest = RandomForestClassifier(oob_score=True,n_estimators = 200)
forest = forest.fit(train_vsm_tfidf, df.sentiment)
print("\\n====================评估以tfidf为特征训练的模型==================\\n")
model_eval(train_vsm_tfidf)

技术图片

二、基于潜在语义分析的文本特征表示

潜在语义分析(Laten Semantic Analysis,LSA)是一种文本话题分析的方法,特点是可以通过矩阵分解(SVD或者NMF),来发现文本与单词之间的基于话题的语义关系。

LSA和VSM有什么关系呢?

1、VSM的优点是单词向量稀疏,计算效率高,但是由于自然语言中一词多义和多词一义现象的存在,基于单词向量的文本表示未必能准确表达两个文本的相似度。而LSA是用文本的话题来表示文本,文本的话题相似则文本的语义也相似,这样可以解决同义词和多义词的问题。

2、VSM得到的是单词-文本矩阵,而LSA得到的是话题-文本矩阵。LSA的话题-文本矩阵就是通过对VSM的矩阵进行矩阵分解得到的,矩阵分解的方法包括SVD奇异值分解和NMF非负矩阵分解。

如下图,NMF非负矩阵分解后得到话题-文本矩阵Y,话题为k个,样本为n个。

技术图片

在这个情感分析案例中,我们把话题设为300个,把单词-文本矩阵降维成(25000, 300)的话题-文本矩阵,采用的是NMF非负矩阵分解的方法。

要注意的一点是,如果单词-文本矩阵的维度是(单词数,文本数)这种格式,也就是我们在代码中用到的格式,那么在用 sklearn.decomposition.NMF 这个包计算话题-文本矩阵时,NMF().fit_transform() 所得的是话题-文本矩阵,NMF().components_得到的是单词-话题矩阵。

而如果单词-文本矩阵的格式和上图的格式一样(转置了),那么NMF().components_得到的是话题-文本矩阵。

下面首先用NMF计算LSA的话题-文本矩阵,取以词频为元素的单词-文本矩阵来计算。对高维矩阵进行矩阵分解的时间复杂度非常高,所以我用一下LSA就好了,LDA就不敢再去尝试,因为LDA的时间复杂度更高,效果可能不一定好。

第一步:用NMF计算LSA的话题-文本矩阵

"""用NMF计算LSA的话题-文本矩阵"""

from sklearn.decomposition import NMF 

# 对以词频为特征的单词-文本矩阵进行NMF分解
nmf = NMF(n_components=300)
# 得到话题-文本矩阵,注意如果输入进行了转置,那么得到的是单词-话题矩阵
train_lsa_freq = nmf.fit_transform(train_vsm_freq) 

print("话题-文本矩阵的维度是:\\n\\n",train_lsa_freq.shape)
话题-文本矩阵的维度是:

 (25000, 300)

第二步:使用LSA的话题-文本矩阵训练随机森林分类器

包外估计为0.82236,比基于VSM的效果要差2个百分点左右,毕竟特征维度降低了。本来想把话题设定为500,也就是把特征维度降到500维,可是计算时间太恐怖了,久久得不到结果。

这真是费力不讨好。

"""再使用LSA的话题-文本矩阵训练一个分类器"""

forest = RandomForestClassifier(oob_score=True,n_estimators = 200)
forest = forest.fit(train_lsa_freq, df.sentiment)
print("\\n====================评估以LSA为特征训练的模型==================\\n")
model_eval(train_lsa_freq)

技术图片

三、用n-gram做文本表示

n-gram的意思比较简单了,没啥好说的。我这里让n-gram=(2,2),也就是每个单元都是两个单词组合而成的。

"""使用sklearn计算2-gram,得到词语-文本矩阵"""

# token_pattern的作用是,出现"bi-gram"、"two:three"这种时,可以切成"bi gram"、"two three"的形式
vectorizer_2gram = CountVectorizer(ngram_range=(2,2),token_pattern=r\\b\\w+\\b,max_features=5000) 
train_vsm_2gram = vectorizer_2gram.fit_transform(df.clean_review).toarray()
print("2-gram构成的语料库中前10个元素为:\\n")
print(vectorizer_2gram.get_feature_names()[:10])
2-gram构成的语料库中前10个元素为:

[able get, able make, able see, able watch, absolute worst, absolutely brilliant, 
absolutely hilarious, absolutely love, absolutely loved, absolutely nothing]

接着再训练随机森林分类器,并评估模型。不知道怎么回事,跑了很久,死活收敛不了,有毒。。。算了,放着让它跑,我也再想想到底咋回事。

"""使用以2-gram的词频为元素的单词-文本矩阵训练一个分类器"""

forest = RandomForestClassifier(oob_score=True,n_estimators = 200)
forest = forest.fit(train_vsm_2gram, df.sentiment)
print("\\n====================评估以2-gram为特征训练的模型==================\\n")
model_eval(train_vsm_2gram)

最后还是重新训练第一个模型,也就是用词频作为特征的单词-文本矩阵,训练随机森林分类器。我们读取测试数据进行预测,并保存预测结果。

# 删除不用的占内容变量
#del df
#del train_vsm_freq

# 读取测试数据
datafile = os.path.join(.., data, testData.tsv)
df = pd.read_csv(datafile, sep=\\t, escapechar=\\\\)
print(Number of reviews: .format(len(df)))
df[clean_review] = df.review.apply(clean_text)

vectorizer = CountVectorizer(max_features = 5000)
test_data_features = vectorizer.fit_transform(df.clean_review).toarray()


result = forest.predict(test_data_features)
output = pd.DataFrame(id:df.id, sentiment:result)
# 保存
output.to_csv(os.path.join(.., data, Bag_of_Words_model.csv), index=False)

 

 

参考资料:

李航:《统计学习方法》(第二版) 第17章

情感分析:基于循环神经网络

...nalysis:UsingRecurrentNeuralNetworks与搜索同义词和类比词类似,文本分类也是单词嵌入的一个下游应用。在本文中,将应用预训练的词向量(glow)和具有多个隐藏层的双向递归神经网络,如图1所示。将使用该模型来判断长度不定的文... 查看详情

词袋模型

http://blog.csdn.net/pipisorry/article/details/41957763文本特征提取词袋(BagofWords)表征 文本分析是机器学习算法的主要应用领域。但是,文本分析的原始数据无法直接丢给算法,这些原始数据是一组符号,因为大多数算法期望的输入... 查看详情

sklearn中带有词袋和附加情感特征的文本分类器

】sklearn中带有词袋和附加情感特征的文本分类器【英文标题】:textclassifierwithbagofwordsandadditionalsentimentfeatureinsklearn【发布时间】:2016-05-1705:21:30【问题描述】:我正在尝试构建一个分类器,除了词袋外,它还使用情绪或主题(LD... 查看详情

文本情感分析:基于word2vec和glove词向量的文本表示(代码片段)

...客用词袋模型,包括词频矩阵、Tf-Idf矩阵、LSA和n-gram构造文本特征,做了Kaggle上的电影评论情感分类题。这篇博客还是关于文本特征工程的,用词嵌入的方法来构造文本特征,也就是用word2vec词向量和glove词向量进行文本表示,... 查看详情

实训项目:基于textcnn汽车行业评论文本的情感分析(代码片段)

基于TextCNN汽车行业评论文本的情感分析    使用卷积神经网络对汽车行业评论文本进行情感分析。  数据集        爬取汽车之家车主口碑评论文本,抽取口碑中最满意以及最不满意评论文本,分别作为正向情... 查看详情

文本情感分类:传统模型

基于情感词典的文本情感分类传统的基于情感词典的文本情感分类,是对人的记忆和判断思维的最简单的模拟,如上图。我们首先通过学习来记忆一些基本词汇,如否定词语有“不”,积极词语有“喜欢”、“爱”,消极词语有... 查看详情

情感分析之tf-idf算法

...容有:1、将单词转换为特征向量2、TF-IDF计算单词关联度文本的预处理和分词。如何将单词等分类数据转成为数值格式,以方便我们后面使用机器学习来训练模型。一、将单词转换为特征向量词袋模型(bag-of-wordsmodel):将文本以数... 查看详情

大数据分析案例-基于逻辑回归算法构建微博评论情感分类模型

查看详情

nlp文本情感分析(代码片段)

...办法复原,惨兮兮/(ㄒoㄒ)/,具体内容今天来补上文本情感分析一、情感分析简介二、文本介绍及语料分析三、数据集分析四、LSTM模型五、重点函数讲解plot_modelnp_utils.to_categoricalmodel.summary()特别感谢一、情感分析简介 ... 查看详情

r语言构建文本分类模型并使用lime进行模型解释实战:文本数据预处理构建词袋模型构建xgboost文本分类模型基于文本训练数据以及模型构建lime解释器解释多个测试语料的预测结果并可视化

R语言构建文本分类模型并使用LIME进行模型解释实战:文本数据预处理、构建词袋模型、构建xgboost文本分类模型、基于文本训练数据以及模型构建LIME解释器解释多个测试语料的预测结果并可视化目录 查看详情

r语言构建文本分类模型并使用lime进行模型解释实战:文本数据预处理构建词袋模型构建xgboost文本分类模型基于文本训练数据以及模型构建lime解释器解释一个测试语料的预测结果并可视化

R语言构建文本分类模型并使用LIME进行模型解释实战:文本数据预处理、构建词袋模型、构建xgboost文本分类模型、基于文本训练数据以及模型构建LIME解释器解释一个测试语料的预测结果并可视化目录 查看详情

vadersentiment实现文本情感分析(代码片段)

1.引入做文本情感分析(sentimentanalysis),一般是需要自己标注数据,做特征工程,再训练模型,这样成本就很高。当我们拿到一段文本,没有标注,也没有训练模型,有没有可能直接调用一个... 查看详情

vadersentiment实现文本情感分析(代码片段)

1.引入做文本情感分析(sentimentanalysis),一般是需要自己标注数据,做特征工程,再训练模型,这样成本就很高。当我们拿到一段文本,没有标注,也没有训练模型,有没有可能直接调用一个... 查看详情

基于imdb评论数据集的情感分析(代码片段)

...的问题总结前言本文的主要内容是基于IMDB评论数据集的情感分析,文中包括大型电影评论数据集介绍、环境配置、实验代码、运行结果以及遇到的问题这几个部分 查看详情

论文泛读187使用bert基于阿拉伯语方面的情感分析

...tanalysisusingBERT》一、摘要基于方面的情感分析(ABSA)是一种文本分析方法,它定义了与特定目标相关的某些方面的观点的极性。关于ABSA的大部分研究是用英语进行的,少量工作是用阿拉伯语进行的。大多数先前的阿拉伯语... 查看详情

论文泛读187使用bert基于阿拉伯语方面的情感分析

...tanalysisusingBERT》一、摘要基于方面的情感分析(ABSA)是一种文本分析方法,它定义了与特定目标相关的某些方面的观点的极性。关于ABSA的大部分研究是用英语进行的,少量工作是用阿拉伯语进行的。大多数先前的阿拉伯语... 查看详情

r语言︱情感分析—词典型代码实践(最基础)

...R语言实现笔记。可以与博客 R语言︱词典型情感分析文本操作技巧汇总(打标签、词典与数据匹配等)对着看。 词典型情感分析大致有以下几个步骤:训练数据集、neg/pos情感词典、分词+数据清洗清洗(一、二、三级清... 查看详情

keras深度学习实战(28)——利用单词向量构建情感分析模型(代码片段)

...获取到的单词向量,学习如何构建情感分类器分析给定的文本。1.模型与数据集分析1 查看详情