2. 福建师范大学 软件学院, 福建 福州 350108;
3. 医学影像计算教育部重点实验室(东北大学), 辽宁 沈阳 110819;
4. 福建省公共服务大数据挖掘与应用工程技术研究中心, 福建 福州 350108;
5. 广西财经学院 信息与统计学院, 广西 南宁 530003;
6. Grasslands Research Centre, Palmerston North, 11008, New Zealand;
7. 广西师范学院 计算机与信息工程学院, 广西 南宁 530023
2. Faculty of Software, Fujian Normal University, Fuzhou 350108, China;
3. Key Laboratory of Medical Image Computing of Ministry of Education(Northeastern University), Shenyang 110819, China;
4. Fujian Engineering Research Center of Public Service Big Data Mining and Application, Fuzhou 350108, China;
5. School of Information and Statistics, Guangxi University of Finance and Economics, Nanning 530003, China;
6. Grasslands Research Centre, Palmerston North, 11008, New Zealand;
7. College of Computer and Information Engineering, Guangxi Teachers Education University, Nanning 530023, China
微博是Web 2.0时代兴起的一种集成化、开放化的互联网社交服务,它让用户能够向公众发布简短的文本消息.由于其简便的特点,日益受到互联网用户的青睐.目前,新浪微博用户规模已经超过3亿,每天都有大量的微博消息发布.在这些海量的微博消息中,有许多包含个人情感的资源,例如,不同读者对于同一条新闻事件持有不同的看法,不同用户对于某款手机有着其个性化的用户体验,不同影视爱好者对于同一部电影会留下不同的观影评论,等等.研究如何高效挖掘隐藏于这些鱼目混杂的微博消息中的观点与情感,即文本情感挖掘,有助于各级政府机构、企业组织与理性个体的管理决策.例如,政府机构可以对网络舆论进行实时监测与导向,网上商家能够根据用户反馈意见及时调整生产服务实现利润最大化,个体网民可以敏捷获取目标信息,等等.
以微博情感分析为代表的网络短文本情感挖掘正在吸引着来自人工智能、数据挖掘、自然语言处理等不同领域研究者的广泛关注[1-5],涌现出的各种算法大致可归纳为3类:有监督的情感挖掘、无监督的情感挖掘与半监督的情感挖掘.有(半)监督的情感挖掘方法不同程度地利用训练语料来训练生成文本情感分类器,一般具有较高的分类准确率,但获取训练样本的昂贵代价极大地限制此类方法的应用性.因此,以JST[6],Sentiment- LDA[7]与ASUM[8]等为代表的无监督情感分类方法近年来备受青睐,此类方法有效地避免了传统无监督情感分类方法具有的情感词典依赖性缺点,能够达到较好的情感识别效果.然而,现有的这些LDA情感主题模型也许还不能完全捕获网络短评用户的真实情感,下面以例1说明.
例1:作为NBA球星库里的粉丝,用户A与用户B在微博上是相互关注的,二者针对NBA球星各自发了一条微博.
· 用户A:“库里的三分球真是太准了,库里太厉害了,很崇拜他!”
· 用户B:“库里太变态了,简直不是人!”
从用户A的微博可以看出:其对库里表达的是钦佩之情,情感是积极的,且现有的LDA主题情感模型可以正确地分析出该微博的情感极性,由于其包含“厉害”“崇拜”等积极情感词;而对于用户B发表的微博,现有LDA主题情感模型往往将其归属到消极情感类中,由于该微博包括“变态”“不是人”等贬义词.然而,联系到A与B互相关注的事实,这在一定程度上可以表明他们的兴趣爱好相似.用户A的微博总体情感极性为积极,那在判断用户B所发微博的时候,应该认为用户B的微博为积极情感极性的概率更大,但是现有LDA主题情感模型假设不同微博的情感极性是互相独立的,从而无法准确识别用户B所发微博的情感极性.事实上,社会心理学研究早在20多年前就已经得出人们在社会交互的过程中表现出情绪感染特性[32],亦即,朋友间交互表现出的情感比非朋友间交互表现出的情感更可能相似.近期社会媒体分析领域[24]发现,情绪感染特性也存在于网民的微博交互过程中.
从上面的分析可以看出:虽然以JST,Sentiment-LDA与DPLDA为代表的LDA情感主题模型可以获取单条微博的主题与情感极性,但这些模型都假设不同微博的情感极性与主题偏好是相互独立的,这一方面极大地损害模型的识别性能,另一方面,该假设是与微博生态的现实状况不相一致的,由于微博用户之间通过“粉”“评论”与“转发”等行为可以建立起不同程度的关联.
针对以上不足,本文提出了基于LDA和微博用户关系的用户关系主题情感模型SRTSM(social- relation-based topic sentiment model),该模型在LDA中加入情感层与微博用户关系参数,当判断用户A的微博时,将参考与用户A相互关注的其他用户所发微博的总体情感极性,适当修改积极或消极情感极性先验参数.该模型与现有微博情感分析方法的主要区别是:SRTSM考虑了微博用户关系对微博情感分析准确率的影响,在建模微博单词生成过程时加入用户关系参数,用以更好地刻画微博间的主题情感关系.
本文的贡献如下:
1) 综合考虑了微博用户相互关联的事实,基于LDA模型提出了适合于微博主题情感分析的新模型SRTSM;
2) 利用吉布斯采样对SRTSM模型进行求解,实现情感与主题挖掘;
3) 在真实的微博数据集上对模型进行实验,表明SRTSM模型能够较好地对微博进行情感与主题挖掘.
本文第1节简要介绍相关工作.第2节将提出我们的模型.第3节将对我们的模型与其他模型进行实验,对它们的性能进行比较与分析.第4节将对本文进行总结.
1 相关工作 1.1 基于LDA的无监督情感挖掘基于主题模型的无监督情感挖掘主要是通过应用主题建模技术对主观性文本进行学习来实现隐含情感知识的发现,作为完全生成模型的LDA(latent dirichlet allocation)[9]主题模型,由于其具有良好的数学基础和灵活拓展性而被广为使用.
Mei等人[10]提出了主题情感模型TSM进行主题及其相关情感的演化分析.TSM一方面存在着类似pLSI所有的学习过度问题,另一方面需要相关后处理操作才能完成文档情感的预测.Titov等人[11]应用MG-LDA提取评论对象中的各个被评价,然后提出MAS模型对情感进行总结,MAS模型要求评论对象的每个方面至少在部分评论中被评价过,然而,这对真实评论文本数据集来说是不实际的.Dasgupta等人[12]提出一种基于用户反馈的谱聚类技术进行网络文本的无监督情感分类,聚类分析过程涉及数据特征都是具有情感倾向的主题,然而在该分析过程中,需要人为指定最重要的特征维.Lin等人[6]提出一种基于LDA模型的JST模型,该模型将文本情感标签加入LDA,形成了包含词、主题、情感和文档的4层贝叶斯概率模型.电影评论数据集上的实验表明,JST模型的分类效果要优于Pang等人的有监督分类,但由于该模型是基于BOW(bag of words)模型的文本特征之间相互独立的假设而没有考虑词的语境,会导致not good movie被分为积极情感与not bad movie被分为消极情感的错误.观测到JST模型中的Gibbs采样推理过程中出现大量“1”的现象,He[13]对LDA模型的目标函数进行修改,即:在建立情感先验分布时,应用广义期望标准来表达情感词的情感期望.Jo等人[8]提出与JST类似的情感分类主题模型ASUM,将JST中的主题替换为方面(aspect).为了克服JST的不足,Li等人[7]提出与JST类似的4层贝叶斯概率模型Dependency-Sentiment-LDA,引入一个转移变量来刻画单词之间的情感关联性. Brody等人[14]对主题词进行了情感识别,然而没有建立文档或句子的情感模型.基于产品评分是与产品某个方面质量的优劣相互依赖的,Moghadda等人[15]提出ILDA模型,通过增加相关参数来改进LDA,依据产品的文本评论同时实现产品属性方面的提取与评分. 孙艳等人[16]提出一种主题情感混合模型UTSU,通过对每个句子与词分别进行采样情感标签与主题标签来得到各个主题的主题情感词,进而实现文本的情感分类.Samaneh等人[17]提出D-PLDA模型,假设文本为bag-of-phrases模型,基于bag-of-phrases对文本提取主题词与情感词. Mukherjee等人[18]提出SAS模型,假设我们已有待建模语料的种子词集,然后利用这些种子词集对aspect词语进行簇分析,进而得到文本的aspect词语与情感词语.欧阳继红等人[19]提出两个多粒度主题情感混合模型:文档级MGR-JST与局部MG-JST.Rao等人[20]提出有监督的多标签主题模型MSTM和隐含情感主题模型SLTM对社交情绪分类.Li等人[21]提出了基于文本主题与用户-商品潜在因子的有监督情感分析模型SUIT.Yang等人[22]提出了用户感知的主题情感模型USTM,该模型把评论者的人口统计学信息纳入到主题建模 过程中.黄发良等人[33]提出一种新的基于LDA和互联网短评行为理论的主题情感混合模型TSCM.
与JST等上述模型相同,本文提出的SRTSM对每个词进行情感与主题采样.不同的是:SRTSM在基于采样的情感推理过程会根据微博用户的关系分布对微博的情感极性进行调整,而上述模型却将微博用户关系直接忽略.
1.2 基于微博行为分析的情感识别在微博社交平台上,微博用户之间通过关注、粉丝、互相关注等行为实现信息分享与传播,目前已有不少学者尝试利用微博用户关系对微博情感分析展开研究.Zhou等人[23]提出:一个社区不仅由社区中活跃度较高的人组成,而且由这些活跃度较高的人所讨论的话题组成.基于此,提出COCOMP(collaborator community profiling)模型来挖掘社区中参与度较高的人与这些人讨论的热门话题.COCOMP通过如下方法产生文本集:首先产生文本d的社区Cd,然后对于每个人p,决定p是否属于社区Cd,最后生成文本d的单词.通过真实Twitter数据集证明该模型可以挖掘不同社区中活跃度较高的人与社区中的热门话题.Hu等人[24]提出一种社会学方法来分析Twitter的情感极性,该方法将情感一致性与情感传染理论融入有监督学习,并且利用稀疏学习来处理微博中的噪声.通过两个真实Twitter数据集上的实验证明,该方法具有较好的微博情感分析性能.West等人[25]利用微博用户交互文本的情感值构造正负值加权的用户关系网络,进而预测用户彼此间的看法与观点.Wu等人[26]提出结构化微博情感分类框架SMSC,根据两种不同社交关系(不同微博用户间的链接与同一用户不同微博消息间的链接)将情感分类问题转化为图优化问题,从而实现微博情感分类.Tan等人[27]将微博用户的关注、粉丝与“@”关系加入到一个半监督学习框架中,提出新的模型来提高微博情感分析准确率.该模型假设有着某种关联的用户有较大可能拥有相同的性格,相比只用词作为特征训练的SVM分类器,该模型具有更高的微博情感分析准确率.Lu等人[28]使用微博关系构造了基于图的半监督学习分类器SSA-ST来分析微博情感,该方法综合微博用户关系与微博文本相似性来建立微博关系.Speriosu等人[29]把微博粉丝融入微博情感分析,利用标签传播算法将最大熵分类器从噪声数据里训练的标签、词典里单词类型知识与微博粉丝图结合,用来分析微博情感.为了克服微博文本较短且难以对意见进行分析的不足,Fu等人[30]分别构建了用户关注图与用户粉丝图,并将其融入贝叶斯与SVM分类器,以此提高贝叶斯与SVM分类器对微博情感分析的准确率.
上述模型虽然都使用微博用户关系对微博进行分析处理,但是这些模型都存在着一些缺陷:(1) 虽然文献[23]对微博用户与单词的生成过程进行建模,但是只能发现社区中活跃度较高的人与社区的热门话题,无法对话题进行情感分析;(2) 虽然文献[24-30]利用微博用户关系提高了微博情感分析准确率,但是这些模型都是基于有(半)监督学习的,没有基于无监督LDA模型来构建微博单词的生成过程.
2 基于社交关系的微博主题情感模型 2.1 模型描述LDA模型是Blei等人于2003年提出的“文档-主题-单词”三层贝叶斯模型(如图 1所示,该图中的符号说明见表 1),通过运用概率推导方法来寻找数据集的语义结构,从而得到文本的主题.
该模型是建立在如下假设之上的:文档是由不同主题组成的,而一个主题是单词集合的概率分布.在此假设下,文档单词的产生步骤可以分为两个阶段:首先,从文档-主题分布中选择一个主题;然后,根据随机选择的主题从主题-单词分布中选择一个单词.
牢固的数学基础与良好的扩展性,使得完全生成模型LDA在文本主题挖掘研究中广为使用,但情感层的缺失使得LDA无法完成文档情感的分析.基于此,我们对LDA进行改造,通过在LDA中嵌入情感层,并在情感层中添加用户关系分布G和用户关系参数λ.在SRTSM中,情感标签不仅与文档、主题相关联,而且还与微博用户社交关系分布相关联.
对于微博集C={d1,d2,…,dM},其中,M为微博集的微博数,与微博集C对应的词典大小为V,微博dm由Wm个单词组成,即,dm={w1,w2,…,wWm}.SRTSM产生微博集C的过程可简单归结为如下两个步骤.
1) 初始化SRTSM模型的分布Θ={A,B,H}.具体地,A,B与H分别服从狄利克雷分布Dir(α),Dir(β)与Dir(η),其中,β是指单词在微博集C中出现的先验次数,η是指情感标签l在微博dm中出现的先验次数,α是指主题t在微博dm中出现的先验次数;
2) 生成微博集C中的单词,此生成过程可简单描述如下:首先,从微博-主题分布A中选出一个主题t,t服从Mul(A)分布(Mul(*)表示多项分布);接着,根据产生的主题t,从(微博,主题)-情感分布H中选出一个情感标签l,l服从Mul(H)分布并且受l的影响,l受用户关系分布G影响,G为已知的微博用户关系矩阵.假设当前微博作者为用户X,若用户X与Y互相关注,则GX,Y=1,否则GX,Y=0,当GX,Y为1时,计算用户Y的情感极性值,通过所有与用户X互相关注的用户的情感极性值确定用户关系参数l;最后,根据选出的主题t和情感并且l,从(主题,情感)-词语分布B中选择一个单词w,w服从Mul(B)分布.该生成过程的形式化描述见算法1.
算法 1. SRTSM词生成过程.
1: for eacht∈{1,2,…,T}
2: for eachl∈{1,2,…,L}
3: for eachv∈{1,2,…,V}
4: chooseBt,l,v~Dir(β)
5: for each documentdm
6: chooseAm,t~Dir(α)
7: for eacht∈{1,2,…,T}
8: chooseHm,t,l~Dir(η)
9: for each documentdm
10: for each word indm
11: chooset~Mul(Am)
12: choosel~Mul(Hm,t)
13: choosew~Mul(Bt,l)
2.2 模型推导SRTSM模型的推导采用吉布斯采样(Gibbs sampling)的方法,吉布斯采样是一种快速高效的MCMC (Markov chain Monte Carlo)采样方法,它是通过迭代的采样方式对复杂的概率分布进行推导.为了得到参数分布A,B与H,我们需要计算联合分布p(ti=t,li=l|t-i,l-i,w),其中,t-i与l-i分别是指除微博dm中第i个词以外的其他词的主题与情感标签.联合分布可以拆分为如下项:
$P\left( w,t,l \right)=P\left( w|t,l \right)P\left( l|t \right)P\left( t \right)$ | (1) |
通过对公式(1) 进行展开可得:
$P(w|t,l)=\int{P(w,|t,l,B)P(B|\beta )\text{d}B}={{\left( \frac{\Gamma (V\beta )}{{{[\Gamma (\beta )]}^{V}}} \right)}^{T\times L}}\times \prod\limits_{l=1}^{L}{\prod\limits_{t=1}^{T}{\frac{\prod\limits_{w=1}^{V}{\Gamma ({{n}_{t,l,w}}+\beta )}}{\Gamma ({{n}_{t,l}}+W\beta )}}}$ | (2) |
其中,nt,l,w表示单词w同时属于主题t、情感标签l的频数,nt,l表示所有同时属于主题t、情感标签l的单词总频数.G(*)表示伽马函数.
$P(l|t)=\int{P(l|t,\lambda ,H)P(H|\eta )\text{d}H}={{\left( \frac{\Gamma (L\alpha )}{{{[\Gamma (\alpha )]}^{L}}} \right)}^{M\times T}}\times \prod\limits_{m=1}^{M}{\prod\limits_{t=1}^{T}{\frac{\prod\limits_{l=1}^{L}{\Gamma ({{n}_{m,t,l}}+\eta +\lambda )}}{\Gamma ({{n}_{m,t}}+L\eta )}}}$ | (3) |
其中,nm,t,l表示微博dm的中情感标签为l的词语属于主题t的频数,nm,t表示微博dm中属于的主题t的词语总频数.λ为用户关系参数,λ由与当前微博作者相互关注用户的情感极性决定,每个微博用户的λ取值不同.
$P(t)=\int{P(t|A)P(A|\alpha )\text{d}A}={{\left( \frac{\Gamma (T\eta )}{{{[\Gamma (\eta )]}^{T}}} \right)}^{M}}\times \prod\limits_{m=1}^{M}{\frac{\prod\limits_{t=1}^{T}{\Gamma ({{n}_{m,t}}+\alpha )}}{\Gamma ({{n}_{m}}+T\alpha )}}$ | (4) |
其中,nm,t表示微博dm中主题t出现的频数,nm表示微博dm总单词数.
有了公式(2) ~公式(4) 后,就可以计算吉布斯采样的联合概率.
$\begin{align} & p({{t}_{i}}=t,{{l}_{i}}=l|{{t}_{-i}},{{l}_{-i}},w)=\frac{P(w|t,l)P(l|t)P(t)}{P(w)P({{w}_{-i}}|{{t}_{-i}},{{l}_{-i}})P({{l}_{-i}}|{{t}_{-i}})P({{t}_{-i}})} \\ & \propto \frac{{{\{n_{t,l}^{w}\}}_{-i}}+\beta }{{{\{{{n}_{t,l}}\}}_{-i}}+W\beta }\times \frac{{{\{n_{m,t}^{l}\}}_{-i}}+\eta +\lambda }{{{\{{{n}_{m,t}}\}}_{-i}}+L\eta }\times \frac{{{\{n_{m}^{t}\}}_{-i}}+\alpha }{{{\{{{n}_{m}}\}}_{-i}}+T\alpha } \\ \end{align}$ | (5) |
其中,
进一步利用最大似然估计方法对参数Π={A,B,H}进行估计,其可形式化为公式(6) ~公式(8) .
$B_{t,l}^{w}=\frac{n_{t,l}^{w}+\beta }{{{n}_{t,l}}+W\beta }$ | (6) |
$A_{m}^{t}=\frac{n_{m}^{t}+\alpha }{{{n}_{m}}+T\alpha }$ | (7) |
$H_{m,t}^{l}=\frac{n_{m,t}^{l}+\eta +{{\lambda }_{l}}}{{{n}_{m,t}}+L\eta }$ | (8) |
其中,
在推导出SRTSM模型求解需要用到的公式后,我们就可以通过SRTSM模型来判断文档的情感极性.为方便叙述,构造临时参数向量TmpVec=(nm,t,l,nm,t,nm,nt,l,w,nt,l).
对于微博集C={d1,d2,…,d|C|},
· 首先,对每条微博d={w1,w2,…,wn}中的每个单词w随机分配情感极性l与主题t,并且更新向量TmpVec,直到微博集C中每个微博d的所有单词都已被分配情感极性l与主题t;
· 然后,循环执行如下过程MAX次(MAX是指定的循环控制参数):对每篇微博d中的每个单词w,计算p(zi=z,li=l|z-i,l-i,w),并且更新向量TmpVec,若当前迭代次数大于某一个指定值X(本文取X=1000) ,则每Y次(Y=10) 更新分布A,B与H;
· 最后根据
我们将基于SRTSM模型的过程形式化为算法SRTSM_Miner.
算法 2. SRTSM_Miner.
输入:微博集C,G,a,b,η,L,T;
输出:微博情感极性.
1: 初始化分布A,B和H,并对微博集C中的词语进行话题与情感随机初始化
2: Count=1;
3: whileCount<=MAX
4: for eachdm∈Cdo
5: for each wordw indmdo
6: 从TmpVec中除去当前词语w所属的情感标签与主题;
7: 利用公式(4) 重新给w赋一个情感标签和主题,情感标签受到用户关系参数λ的影响,通过用户关系分布G查找与当前微博作者相互关注的用户并以此更新λ;
8: 更新变量TmpVec;
9: end for
10: end for
11: 若Count>1000,每10次循环根据公式(6) ~公式(8) 用TmpVec更新分布A,B,H;
12: Count=Count+1;
13: end while
14: for eachdm∈Cdo
15: if
16: end for
3 实验与分析为了定量地分析和比较不同模型的性能,我们在3个不同的真实微博数据集进行实验,然后分别从情感分类准确率、用户关系对准确率的影响、主题提取与时间效率4个方面进行分析和比较.实验环境为:CPU为Intel Core i7-2600M@3.4GHz,内存8G,OS为Windows 7.
3.1 数据集由于微博主题情感分析研究目前还处于萌芽状态,再加上诸如新浪、Twitter之类的微博平台处于隐私安全需要对其提供的微博服务加以各种不同限制条件,从而导致在科研上很少有用于实验比较的标准数据集.虽然有少部分公开的文本情感分析实验数据集,诸如电子商务评论数据(电影评论、Amazon商品评论)与社交媒体数据(Sentiment140) ,但这些数据仅包含文本数据而缺乏用户之间的链接关系数据,从而无法满足本实验的要求.基于此,我们通过调用新浪微博API接口编写网络爬虫来构造实验数据集(见表 2).
对于采集到的微博数据,我们通过聘请第三方人员对数据集的情感极性进行人工标注.在微博情感人工标注的过程中,我们请3个微博情感标注者对采集微博数据进行情感极性标注,并对标注结果的一致性进行Kappa检验,检测结果见表 3.
对于情感标注不一致的微博,我们根据high-voting的投票原则来确定其情感极性归属.
从表 3可以看出:与数据集Data1和Data2相比较,Data3的情感人工标注结果一致性较低,这说明Data3中的微博情感模糊性相对较强,可能会给微博情感自动分析提出更大的挑战.经过分词与去停用词等相关预处理的文本数据见表 4.
3.2 情感分类准确率
为了评价SRTSM的微博情感识别能力,考虑到SRTSM模型学习的无监督性,我们将其与当前最具代表性的无监督情感学习模型(JST[6],Sentiment-LDA[7]和DPLDA[8])、半监督情感模型SSA-ST[28]、基于分词特征(1-gram+2-gram)的有监督算法libSVM进行微博情感分类正确率ACC的比较.通过独立同分布的随机抽样,对数据集(Data1,Data2与Data3) 分别构造8组实验数据集.实验结果分别见表 5~表 7.
由上述各表可以看出:(1) SRTSM的微博情感分类正确率远高于其他3种非监督情感分类算法JST,Sentiment- LDA和DPLDA,尽管其在不同数据集上有不同的性能表现(在数据集Data2、Data1与Data3上的情感分类表现分别为最好(68.41%)、最差(66.72%)与次差(65.15%));(2) 与SSA-ST相比较,SRTSM的微博情感分类正确率略低,但这劣势非常微弱;(3) 检测3个表中的最大ACC可以发现,所有最大的ACC都出现在SVM中,这说明SVM具有比其他非监督情感分类算法高的情感识别能力,而这正好与Pang等人[31]的实验结论相吻合.尽管与SVM相比较,SRTSM的情感分类能力存在着差距,但考虑到获取带标签微博情感训练数据的高昂代价,其差距还是可以接受的.值得指出的是,与半监督情感分析方法SSA-ST和有监督情感分析方法SVM相比较,SRTSM的情感分类正确率略低一些,但是SRTSM无需消耗任何带情感标签的微博消息数据,这可以为算法应用节约巨大的成本,而这些代价成本是SSA-ST与SVM无法回避的.
为进一步分析SRTSM的微博情感识别能力,我们利用4个不同指标(正例召回率Recall、正例命中率PV+、反例召回率Specificity与反例命中率PV-)对SRTSM在3个数据集上的平均表现进行评价,实验结果见表 8.
正例召回率Recall、正例命中率PV+、反例召回率Specificity与反例命中率PV-可分别形式化为公式(9) ~公式(12) .
$\text{Recall=正确分类的正例数/实际正例总数}$ | (9) |
$\text{PV+=正确分类的正例数/预测正例总数 }$ | (10) |
$\text{Specificity}=正确分类的负例个数/实际负例总数$ | (11) |
$\text{PV-}=正确分类的负例数/预测负例总数$ | (12) |
从表 8可以发现一些有趣的现象:SRTSM在3个实验数据集上的正例召回率Recall均高于其对应的反例召回率Specificity,而正例命中率PV+都高于反例命中率PV-,虽然高出的程度在不同数据集上存在着差异.对此可以做出这样的解释:由于微博社交媒体中,正面的消息更易于在朋友间传播,特别是在舆情监控的环境中,朋友之间在做出转发、评论或发布负面消息的决策时是非常谨慎的;微博用户在对一些诸如天怒人怨的事件往往表现非常强烈的消极情感倾向,进而使得消极情感消息更易于识别,即有SRTSM命中率更高.
3.3 用户关系对准确率的影响为了评价用户关系对情感识别准确率的影响程度,我们首先对3个数据集的微博用户集分别构造有向关注网络,即形成3个表示关注关系的布尔矩阵Mat1121×121,Mat298×98与Mat3128×128;然后,根据给定关系比例(0,10%,20%,30%,40%,50%,60%,70%,80%,90%,100%)随机选取用户关系,形成具有不同用户关系比例的微博数据集,实验结果如图 2所示.
从图 2可以看出:虽然随着互相关注用户比例的增加,微博情感分析准确率有提升也有降低,但是总体趋势是提升的.从Data1的曲线可以看出:除了在用户比例50%~60%和70%~80%处准确率呈下降趋势外,随着比例的提高,微博情感分析准确率呈上升趋势,在40%~50%处提升最大,并且在50%处达到准确率最大值.对于Data2来说,微博集在10%~20%处出现了降低趋势,其余都是呈上升趋势,在50%~60%处上升最多,在90%处达到最大值.类似地,微博集Data3在用户比例为20%~30%,50%~60%和80%~90%处准确率呈降低趋势,其余准确率都呈上升趋势,在10%~20%与40%~50%处准确率提高较大,在80%处达到最大值.
从上述分析可以得出:微博用户关系对准确率的影响较大,当互相关注的用户比例较大时,微博情感分析准确率较高,所以微博用户关系有助于提高微博情感分析的准确率.
3.4 主题提取本实验用SRTSM分别对Data1,Data2与Data3进行主题提取,并且列出积极情感与消极情感出现概率最高的15个主题词,结果见表 9.
Data1的积极情感主题词中包含“喜欢”“好看”“可爱”“好玩”等积极情感极性较强的词语,从“泡面”“抽奖” “手机”等可以看出:这可能是一个讨论抽奖的话题,用户应该是抽中了手机、泡面等奖品,因此表示自己喜悦的心情.Data1的消极情感主题词中出现的“苦恼”“烦躁”等词较明显地展示了用户消极的情感,“天气”“孩子”等词表达了用户对天气不好而造成孩子生病的抱怨.
从Data2 的积极情感主题词可以看出:“谢谢”“有趣”“支持”等词具有较强的积极情感色彩,“湖南卫视”“节目”“游戏”等词可能说明用户们正在谈论湖南卫视的一档节目,对该节目某个环节的游戏或其他表示了支持,“电视剧”“搞笑”等词表示用户可能正在讨论一部搞笑的电视剧.而Data2消极情感主题词中的“难过”“麻烦”、“不爽”具有较强的消极情感色彩,其中,“付费”“音乐”“流行”等词也许是在谈论某些流行歌曲需要付费,用户对此表达了自己的不满.
Data3积极情感主题词中出现了“恭喜”“谢谢”“快乐”“喜欢”“漂亮”,这些词具有较强的积极情感极性,“生日”“礼物”“聚会”“唱歌”等向我们展示了一幅庆祝生日的场景,表示用户们可能在谈论一场生日会或者是帮某人过生日.Data3消极情感主题词中“害怕”“难受”具有较强消极情感极性,从“好像”“燃烧”“肚子”中可以看出,该主题应该是对于肚子疼或其他类似主题的探讨.而这样的主题通常是消极情感的.
从上述分析可以得出:SRTSM模型可以较好地提取出微博的主题词,让我们大致了解微博的主题,为微博主题分析提供很好的帮助.
为了更好地分析SRTSM的主题提取性能,我们进一步引入KL散度对SRTSM与LDA进行实验比较分析(如图 2所示).
$KL=\frac{1}{k}\sum\limits_{P,Q\in DT}{\sum\limits_{w\in W}{P(w)\log \frac{P(w)}{Q(w)}}}$ | (13) |
其中,k为指定主题数,DT为算法从数据集中提取的主题集合,P(w)与Q(w)指不同主题中单词w的出现概率.KL值越大,表示所提取主题之间的相似度越低.
从图 3中可以看出:与LDA相比较,SRTSM提取的主题集合具有更高KL值.这说明由SRTSM从同一个数据集中提取的不同主题具有更大的区分度,从而能更好地为微博话题发现服务.当然,SRTSM在不同数据集上表现出的这种优势存在着差异,这种优势可以从SRTSM的主题提取过程得到解释,即:SRTSM的主题提取与微博情感识别是协同进行的.
3.5 时间效率分析
为了评价SRTSM模型的时间性能,我们进一步将SRTSM与上述3个无监督情感分析算法(JST,SLDA和DPLDA)进行比较分析,实验结果如图 4所示.
从图 4可以看出:在3个数据集上,SRTSM的耗时均高于其他3种算法.结合SRTSM的算法流程可以不难解释这种统计现象:由于我们在比较相关算法时都是以迭代次数作为算法循环终止条件,且4种算法的迭代次数相等(均为1 000) ,从而算法耗时总量可以归结到算法每一次迭代的耗时;而与JST,SLDA和DPLDA比较,在对微博情感推理过程中,SRTSM不仅考虑微博文本信息,而且还将微博用户间的链接关系纳入其内,这必然会导致其时间代价的增加.进一步比较SRTSM在3个不同数据集的时间性能表现可以发现,SRTSM的耗时从Data2到Data1再到Data3是逐步减少的.而这恰好与表 2中的微博用户数是相一致的,从而进一步验证了上面的解释.鉴于当前SRTSM的时间性能表现欠佳,我们将改进情感推理机制以提高计算效率作为未来的研究工作之一.
4 结束语随着微博服务的广泛普及,人们可以在微博平台上针对现实各种事件进行所见分享与所感交流,挖掘隐藏在海量微博消息中的主题情感能够有效辅助用户个体、企业组织与政府机构等的决策行为.针对传统无监督的主题情感分析模型的不足,本文提出了一个新的基于微博用户社交关系的主题情感分析模型SRTSM.实验结果表明:SRTSM不仅能实现微博消息的主题情感同步检测与分析,而且具有比现有典型无监督主题情感模型(JST,Sentiment-LDA和DPLDA)更优的情感分类能力.
将来的工作将在以下几个方面进行:首先,我们将微博用户的档案属性信息纳入微博消息情感极性与主题推理以提升情感分类的准确率;其次,微博消息具有实时特征,我们将对微博消息的情感主题动态演化模式进行分析;最后,改进SRTSM的推理机制以提升算法时间效率.
[1] | Tang H, Tan S, Cheng X. A survey on sentiment detection of reviews. Expert System with Applications, 2009, 36(7): 10760–10773 . [doi:10.1016/j.eswa.2009.02.063] |
[2] | Missen MMS, Boughanem M, Cabanac G. Opinion mining:Reviewed from word to document level. Social Network Analysis and Mining, 2013, 3(1): 107–125 . [doi:10.1007/s13278-012-0057-9] |
[3] | Liu B. Sentiment analysis and opinion mining. Synthesis Lectures on Human Language Technologies, 2012, 5(1): 1–167 . [doi:10.2200/S00416ED1V01Y201204HLT016] |
[4] | Zhao YY, Qin B, Liu T. Sentiment analysis. Ruan Jian Xue Bao/Journal of Software, 2010, 21(8): 1834–1848 . [doi:10.3724/SP.J.1001.2010.03832] |
[5] | Zhang L, Qian GQ, Fan WG, Kun H, Li Z. Sentiment analysis based on light reviews. Ruan Jian Xue Bao/Journal of Software, 2014, 25(12): 2790–2807 . [doi:10.13328/j.cnki.jos.004728] |
[6] | Lin C, He Y, Everson R, Ruger S. Weakly supervised joint sentiment-topic detection from text. IEEE Trans. on Knowledge and Data Engineering, 2012, 24(6): 1134–1145 . [doi:10.1109/TKDE.2011.48] |
[7] | Li F, Huang M, Zhu X. Sentiment analysis with global topics and local dependency. In:Maria F, ed. Proc. of the 24th AAAI Conf. on Artificial Intelligence. Atlanta: AAAI Press, 2010. 1371 -1376 . |
[8] | Jo Y, Oh AH. Aspect and sentiment unification model for online review analysis. In:Li H, ed. Proc. of the 4th ACM Int'l Conf. on Web Search and Data Mining. New York: ACM Press, 2011. 815 -824 . |
[9] | Blei DM, Ng AY, Jordan MI. Latent Dirichlet allocation. Journal of Machine Learning Research, 2003, 3: 993–1022 . |
[10] | Mei QZ, Ling X, Wondra M, Su H, Zhai CX. Topic sentiment mixture:modeling facets and opinions in Weblogs. In:Patel-Schneider P, ed. Proc. of the 16th Int'l Conf. on World Wide Web. New York: ACM Press, 2007. 171 -180 . |
[11] | Titov I, McDonald R. Modeling online reviews with multi-grain topic models. In:Ma WY, et al., eds. Proc. of the 17th Int'l Conf. on World Wide Web. New York: ACM Press, 2008. 111 -120 . |
[12] | Dasgupta S, Ng V. Topic-Wise, sentimentwise, or otherwise? Identifying the hidden dimension for unsupervised text classification. In:Koehn P, et al., eds. Proc. of the 2009 Conf. on Empirical Methods in Natural Language Processing. Stroudsburg: Association for Computational Linguistics, 2009. 580 -589 . |
[13] | He Y. Latent sentiment model for weakly-supervised cross-lingual sentiment classification. Advances in Information Retrieval, 2011, 6611: 214–225 . [doi:10.1007/978-3-642-20161-5] |
[14] | Brody S, Elhadad N. An unsupervised aspect-sentiment model for online reviews. In:Kaplan RM, ed. Proc. of the Human Language Technologies:The 2010 Annual Conf. of the North American Chapter of the Association for Computational Linguistics. Stroudsburg:Association for Computational Linguistics, 2010. 804-812. |
[15] | Moghaddam S, Ester M. ILDA:Interdependent LDA model for learning latent aspects and their ratings from online product reviews. In:Baeza-Yates R, et al., eds. Proc. of the 34th Int'l ACM SIGIR Conf. on Research and Development in Information Retrieval. New York: ACM Press, 2011. 665 -674 . |
[16] | Sun Y, Zhou X, Fu W. Unsupervised topic and sentiment unification model for sentiment analysis. Acta Scientiarum Naturalium Universitatis Pekinensis, 2013, 49(1): 102–108 . http://en.cnki.com.cn/Article_en/CJFDTotal-BJDZ201301017.htm |
[17] | Moghaddam S, Ester M. On the design of LDA models for aspect-based opinion mining. In:Lebanon G, ed. Proc. of the 21st ACM Int'l Conf. on Information and Knowledge Management. New York: ACM Press, 2012. 803 -812 . |
[18] | Mukherjee A, Liu B. Aspect extraction through semi-supervised modeling. In:Proc. of the ACL. 2012. 339-348. |
[19] | Ouyang JH, Liu YH, Li XM, Zhou XT. Multi-Grain sentiment/topic model based on LDA. Acta Electronic Sinica, 2015(9): 1875–1880 . https://www.researchgate.net/publication/284896558_Multi-grain_sentimenttopic_model_based_on_LDA |
[20] | Rao Y, Li Q, Mao X, Liu W. Sentiment topic models for social emotion mining. Information Sciences, 2014, 266(5): 90–100 . http://www.sciencedirect.com/science/article/pii/S002002551400019X |
[21] | Li F, Wang S, Liu S, Zhang M. Suit:A supervised user-item based topic model for sentiment analysis. In:Proc. of the 28th AAAI Conf. on Artificial Intelligence. AAAI Press, 2014. 1636-1642. |
[22] | Yang Z, Kotov A, Mohan A, Lu S. Parametric and non-parametric user-aware sentiment topic models. In:Lalmas M, et al., eds. Proc. of the 38th Int'l ACM SIGIR Conf. on Research and Development in Information Retrieval. New York: ACM Press, 2015. 413 -422 . |
[23] | Zhou W, Jin H, Liu Y. Community discovery and profiling with social messages. In:Agarwal D, et al., eds. Proc. of the 18th ACM SIGKDD Int'l Conf. on Knowledge Discovery and Data Mining. New York: ACM Press, 2012. 388 -396 . |
[24] | Hu X, Tang L, Tang J, Liu H. Exploiting social relations for sentiment analysis in microblogging. In:Ferragina P, ed. Proc. of the 6th ACM Int'l Conf. on Web Search and Data Minin. New York: ACM Press, 2013. 537 -546 . |
[25] | West R, Paskov HS, Leskovec J, Potts C. Exploiting social network structure for person-to-person sentiment analysis. arXiv preprint arXiv:1409.2450, 2014. |
[26] | Wu F, Huang Y, Song Y. Structured microblog sentiment classification via social context regularization. Neurocomputing, 2016, 175: 599–609 . [doi:10.1016/j.neucom.2015.10.101] |
[27] | Tan C, Lee L, Tang J, Jiang L, Zhou M, Li P. User-Level sentiment analysis incorporating social networks. In:Ghosh J, et al., eds. Proc. of the 17th ACM SIGKDD Int'l Conf. on Knowledge Discovery and Data Mining. New York: ACM Press, 2011. 1397 -1405 . |
[28] | Lu T. Semi-Supervised microblog sentiment analysis using social relation and text similarity. In:Proc. of the 2015 Int'l Conf. on Big Data and Smart Computing (BigComp). 2015. 194-201. |
[29] | Speriosu M, Sudan N, Upadhyay S, Baldridge J. Twitter polarity classification with label propagation over lexical links and the follower graph. In:Proc. of the 1st Workshop on Unsupervised Learning in NLP. Stroudsburg:Association for Computational Linguistics, 2011. 53-63. |
[30] | Fu MH, Chen LY, Lee KR, Kuo YH. A novel opinion analysis scheme using social relationships on microblog. In:Proc. of the Future Information Technology, Application, and Service. Springer-Verlag, 2012. 687-695. |
[31] | Pang B, Lee L, Vaithyanathan S. Thumbs up? Sentiment classification using machine learning techniques. In:Hajic J, Matsumoto Y, eds. Proc. of the Conf. on Empirical Methods in Natural Language Processing. Stroudsburg:Association for Computational Linguistics, 2002. 79-86. |
[32] | Hatfreld E, Cacioppo JT, Rapson RL. Emotional contagion. Current Directions in Psychological Science, 1993, 2(3): 96–99 . [doi:10.1111/1467-8721.ep10770953] |
[33] | Huang F, Li C, Yuan C, Wang Y, Yao Z. Mining sentiment for Web short texts based on TSCM model. Acta Electronic Sinica, 2016, 44(8): 1887–1891 . |