软件学报  2014, Vol. 25 Issue (12): 2777-2789   PDF    
基于改进语义距离的网络评论聚类研究
杨震, 王来涛, 赖英旭    
北京工业大学 计算机学院, 北京 100124
摘要:针对在线评论,提出了一种短文本语义距离计算模型,将文本距离看成是形式距离和单元语义距离的综合.首先,在对变异短文本进行预处理的基础上,以中文词语为单位,利用词典进行语义扩展,计算短文本间最大匹配距离,将其作为衡量短文本间形式距离的指标;其次,基于短文本中的实义单元和非实义单元的不同作用,利用改进的编辑距离算法计算短文本的单元语义距离;最后,利用加权的方法将形式距离和单元语义距离综合为文本距离,并将其应用于网络在线评论的聚类分析.特别地,为了缓解短文本长度差异所造成的计算误差,提出利用词表长度对距离进行惩罚,并根据Zipf's Law和Heap's Law的对应关系,给出了一种文本词表长度的估计方法,并阐明了文本Zipf指数a对长度惩罚的关键性作用机制.实验结果表明,改进算法优于传统方法,聚类性能显著提升.
关键词文本聚类     在线评论     语义距离     长度惩罚     Heap's Law     Zipf's Law    
Online Comment Clustering Based on an Improved Semantic Distance
YANG Zhen, WANG Lai-Tao, LAI Ying-Xu    
College of Computer Science, Beijing University of Technology, Beijing 100124, China
Corresponding author: YANG Zhen, E-mail: yangzhen@bjut.edu.cn
Abstract: An improved semantic distance for short text is proposed. The new method calculates the semantic distance between two word strings as balance of the extent of word sequence alignment and the meaning matching between word strings. First, after linguistic preprocessing, the extent of word sequence alignment is computed by the structural distance which measures the maximum matching based on the HIT-CIR Tongyici Cilin (extended edition). Then the meaning matching between word strings is computed by an improved edit distance which allocates each word a weight according to its word type. Finally, the semantic distance between the word strings is measured as a balance of structural distance and word meaning matching distance. In addition, in order to eliminate the influence of the sentence length, the proposed semantic distance is adjusted using the distinct word count estimated by the Heap's law and Zipf law. Experimental results show that the presented methods are more efficient than the classical edit distance models.
Key words: text clustering     online comment     semantic distance     length penalty     Heap's law     Zipf's law    

移动业务的普及,催生出一种新的网络语言表达范式——短文本范式.据《中国互联网络发展状况统计报告(2014年7月21日版)》(http://www.cnnic.cn/hlwfzyj/hlwxzbg/hlwtjbg/201407/P020140721507223212132.pdf)最新公布数据,截至2014年6月,中国网民规模达6.32亿,其中,手机网民规模5.27亿,互联网普及率达到46.9%.网民上网设备中,手机使用率达83.4%,首次超越传统PC整体80.9%的使用率,手机作为第一大上网终端的地位更加巩固.手机媒体作为现代信息的重要载体,已被一些学者誉为继报纸、广播、电视、网络之后的第五大媒体,其使用已渗透到社会的各个领域(http://newspaper.jfdaily.com/jfrb/html/2010-02/19/content_282432.htm).相比过去,用户倾向用更简洁、更个性的方式表达个人观点,这样的变革,给中文信息处理领域的研究者带来了新的挑战和机遇.

以本文的研究对象——网络评论聚类分析为例,其即为一种典型的面向短文本的应用.网络评论通常开始于某个公共事件或热点话题,表达内容具有较强的主观性,反映出大众对公共事件的态度[1],其典型来源有微博、短信、BBS社区等.在线评论具有快速传播及影响广泛的特点,不仅表达了评论者自身的观点,也会影响其他参与者的观点[2].通过对用户发布的在线评论进行基于内容(语义)的聚类分析,可以及时掌握人们对各种热点话题的观点和立场,对于国家、企业和社会都具有重要意义,引起了学术界的高度重视[3].

研究者一开始并没有充分考虑到短文本处理的特殊性,希望沿用处理传统长文本的成功方法处理短文本.比较典型的有:

1) 基于贝叶斯和朴素贝叶斯的方法.

Kyosuke等人[4]在Twitter的信息过滤中使用基于n-gram模型的朴素贝叶斯模型,将输入Twitter流的长度作为变量,利用动平均方法计算词条件概率,较好地平衡了文本长度的影响.Fan等人[5]提出基于组合朴素贝叶斯和K近邻分类器的两步中文短文本分类措施.

2) 利用全体文本集或上下文关系将短文本整体考虑来降低文本长度的影响.

Yang等人[6]尝试借由时间、空间、联系等要素挖掘文本间隐含的关联关系,重构文本上下文范畴,解决短文本情感极性分类问题.Sriram等人[7]针对Twitter数据,分析了Bag-of-words类处理方式在短文本分类中的局限性,提出了从用户信息(user profile)上下文进行限定领域的特征抽取方法.Mihalcea[8]提出了一种基于语料集-知识集的短文本语义近似度测量方法,充分考虑短文本本在大规模语料中表现的特性,在识别转述问题中取得较好的性能.Qiang等人[9]使用LSA+ICA整体提取短文本的语义,从而回避了文本长度较短的问题.

但这些在处理长文本时取得成功的方法,对短文本的处理效果与现实要求还有巨大的差距.追本溯源,正是因为文本对象特征(即语言)本身所固有的多义性,即存在一词多义(polysemy)和一义多词(synonymy)的特点——面对短文本特征的稀疏性和上下文缺失的情况,造成语义难以明辨,理解偏差无法消解,最终形成短文本底层特征和高层语义之间巨大的语义鸿沟.以文本表示环节为例,长文本常用的文本表示方法(如VSM模型)通常会遇到的特征稀疏性问题,会因为文本较短而进一步加剧.如在线评论、微博、短信等短文本,稀疏性可达到95%~99%,使得短文本处理在文本表示环节就遭遇极大的困难[6].

另外,一些在长文本处理中由于计算复杂度过高而难以大规模展开的方法,如基于文本语义和形式比较的方法,因短文本特性又重新受到研究者的重视.目前比较流行的方法包括:

1) 基于文本语义相似度的方法,利用本体(ontology)或其他语义资源计算短文本的语义相似度.

Yang等人[10]通过利用WordNet计算短文本字、词、句的相似性,引入Isomap流形降维研究中文词汇在语义空间(分类空间)的分布聚集情况.刘宇鹏等人[11]基于WordNet进行词义消歧来指导混淆网络对齐,句子的相似性计算使用了二分图的最大匹配算法.李彬等人[12]根据语言学知识,通过分析语句中各成分之间的依存关系揭示其句式结构,通过对有效搭配对的加权计算,得到语句的相似度.彭京等人[13]基于语义内积空间模型进行文本聚类,利用内积空间建立了针对中文概念、词和文本的相似度计算方法.通过一个两阶段处理过程,即向下分裂和向上聚合,完成文本聚类.李素建等人[14]利用同义词词林和HowNet两种语义资源计算词语间的相似度与相关度,通过加权计算,得到语句间的相关度.

2) 基于文本形式相似性的方法,通过比较文本包含的词和词序来计算短文本间语义相似度.

Eric等人[15]提出一种将概率模型应用于计算字符编辑距离的方法.穗志方等人[16]借助于少量的语法、语义信息,建立了一个基于骨架依存树的语句相似度计算模型.Niladri[17]提出了一种基于线性模型的方法,综合考虑实用、语法和语义相似性,通过利用预先按照某一个原则设计好的句对,对调查对象进行测试来实现模型估计.

我们认为:要对短文本间相似性进行合理化度量,文本形式相似性和文本单元语义两个方面不可偏废,必须综合考虑.而现有的工作较少地考虑两者之间的结合,或只是两种方法的简单加和,没有考虑其内在联系.有鉴于此,本文提出了一种改进的短文本语义距离,将文本距离看成是形式距离和单元语义距离的综合:首先,在对变异短文本进行预处理的基础上,以中文词语为单位,利用词典进行语义扩展,计算短文本间最大匹配距离,将其作为衡量短文本间形式距离的指标;其次,基于短文本中的实义单元和非实义单元的不同作用,利用改进的编辑距离算法计算短文本的单元语义距离;最后,利用加权的方法将形式距离和单元语义距离综合为文本距离.最重要的是,为了消除不同文本长度对文本距离的影响,提出利用词表长度对长度进行惩罚的理论,并通过Zipf’s Law和Heap’s Law的对价关系,给出一种词表长度的估计方式.

第1节首先给出一种改进的短文本间语义距离度量模型,并证明语义计算方法在短文本相似性计算中的作用强于长文本.第2节利用词表长度对长度进行惩罚,并给出一种词表长度的估计方式.阐明文本Zipf指数a对长度惩罚的关键性作用机制.第3节在介绍在线评论聚合系统的系统框架的基础上,给出实验结果分析.最后对工作进行总结与展望.

1 基于改进语义距离的文本距离计算

要精确定义文本语义,是一个涉及计算机、人工智能、心理学和认知科学等众多学科的复杂问题.任何定义都可能是片面且富有争议的.但是从统计语言学的角度来看,我们只能计算那些能够用统计特性描述的文本差异.

假设S是单词表,FÎS是空字符,S*是由S组成的句子集合.给定句子R,SÎS*,表示为R=r1r2rl,S=s1s 2sm,其中,ri,si分别表示句子中的第i个单词.那么文本距离可以定义成形式距离和单元语义距离的综合,具体计算方法见表 1.

Table 1 Improved short text similarity measure 表 1 改进的短文本距离计算方法

① 实验中的词语间相似度是使用《同义词词林扩展版》[14,18]计算得到的.《同义词林扩展版》是在《同义词词林》[19]的基础上,按照人民日报语料库中词语的出现频度,剔除罕用词和非常用词完成的.基于此,词语间相似度可以如下定义:

定义1. 假设为ri,sj两词各自在《同义词林扩展版》中的义项集合为M(ri)和M(sj),义项aÎM(ri)和bÎM(sj)间的相似度定义为

n为义项代码开始不同的级数,N为编码的位数.那么ri,sj两词的相似度定义为:

② 语义对齐是指通过计算两个短文本任意词语的相似度,根据词语最大相似度进行一对一不重复匹配,调整短句的词语顺序,使短句的形式结构与长句形式达到最大的形式相似度[11, 12, 13, 14, 15, 16].

③ 根据语言学的相关知识,句子的语义由实义单元(主、谓、宾等)和修饰词(定、状、补等)组成.实义单元表达了句子的主要意义,修饰词起了次要修饰作用.因此,为了区分贡献度,给实义和非实义单元赋以不同权值是自然选择.在不引起歧义的基础上,简化处理将短文本中的全部名词、代词、动词、形容词作为中文实义单元,其他词性的词语如数词、量词、副词等作为非实义单元.

④ 与传统以字为单位的编辑操作不同,这里以词为单位进行编辑操作.从汉语的分析来看,使用以字为单位计算编辑距离的方法,得到的结果只能是形式上的相似度量.采用传统的插入、删除和替换这3种编辑操作,但是根据操作对象词的属性(是否为实义单元)和语义相似度为不同的编辑操作赋以不同的权值.具体计算方式如下:

定义2. w1/w2为插入或删除实义/非实义单元的操作权值,g1/g2为替换实义/非实义单元的操作权值,q为对近义词的替换权值.a1/a2,b1/b2,c为对应的编辑操作次数.那么,以词为单元将一个句子变换为另一个句子所需要的最少编辑操作数d2可如下计算:

为不同编辑操作赋权值是考虑到同样的编辑操作作用于不同词语对象,效果不同.例如:

句1:我喜欢水果;

句2:我喜欢西瓜;

句3:我喜欢电脑.

传统编辑距离得到句1和句2,句1和句3的距离一样.但如果考虑到“水果”和“西瓜”之间较相似,而“水果”和“电脑”相似度较低,以此为出发点,依据语义相似度(方法如操作①)计算编辑操作代价是合理的.而为实义单元和非实义单元赋不同权值,是考虑到其在句子表达中的不同作用.

不同权值的设置体现对语义不同的理解,实验中,权值设置按照以下原则:

· 语义大于形式,既有词义的对齐代价小于插入删除的代价,w1>l,w2>l;

· 既有语义的替换大于语义的增减,g1>w1,g2>w2;

· 实义单元的操作大于非实义单元,w1>w2,g1>g2;

· 近义词的操作代价小于非近义词的代价,l>q,w1>q,w2>q,g1>q,g2>q;

· 形式距离、单元语义距离的权值归一化处理,l+w1+w2+g1+g2+q=1.

⑤ 归一化是指将操作次数利用短文本长度进行归一化处理.假设d为操作次数,|R|,|S|分别为文本R,S的文本长度,则操作次数d的归一化数定义为

DIS(R,S)定义成形式距离d1和单元语义距离d2的综合:

定义3. 短文本R,S的语义距离定义为形式距离d1(R,S)和单元语义距离d2(R,S)的综合:

给定句子R,SÎS*,|R|,|S|表示相应句长,那么经典编辑距离的时间计算复杂度为O(|R|x|S|),即O(n2)[15].本文改进的距离的计算流程如图 1所示,算法时间计算开销要由两个部分组成:a) 形式距离计算开销A;b) 单元语义距离计算开销B.其中,

Fig. 1 Flow of text distance computation图 1 文本距离计算流程

A表示依据所有词对间的语义相似度,进行句子R,S对齐的操作数,其计算时间复杂度可以表示为O(|R|x|S|xT),即O(Tn2).其中,T是基于同义词词林计算两个词的语义相识度的时间复杂度;

B表示在区分实义单元和非实义单元并根据语义为不同的编辑操作赋以不同权值基础上,对对齐后句子进行编辑操作的时间复杂度,因而可近似表示为O(|R|x|S|),即O(n2).

综上所述,改进距离测度的时间复杂度为O(Tn2)+O(n2).同时,考虑到语义计算T的高复杂度,本文所提出的改进语义距离时间复杂度高于经典编辑距离的时间复杂度O(n2).但值得注意的是,改进算法主要面对短文本,即n比较小的情况下,整体时间开销能够满足实际应用要求.这一点也在我们后续的实验比较中得到验证.正如我们在论文中讨论的,一些在长文本处理中由于计算复杂度过高而难以大规模展开的方法,如基于文本语义和形式比较的方法,因短文本特性又重新受到研究者的重视.

2 基于词表长度惩罚的短文本距离计算方法 2.1 句子长度对文本距离度量的影响

第1节给出了一种改进的语义距离度量,虽然简单,但充分融合了形式距离和单元语义距离.而现有的工作较少地考虑两者之间的结合,或只是两种方法的简单加和,没有考虑其内在联系.主要原因之一是在处理长文本时,引入语义度量方法所带来的计算量过于巨大,而当处理任务比较简单的时候,引入这样的高复杂度操作是不恰当的.而短文本由于文本较短,却给了基于语义的方法实际应用的机会.此外,用户处理目的日趋复杂,也使得研究者开始考虑基于语义的方法.

实际上,除了计算复杂度的考虑,接下来我们的分析也将说明:引入语义度量方法所带来的文本差异性,随着文本长度的增加而逐渐弱化.而只有当文本长度较短时,这样的差异性才是显著的.这也从另外一方面支持了文献[11, 12, 13, 14, 15, 16, 17]的结论,即基于语义的方法没有在长文本分析中表现出明显的优势.同时我们也发现文本长度在短文本距离计算中起到的决定性作用,特别是当两个短文本长度不一致的时候,那么句子间语义相似度将由长句子所主导.这毫无疑问会给计算带来误差,这也是第2.2节基于词表长度的短文本距离惩罚算法的出发点.

命题1. 语义计算方法在短文本相似性计算中的作用强于长文本.

证明:假设S是单词表,FÎS是空字符,S*是由S组成的句子集合.给定句子R,SÎS*,表示为R=r1r2rl,S=s1s2sm,句子长度分别为lm,其中,ri,si分别表示句子中的第i个单词.假设文本按单词码本S以随机方式产生,即任意字符ciÎS以概率Pci出现在句子中,且字符出现统计独立,那么,随机文本R,S中同时出现字符ci的概率为

假设字符ci的语义等价类定义为

表示与字符ci在语义上类似的字符集合,其中,sim(×,×)表示语义近似度量.假设文本按单词码本S以随机方式

产生,即任意字符ci的等价类ci+以概率Qci出现在句子中,那么随机文本R,S中同时出现等价类ci+的概率为

这样一来,P(ci)可以用来度量不引入语义计算时,句子R,S相似的概率;P(ci+)可以用度量来引入语义计算

时,句子R,S相似的概率.显然,Qci>Pci,计Qci=Pci+△,那么P(ci+)和P(ci)的差异为

首先,我们考察引入语义计算产生的句子差异dD间极限、偏导和弹性系数关系:

在这里,为了简化分析,假设l=m,阶乘用斯特林公式近似.从公式(10)~公式(12)可知,dD

单调增函数,且弹性系数r>0表示dD存在正相关性.通常,实际语言中D较小.这一点不难理解,若D较大,表明语言本身存在较大歧义性.

其次,当句子长度lm较大时,即,当R,S为长文本时:

从公式(13)、公式(14)可知:虽然句子长度lm与语义差异d间不存在单调关系,但是无论PciD的取值如何,随着文本长度lm的增加,d®0.说明对于长文本来说,随着文本长度的增加,由语义计算带来的差异性逐渐被文本长度消弭.特别是对于实际语言,PciD都相对较小,这样的趋势尤为显著.

再次,当句子长lm长度差异性较大时,即当R,S一个为长文本,另外一个为短文本时,文本间语义差异由较长的文本主导,d®0,即:

而只有当R,S为短文本时,由D主导差异性d.即在短文本相似性计算中,语义度量方法作用较为显著.

综上可知,语义计算方法在短文本相似性计算中的作用强于长文本.

2.2 基于词表长度惩罚的短文本距离计算方法

上一节说明了短文本范式给了语义计算方法新的机会,这不仅仅是因为计算复杂度的原因,更主要是因为语义计算的方法会随着文本长度的增加,其作用不断弱化.实际上,从定理1可以简单推断:语义计算受到文本长度的影响,特别是当文本长度不一致的时候,较长的文本起的作用更大.从信息论的角度来看,较长的文本天然地比稍短的文本蕴含更多的信息,如果不对句子长度进行处理,势必会造成各种基于语义的距离度量方法退化成结构形式比较.对于传统长文本来说,由于平均句长较长,这样的影响还不明显;但对于短文本来说,本来平均句长就较短,句子长度所造成的影响就非常显著了.聚类结果按句长分布,长句和长句在一起,短句和短句在一起,而忽视句子的意义.这毫无疑问会给计算带来误差.

为了解决上述问题,研究者们最直接地想到使用文本原始长度对距离进行惩罚,希望借此消弭句子长度不同所带来的影响.具体做法如下:

定义3. 假设S是单词表,FÎS是空字符,S*是由S组成的句子集合.给定句子R,S,TÎS*,表示为R=r1r2rl,S=s1s2sm,T=t1t2tn,其中,ri,si,ti分别表示句子中的第i个单词.|×|表示文本的长度,即文本中所有包含的单词数目,||×||表示文本的词表长度(distinct words count),即文本中所有不相同单词数量.

定义4. 假设DIS(×,×)是定义在S*所张成的空间的二元短文本语义距离测度,其满足:

1. DIS(R,S)≥0;

2. 当且仅当R=S,DIS(R,S)=0;

3. DIS(R,S)=DIS(S,R).

定义5. LDIS(×,×)表示基于句长惩罚的语义距离测度,定义为

其满足:

1. LDIS(R,S)≥0;

2. 当且仅当R=S,LDIS(R,S)=0;

3. LDIS(R,S)=LDIS(S,R).

虽然研究者尚未彻底弄清句长的作用机制,但这种简单的方法在实际应用中却表现出惊人的有效性,被应用在各种领域的应用当中[20].但研究者也在怀疑是否基于句长的惩罚方法是最优解决方案.实际上,引入句长惩罚的初衷是为了解决不同长度文本所承载的信息容量不同的问题.如果从这个角度来看,混同考虑所有单词而不区分文本的具体内容是不合适的,特别是不应忽视文本中重复出现的单词所造成的影响.正是考虑到重复单词出现的影响,我们提出了一类基于词表长度惩罚的语义测度,定义如下:

定义6. NDIS(×,×)表示基于词表长度惩罚的语义距离测度,定义为

其中,,且满足:

1. NDIS(R,S)≥0;

2. 当且仅当R=S,NDIS(R,S)=0;

3. NDIS(R,S)=NDIS(S,R).

NDIS_I和NDIS_II型语义距离测度的不同在于,句子中重复词起了不同的作用.NDIS_I假设句子中重复词的出现拉大了句子间的语义距离,而NDIS_II假设句子中重复词的出现缩短了句子间的语义距离.由于NDIS_I和NDIS_II型语义距离测度更加精细地反映了句子重复成分的影响,因而可以预计,其性能应优于传统的LDIS距离测度.

令人惊讶的是,我们在实验中发现,NDIS和LDIS在大量语料集上竟然表现出一致的特性.进一步的深入研究发现:当文本Zipf指数a<1时,文本长度和词表长度呈线性关系,NDIS_I,NDIS_II型语义距离测度和LDIS等价;当Zipf指数a>1时,文本长度和词表长度呈非线性关系,基于词表长度的距离加权方法显著优于基于文本长度加权的方法.

命题2. 当文本Zipf指数a<1时,文本长度和词表长度呈线性关系,基于词表长度惩罚的语义距离测度NDIS线性等价与基于句长惩罚的语义距离测度LDIS;当文本Zipf指数a>1时,文本长度和词表长度呈非线性关系,基于句长惩罚的语义距离测度LDIS不线性等价与基于词表长度惩罚的语义距离测度NDIS.

证明:

1) 首先,根据Heaps提出的Heaps定律[21],即在自然语言中,文本的词表长度(distinct words count,文本中所有不相同单词的数量)并不随着文档规模的增长呈线性增长,而是亚线性增长关系,即:

其中,l称为Heap指数,t为文档长度,N(t)为文档中词表长度.

2) 其次,根据Zipf提出的Zipf’s定律[22],即自然语言词频的分布符合一个确定的实验数学模型,具体表现为:在自然语言中,如果把单词出现的频率按倒序排列,单词的词频Z与排名r之间满足指数公式,且它们之间成反比的关系:

其中,a称为Zipf指数,r为单词w在词频表中的排名,z(r)为单词w在词频表中的词频.Zipf定律和Heaps定律都是实验定律,而非理论定律,在自然界许多复杂系统中都存在Zipf定律和Heaps定律,只是不同的环境下存在不同的指数.

3) Zhou等人[23]证明,对Heap指数与Zipf指数存在以下对价关系:

那么,通过公式(21),将公式(19)中N(t)与Heap指数的关系转化为N(t)与Zipf指数的关系:

当文本Zipf指数a<1时,文本长度和词表长度呈线性关系,这样一来:

基于句长惩罚的语义距离测度LDIS线性等效于基于词表长度惩罚的语义距离测度NDIS.当文本Zipf指数a>1时,文本长度和词表长度呈非线性关系,基于句长惩罚的语义距离测度LDIS不线性等效于基于词表长度惩罚的语义距离测度NDIS.

综上所述,利用文本长度对文本距离进行惩罚加权已经成为了研究者们的共识,但我们认为:不区分对待句子中不同的成分,特别是忽视句子中重复单词的作用是不应该的.因此本节中,我们提出了基于词表长度加权惩罚的语义距离测度NDIS,并证明了:当文本Zipf指数a<1,NIDS线性等价与LDIS,两者只相差一个比例系数,这样的差别可以通过类似归一化处理进行消除;而当文本Zipf指数a>1时,NIDS不等价与LDIS,后续实验也表明了,基于词表长度的距离加权方法显著优于基于文本长度加权的方法.因此我们有理由认为:文本语义距离应和词表长度成比例关系,只不过现实文本大多Zipf指数a<1,从而表现为和文本长度成比例关系.

实际上,公式(19)~公式(24)还给出Zipf指数a计算NDIS语义距离的简便方法,即:根据Zipf’s Law和Heap’s Law的对价关系,通过估算样本集的Zipf指数a和文本的原始长度计算文本的词表长度.这样一来,可以省去为每一个文本统计词表的工作.

3 实验结果与分析 3.1 在线评论聚类分析系统框架

在线评论聚类系统框架由4部分组成(如图 2所示):在线评论提取模块、数据预处理模块、文本距离计算模块、在线评论聚合模块.利用在线评论提取模块从Internet获取在线评论;通过数据预处理模块对在线评论进行变异短文本处理;文本距离计算模块用于计算经过规范化处理的文本之间的距离,得到文本距离矩阵;利用在线评论聚合模块对文本距离矩阵进行聚合分析.通过聚合分析,最终将在线评论按照主题簇的方式呈现给用户.

Fig. 2 Diagram of online comment clustering framework图 2 在线评论聚合系统框架图

具体模块功能如下:

(1) 在线评论提取模块.利用push和pull两种方式完成在线评论获取.同时也为脱机数据预留处理接口;

(2) 数据预处理模块.在线评论表达形式自由随意,需要通过统一字符编码对原始数据进行了预处理,消

除不同编码的字符对语义距离计算结果的影响;

(3) 文本距离计算模块.在线评论聚合系统的关键问题是短文本间距离的度量,通过综合分析文本间的

形式距离和单元语义距离;

(4) 在线评论聚合模块.通过文本距离计算模块得到文本距离矩阵,利用聚类算法对矩阵进行聚类分析,

得到不同的主题簇.

3.2 实验设计

实验中采用的语料集合包括:

(1) 在线评论数据集Comment:是通过在线评论提取模块得到的在线短文本评论数据,其中,一类为新浪微博(http://weibo.com)中关于网易邮箱的微博评论信息(时间跨度2011年6月14日~15日);另一类为战网游戏论坛魔兽世界版块(http://www.battlenet.com.cn/wow/zh/forum/)中关于魔兽世界的评论(时间跨度2011年6月14日~15日).实验中,分别随机选择两类各220条文本,共440条短文本作为实验语料.通过计算,得到其文本Zipf指数a=0.716<1.

(2) 短信数据集合SMS[24]:精细标注的短信子集合(共4 486条精细标注短信数据,数据集中的短信根据不同的主题被分为5个类别).实验中,分别随机选择10%的样本计440条短信作为实验样本,样本中5个类别的样本数呈均匀分布,保证了实验效果的有效性.通过计算,得到其文本Zipf指数a=0.861<1.

(3) 863文本分类评测数据集:2004年~2006年863文本分类评测提供的标准分类数据集,该数据集按中图分类法体系进行划分.实验中,将文档标题截取出来作为评测数据.我们使用两组子集数据AK,ADK.其中,AK数据集为分别在A,K两类文本中各随机抽取100条文本共200条短文本组成AK数据集,Zipf指数a=1.07>1;ADK数据集为分别在A,D,K这3类文本中各随机抽取100条文本共300条文本组成ADK数据集 ,Zipf指数a=1.05>1.其中,A分类表示马克思主义、列宁主义、毛泽东思想、邓小平理论,D分类表示政治、法律,K分类表示历史、地理.

(4) TanCorp60-Raw数据集(http://www.searchforum.org.cn/tansongbo/software.htm):共收集了财经、地域、人才、艺术等12个一级类别、60个二级类别,共计14 150条文本.经过统计分析,语料中的二级类别人才创业、艺术古董两类样本的统计特性a=1.05>1,因此,将两类样本作为实验的测试样本.在两类中分别随机选择200条样本共400条样本作为测试集.

此外,短文本聚类模型采用Affinity Propagation算法[25]对文本进行聚类,AP算法不需要用户预先提供目标类数,在聚类的过程中,通过计算类内密度与类间密度的差别进行自动类别确定.

聚类性能评价指标采用E[26],这是在聚类数据标签未知的情况下,评价聚类性能较好的方法[27].给定一个聚类簇Sr以及簇样本数nr,则此簇的熵表示为

其中,E(Sr)为簇的熵,q为测试数据的原始类别数,nri为簇Sr中第i类的样本数,则聚类结果的E熵定义为所有簇的熵值与簇样本数加权平均:

其中,E(Sr)为簇的熵,n为测试数据的样本总数,nr为簇样本数,k为聚类结果的簇数.一个好的聚类结果是每个簇中只包含某一类样本,此时熵值为0.熵值越小,说明聚类性能越好.

3.3 实验结果分析

实验比较了本文提出的改进语义距离ISD(improved semantic distance)和编辑距离Edit(edit distance)采用不同句长惩罚策略的性能,共10种距离计算模型在5组测试集上的聚类性能.实验结果见表 2,其中,Edit,Edit/ LDIS,Edit/NDIS_I和Edit/NDIS_II分别表示简单编辑距离、基于句长惩罚的编辑距离、基于词表长度NDIS_I和词表长度NDIS_II惩罚的编辑距离.由于ISD综合考虑句子之间形式结构和单元语义上的差别程度,通过调节权值的大小来调节形式结构和单元语义在文本内容(语义)方面的权重.ISD_I设置单元语义的信息贡献度要大于形式结构信息,因此,单元语义的操作权值大于形式结构的操作权值.结合第1 节权值选择原则和实验中的经验值,其权值如下:l=0.04,w1=0.27,w2=0.05,g1=0.54,g2=0.09,q=0.01.ISD_II是参数设置的一种极端情况,参数设置为l=0,w1=0,w2=0,g1=0,g2=0,q=1,这种情况只考虑文本中的近义词,忽略了文本之间差别.ISD_I(II)/LDIS,ISD_I(II)/NDIS_I和ISD_I(II)/NDIS_II分别表示基于句长惩罚的改进语义距离、基于词表长度NDIS_I和词表长度NDIS_II惩罚的改进语义距离.

Table 2 Clustering entropy comparison 表 2 实验结果聚类熵性能比较
从实验结果可知:

首先,对于本文提出的改进语义距离,相比编辑距离,表现出了稳定一致的优势,且距离惩罚能显著提升模型性能.ISD_I比ISD_II算法性能更优,主要是因为ISD_I模型同时考虑了词义以及结构信息,而ISD_II模型偏重考虑语义距离.

其次,对于本文提出的距离惩罚机制来说,基于词表长度进行距离惩罚优于基于文本长度惩罚.对于a<1的文本,文本长度和词表长度呈线性关系,两者只相差一个比例系数.通过类似归一化处理以后,NDIS_I,NDIS_II型语义距离模型和LDIS模型等价,可以直接利用文本的原始长度代替词表长度对文本距离进行惩罚.因此,此时基于LDIS,NDIS_I和NDIS_II的惩罚性能一致,在表中只填写了LDIS性能,其他两列用斜线划去不填.当a>1时,文本长度和词表长 度呈非线性关系,NDIS_II>NDIS_I>LDIS,即,利用词表长度对距离进行处理优于利用文本长度处理.

同时,我们还比较了算法的时间复杂度,如图 3所示,比较了10种距离在5个数据集上计算时间.由于Edit/NDIS_I和Edit/NDIS_II,ISD_I/NDIS_I和ISD_I/NDIS_II,ISD_II/NDIS_I和ISD_II/NDIS_II只是归一化时所除以的分母不同,而计算时间具有一致性,为了节省画图空间,我们仅绘制了Edit,Edit/LDIS,Edit/NDIS_I,ISD_I/LDIS,ISD_I/NDIS_I,ISD_II/LDIS,ISD_II/NDIS_I的性能.从图中可以看出,改进算法在时间复杂度高于经典的编辑距离.这一点也与前面的时间复杂度分析一致.因此,在数据规模特别巨大、实时性要求高的应用场景下,应选择使用经典编辑距离及其改进,如Edit,Edit/NDIS_I和Edit/NDIS_II等,以优先满足实时性要求.但在实时性要求较低的应用场景,例如网络评论分析等,可以脱机处理大量数据的应用,也可以考虑使用ISD_I/NDIS_I和ISD_I/NDIS_II,ISD_II/NDIS_I和ISD_II/NDIS_II等改进型语义计算方法.考虑到改进算法带来的性能的提升,在这样的应用场景下,对计算时间的略微牺牲在一定程度上是可接受的.

Fig. 3 Comparison of CPU computation time (ms)图 3 算法CPU计算时间比较(毫秒)

再次,为了深入分析所提算法的性能,进一步将算法和8种短文本距离测度进行了比较:1) 改进型编辑距离,包括Damerau-Levenshtein距离[28]、加权编辑距离[29];2) 基于Bag-of-word文本表示模型的距离改进[30],即用向量空间模型表示短文本后,尝试使用不用的距离测度衡量短文本间相似度,包括Canberra距离、Minkowski距离(p=0.5)、Chi square距离、Manhattan距离、cosine距离、欧式距离.实验结果如图 4所示,从中可以看出:算法性能在各语料集上保持一致性,同时,改进算法性能均优于所对比算法.

Fig. 4 Clustering entropy comparison of performance图 4 算法性能聚类熵比较

最后,表 3从不同语料集的角度分析了算法性能.虽然实验用语料集来源不同,但有可能包含相同语义性质的内容.如果能从语义内容的角度观察算法性能,将能够更加明确算法的适用范围,从而对实际应用进行指导.因此,我们尝试从语义角度重新组织实验分析.表 3中,Beitzel[31]在对约13%美国本土网络在线查询日志的逐小时分析后发现,网络上最受用户欢迎的查询主题内容比例分别是购物(shopping)13%、娱乐(entertainment)13%、色情(porn)10%、计算技术(computing)9%、研究学习(research & learn)9%、健康(health)5%、旅行5%、游戏(games)5%、家庭(home)5%、体育(sports)3%、个人经济计划(personal finance)3%、假日(holidays)1%以及其他.经过分析实验所用语料特性,科研看出实验语料集合覆盖了大部分网络用户的热门查询主题,从而一定程度上说明本文的方法有可能适用于网络真实应用场景.

Table 3 Semantic analysis of corpus 表 3 语料集语义特性分析
参考文献
[1] Yang F, Peng QK, Xu T. Sentiment classification for online comments based on random network theory. Acta Automatica Sinica, 2010,36(6):837-844 (in Chinese with English abstract) .
[2] Balog K, Mishne G, de Rijke M. Why are they excited? Identifying and explaining spikes in blog mood levels. In: Proc. of the ECACL 2006. 2006. 207-210.
[3] Turney PD, Littman ML. Measuring praise and criticism: Inference of semantic orientation from association. ACM Trans. on Information Systems, 2003,21(4):315-346.
[4] Kyosuke N, Takahide H, Ko F. Improving tweet stream classification by detecting changes in word probability. In: Proc. of the ACM SIGIR 2012. 2012. 971-980 .
[5] Fan XH, Wang P. Chinese short text classification in two steps. Journal of Dalian Maritime University, 2008,34(3):121-124 (in Chinese with English abstract).
[6] Yang Z, Lai YX, Duan LJ, Li YJ. Short text sentiment classification based on context reconstruction. Acta Automatica Sinica, 2012, 38(1):55-67 (in Chinese with English abstract) .
[7] Sriram B, Fuhry D, Demir E, Ferhatosmanoglu H, Demirbas M. Short text classification in twitter to improve information filtering. In: Proc. of the ACM SIGIR 2010. 2010. 841-842 .
[8] Mihalcea R, Courtney C, Strapparava C. Corpus-Based and knowledge-based measures of text semantic similarity. In: Proc. of the AAAI 2006. 2006. 775-780.
[9] Pu Q, Yang GW. Short-Text classification based on ICA and LSA. In: Proc. of the ISNN 2006. LNCS 3972, Heidelberg: Springer- Verlag, 2006. 265-270 .
[10] Yang Z, Fan KF, Lei JJ, Guo J. Text manifold based on semantic analysis. Acta Electronica Sinica, 2009,37(3):557-561 (in Chinese with English abstract) .
[11] Liu YP, Li S, Zhao TJ. System combination based on wsd using WordNet. Acta Automatica Sinica, 2010,36(11):1575-1580 (in Chinese with English abstract) .
[12] Li B, Liu T, Qin B, Li S. Chinese sentence similarity computing based on semantic dependency relationship analysis. Application Research of Computers, 2003,20(12):15-17 (in Chinese with English abstract) .
[13] Peng J, Yang DQ, Tang SW, Fu Y, Jiang HK. A novel text clustering algorithm based on inner product space model of semantic. Chinese Journal of Computers, 2007,30(8):1354-1363 (in Chinese with English abstract) .
[14] Li SJ. Research of relevancy between sentences based on semantic computation. Computer Engineering and Applications, 2002, 38(7):75-76 (in Chinese with English abstract) .
[15] Ristud ES, Yianilos PN. Learning string-edit distance. IEEE Trans. on Pattern Analysis and Machine Intelligence, 1998,20(5): 522-532 .
[16] Sui ZF, Yu SW. The skeletal-dependency-tree-based computational model for the sentence similarity. In: Proc. of the Conf. of Chinese Information Processing. 1998. 458-465 (in Chinese with English abstract).
[17] Chatterjee N. A statistical approach for similarity measurement between sentences for EBMT. In: Proc. of Symp. on Translation Support Systems. 2001.
[18] Che WX, Li ZH, Liu T. LTP: A Chinese language technology platform. In: Proc. of the Coling 2010. 2010. 13-16.
[19] Mei JJ, Zhu YM, Gao YQ, Yin HX. TongYiCi CiLin. 2nded., Shanghai: Shanghai Lexicographic Publishing House, 1996 (in Chinese).
[20] Li YJ, Liu B. A normalized levenshtein distance metric. IEEE Trans. on Pattern Analysis and Machine Intelligence, 2007,29(6): 1091-1095 .
[21] Heaps HS. Information Retrieval: Computational and Theoretical Aspects. Academic Press, 1978.
[22] Zipf GK. Human Behavior and the Principle of Least Effort. Oxford: Addison-Wesley Press, 1949.
[23] Lü LY, Zhang ZK, Zhou T. Zipf’s law leads to heaps’ law: Analyzing their relation in finite-size systems, Plot Ones, 2010,5(12):1-11.
[24] Ma X, Xu WR, Guo J, Hu RL. SMS-2008: An annotated Chinese short messages corpus. Journal of Chinese Information Processing, 2009,23(4):22-26 (in Chinese with English abstract) .
[25] Frey BJ, Dueck D. Clustering by passing messages between data points. Science, 2007,315(5814):972-976 .
[26] Zhao Y, Karypis G. Empirical and theoretical comparisons of selected criterion functions for document clustering. Machine Learning, 2004,55(3):311-331 .
[27] Papapetrou O, Siberski W, Fuhr N. Decentralized probabilistic text clustering. IEEE Trans. on Knowledge and Data Engineering, 2012,24(10):1848-1861 .
[28] Damerau FJ. A technique for computer detection and correction of spelling errors. Communications of the ACM, 1964,7(3): 171-176 .
[29] Schauerte B, Fink GA. Focusing computational visual attention in multi-modal human-robot interaction, In: Proc. of the Int’l Conf. on Multimodal Interfaces and the Workshop on Machine Learning for Multimodal Interaction. 2010 .
[30] Perlibakas V. Distance measures for PCA-based face recognition. Pattern Recognition Letters, 2004,25(6):711-724 .
[31] Beitzel SM, Jensen EC, Chowdhury A, Grossman D, Frieder O. Hourly analysis of a very large topically categorized Web query log. In: Proc. of the ACM SIGIR 2004. 2004. 321-328 .
[1] 杨锋,彭勤科,徐涛.基于随机网络的在线评论情绪倾向性分类.自动化学报,2010,36(6):837-844 .
[5] 樊兴华,王鹏.基于两步策略的中文短文本分类研究.大连海事大学学报,2008,34(3):121-124.
[6] 杨震,赖英旭,段立娟,李玉鑑.基于上下文重构的短文本情感极性判别研究.自动化学报,2012,38(1):55-67 .
[10] 杨震,范科峰,雷建军,郭军.基于语义的文本流形研究.电子学报,2009,37(3):557-561 .
[11] 刘宇鹏,李生,赵铁军.基于WordNet词义消歧的系统融合.自动化学报,2010,36(11):1575-1580 .
[12] 李彬,刘挺,秦兵,李生.基于语义依存的汉语句子相似度计算.计算机应用研究,2003,20(12):15-17 .
[13] 彭京,杨冬青,唐世渭,付艳,蒋汉奎.一种基于语义内积空间模型的文本聚类算法.计算机学报,2007,30(8):1354-1363 .
[14] 李素建.基于语义计算的语句相关度研究.计算机工程与应用.2002,38(7):75-76 .
[16] 穗志方,俞士汶.基于骨架依存树的语句相似度计算模型.中文信息处理国际会议论文集.1998.458-465.
[19] 梅家驹,竺一鸣,高蕴琦,殷鸿翔.同义词词林.第2版,上海:上海辞书出版社,1996.
[24] 马旭,徐蔚然,郭军,胡日勒.SMS-2008标注中文短信息库.中文信息学报,2009,23(4):22-26 .