2. 计算机软件新技术国家重点实验室(南京大学), 江苏 南京 210023
2. State Key Laboratory for Novel Software Technology (Nanjing University), Nanjing 210023, China
随着人口和活动多样性的增加,密集人群现象越来越普遍,给公共空间管理和社会安全带来了巨大的挑战.如果能够利用广泛分布的视频监控设施进行事件检测,则可方便公共空间管理,提升社会管理能力.由于人群场景分析的巨大应用价值,人群场景分析已经成为近几年视频监控领域的研究热点,吸引了大量研究者的关注[1, 2, 3, 4].人群场景分析是指对由大量目标所构成的场景进行分析,主要包括人群密度估计[5]、人群中的目标追踪[6]、移动模式分割[7]、人群行为识别[8]、人群异常事件检测[9, 10, 11, 12, 13, 14, 15, 16, 17, 18, 19, 20, 21, 22, 23, 24, 25, 26, 27, 28, 29, 30, 31]等内容.人群密度高、模式变化快、场景中存在着巨大的遮挡等挑战,使得传统视频监控技术不能直接应用于人群场景[1, 2],这使得人群场景分析仍然是一个有待解决的问题,涌现了大量相关研究[1, 2, 3, 4].但是,仍然没有被普遍接受的用于人群场景分析任务的解决方案[4].在人群场景分析的众多问题中,人群异常事件检测是研究焦点之一[9, 10, 11, 12, 13, 14, 15, 16, 17, 18, 19, 20, 21, 22, 23, 24, 25, 26, 27, 28, 29, 30, 31].
人群异常事件检测指的是对人群场景中不符合规则的事件进行检测.这里的不符合规则的事件即异常的定义往往带有主观性[3],比如,可以把人群恐慌当作异常事件,也可以把在场景中打架斗殴当作异常事件,或者是在人行道骑车等等.人群异常检测可被建模为“正常-异常”二分类问题[32].基于异常类型,可以进一步区分为空间异常事件检测和时间异常事件检测[9].图 1给出了这两种事件的例子:在图 1(a)中,浅色的轨迹为随时间变化形成的符合规则的车辆运行轨迹,深色的U型弯为随时间变化形成的异常的轨迹,这种情况被视为时间异常事件;而在图 1(b)中,每一个椭圆代表了行进中的个体,而深色那个个体是不同于周围的个体的,这种情况被视为空间异常事件.
空间建模和时间建模分别为上述两种异常检测提供了有效手段,是异常检测建模的主要方法.例如,文献[10, 11, 12]以时空块的形式来表示时间异常事件和空间异常事件,但是这些方法只考虑了局部信息,而忽略了各个局部之间的关系.但是在空间异常事件中,每个个体与周围个体之间存在着一定的关系,而只以时空块的形式来表示异常事件则只是通过对局部的区域进行观察来发现是否是异常事件,这样往往会忽略掉一些有助于空间异常事件检测的信息;而对于时间异常事件,不同时间异常事件持续的时间是不一样的,而只以时空块的形式来表示异常事件则只是通过对较短的一段时间的观察来发现是否是异常事件,这样往往会忽略掉一些有助于时间异常事件检测的信息.虽然也有一些方法考虑了各局部空间维度之间的相互关系[13, 14, 15],或者考虑了各局部时间维度之间的相互关系[16, 17],但是它们只是考虑了其中一方面,而没有同时考虑各局部时间维度的相互关系和各局部空间维度的相互关系.
目前,也有极少部分方法同时考虑到了各局部时间维度的相互关系和各局部空间维度的相互关系,但是基本上都是对它们进行独立建模[18, 19, 20, 21],然后再整合它们的检测结果.例如,Mahadevan等人[18]首先基于混合动态纹理为时间正常事件建立模型,时间异常等同于低概率事件,而空间异常则使用了基于混合动态纹理的判别空间显著性的方法;然后,在分别得到空间异常检测结果和时间异常检测结果之后,将它们的结果合并起来作为异常检测和定位的结果用于人群异常检测和定位;最后,通过实验证明了该方法要优于大部分的人群异常检测和定位方法.之后,Li等人[21]进一步对Mahadevan等人的工作进行完善,在原有的工作上加入了多尺度的空间异常情况检测,并提出了使用判别模型来整合空间和时间异常情况来进行人群异常检测和定位的方法、使用适合在线检测的在线条件随机场(conditional random fields,简称CRF)以整合空间和时间异常情况以进行人群异常的检测和定位的方法.Li等人[21]也对时空关系对于人群异常事件检测的影响进行了研究,证明了同时考虑空间维度的相互关系以及时间维度的相互关系的确有助于人群异常事件的检测.使用混合动态纹理并结合时间异常和空间异常的方法虽然比许多人群异常检测方法效果要好,但是这个方法需要大量的计算,检测大小为240×160的视频图像需要花费25s,很难保证实时性[10].
为了实现全局时空建模,本文提出一种基于多尺度时间递归神经网络(multi-scale recurrent neural network,简称MRNN)的人群异常事件检测和定位方法.首先,本方法将人群场景进行网格化划分,计算每一帧的光流,并从各个局部网格中提取多尺度光流直方图(multi-scale histogram of optical flow,简称MHOF)特征;然后,链接各个局部网格特征作为整体的人群动态,并将整体人群动态当作时间序列;最后,利用多尺度时间递归神经网络模型同时对时间维度的关系和空间维度的关系进行建模.利用多尺度时间递归神经网络的隐含层来发现人群场景中的不同尺度的相邻网格之间的关系,利用反馈节点来发现时间维度的关系,利用递归神经网络的输出层对不同网格进行判别,以此来发现和定位异常事件.本文的贡献在于:基于时间递归神经网络,对视频信息中的空间维度相互关系和时间维度相互关系进行了统一建模;根据时空关系的局部性,构造了多尺度时间递归神经网络模型,提高了检测效果和检测效率.
1 相关工作根据引发异常的个体数目,可以将人群异常检测分成两类:局部异常事件检测和整体异常事件检测[22].其中,局部异常事件检测指的是个体行为与其周围邻居的行为存在差异,如人行道上骑车;而整体异常事件检测指的是整个场景中的一群人的行为是异常的,如人群恐慌[4].整体异常事件检测的任务是检测异常事件,并确定异常事件的起始和终止位置以及它们之间的过渡;局部异常事件检测的任务是检测异常事件,并定位异常发生的位置[4].
整体异常事件检测往往是通过将人群看作一个整体,然后从中提取主要的移动模式来检测异常事件[4],如文献[14, 23, 24, 25, 26].其中,Chen等人[14]将人群表示成图的形式,各个独立的区域被当作是一个节点,为了有效地建模拓扑变化,他们综合考虑局部特征和全局特征,并结合它们作为指示器去发现在场景中是否出现异常情况;最近, Wu等人[26]提出了一个用于逃跑恐慌行为检测的贝叶斯框架,他们使用光流场来表示人群移动,然后构造对应的光流的类条件概率密度函数,最后,通过贝叶斯框架进行逃跑恐慌行为检测.局部异常事件检测除了要检测异常以外,还需要进一步定位异常发生的位置.为了实现局部异常事件检测,已提出了不同的异常检测技术[9, 10, 11, 12, 13, 16, 17, 18, 19, 20, 21, 22, 27, 28, 29, 30, 31].主流技术主要有两类:一类是基于视觉的方法,这种方法只使用来自计算机视觉邻域的技术来进行模型的学习和预测,如隐含马尔可夫模型(hidden Markov model,简称HMM)[20]、动态纹理[18, 21]、词袋模型[28]、稀疏表示[22]、流型学习[29]等;另一类是受物理启发的方法,这种方法结合了用于人群动态表示的相关物理模型,并使用学到的模型来进行异常的检测,如流场模型[30]、社会力模型[13]、人群能量模型[31]等.更加具体的信息可以参见综述文献[1, 2, 3, 4].
2 多尺度时间递归神经网络模型人群异常检测主要的目标在于寻找人群状态的变化与人群异常之间存在的关系,其关键在于:(1) 构建能刻画人群状态变化的特征;(2) 构建人群状态的变化与人群异常之间存在的关系的模型.针对上述两个关键问题,本文设计了如图 2所示的两阶段异常事件检测框架:在特征表示阶段,首先需要对整个场景进行网格化划分,并从每个网格中提取相应的人群动态特征,最后连接各个网格的特征一起作为当前时刻的人群状态;在建模阶段,拟利用多尺度时间递归神经网络模型对时间维度的异常和不同尺度的空间维度的异常情况进行同时建模,进而检测每个网格的异常情况.
人群动态特征是人群异常事件检测的基础.由于MHOF同时保存了时间和空间上下文信息[22],本文拟使用MHOF作为底层特征表示方法.如图 3所示,在基于光流算法获得光流场后,我们将每个网格中的像素量化成MHOF.具体来说,使用如下方式对网格中的每个像素进行量化,计算MHOF:
$h(x,y)=\left\{ \begin{array}{*{35}{l}} round\left( \frac{p\theta (x,y)}{2\pi } \right)\text{ }\bmod \text{ }P, & r(x,y) < \tau \\ round\left( \frac{p\theta (x,y)}{2\pi } \right)\text{ }\bmod \text{ }P+P, & \tau \le r(x,y) < \varsigma \\ round\left( \frac{p\theta (x,y)}{2\pi } \right)\text{ }\bmod \text{ }P+P+P, & r(x,y)\ge \varsigma \\ \end{array} \right.$ | (1) |
在得到每个网格的MHOF之后,我们连接各个局部的人群动态获得整体的人群动态,构建人群动态的时间序列表示.具体来说,令N表示网格的数目,Gn(Gn∈$\Re $24)表示第n个网格的MHOF特征,我们将N个网格链接成为xt=(G1,G2,G3,…,GN)T,总共N×24维的一个向量来表示当前时刻的人群动态;由多个连续时刻的人群动态x1,x2,…, xT,我们获得了人群动态的时间序列表示.
2.2 多尺度时间递归神经网络模型对于人群异常事件检测,另一个关键点在于构建人群状态的变化与人群异常之间存在的关系的模型.为了更好地发现时间异常事件和空间异常事件,我们基于时间递归神经网络对视频信息中的空间维度相互关系和时间维度相互关系进行了统一建模,并根据时空关系的局部性构造了多尺度时间递归神经网络模型.下面给出详细的论述.
对于视频序列来说,它是天然的时间序列,并且在人群异常事件检测问题中存在着时间维度的异常,而时间递归神经网络是一个随时间运作的神经网络,它能利用输入序列中的时间信息,如图 4所示.在时间递归神经网络(recurrent neural network,简称RNN)的每个时间段中,当前输入与上一个时刻的中间状态共同作用产生新的中间状态,这个中间状态就表示了当前时刻与过去时刻之间的相互关系,当前的输出由过去时刻与当前时刻之间的相互关系决定.为此,在本问题中,我们利用RNN的上述特性来发现时间异常事件;通过网格化划分,利用RNN的隐含节点来发现各个局部之间的相互关系以及空间异常事件.在上面工作的基础上,将网格是否异常作为目标,以此来实现空间以及时间维度的整体建模.
具体来说,如图 5所示,Gn表示每个网格的MHOF特征,${{\hat{o}}_{n}}\left( {{{\hat{o}}}_{n}}\in \left[ 0,1 \right] \right)$表示对应的网格是否异常.于是,当前时刻的输入可以表示为xt=(G1,G2,G3,…,GN)T(X∈$\Re $N×24,N为网格数);当前时刻的输出可以表示为${{\hat{y}}_{t}}={{({{\hat{o}}_{1}},{{\hat{o}}_{2}},{{\hat{o}}_{3}},...,{{\hat{o}}_{N}})}^{T}}(y{{\Re }^{N}})$.对于给定的一个序列x1,x2,…,xT(X∈$\Re $N×24),通过以下公式来计算隐含层状态h1,h2,…,hT(h∈$\Re $m)和预测值${{\hat{y}}_{1}},{{\hat{y}}_{2}},...,{{\hat{y}}_{T}}$(y∈$\Re $N):
$\left. \begin{matrix} {{t}_{i}}={{W}_{hx}}{{x}_{i}}+{{W}_{hh}}{{h}_{i-1}}+{{b}_{h}} \\ {{h}_{i}}=e({{t}_{i}}) \\ {{s}_{i}}={{W}_{yh}}{{h}_{i}}+{{b}_{y}} \\ {{{\hat{y}}}_{i}}=g({{s}_{i}}) \\ \end{matrix} \right\}$ | (2) |
令Θ=[Whx,Whh,Wyh,bh,by]表示所有参数组成的一个大向量,则目标函数可以形式化定义为
$f(\theta )=L(\hat{y};y)$ | (3) |
$f(\theta )=L(\hat{y};y)+\lambda reg(\theta )$ | (4) |
$\left. \begin{align} & \min f(\theta )=L(\hat{y};y)+\lambda reg(\theta ) \\ & \text{s}\text{.t}\text{. }\left\{ \begin{array}{*{35}{l}} {{t}_{i}} ={{W}_{hx}}{{x}_{i}}+{{W}_{hh}}{{h}_{i-1}}+{{b}_{h}} \\ {{h}_{i}}=e({{t}_{i}}) \\ {{s}_{i}}={{W}_{yh}}{{h}_{i}}+{{b}_{y}} \\ {{{\hat{y}}}_{i}}=g({{s}_{i}}) \\ \end{array} \right. \\ \end{align} \right\}$ | (5) |
最后,我们使用BPTT[33]来训练上述的模型,并使用随机梯度下降来更新权重.
由于在局部人群异常事件检测中,每一个触发异常的个体,只与它周围的个体存在着一定的关系,而与离这个个体较远的个体基本上没有任何关系,而且对于触发异常的个体的大小或者是不同类型的异常事件来说,影响范围是不一样的,为此,我们可以使用不同的隐含节点来发现不同尺度的空间关系,构造一个多尺度的时间递归神经网络模型来更好地发现空间异常事件.
本文拟采用不同的隐含节点来发现两种尺度的空间关系:第1种尺度为1个网格大小,第2种尺度为相邻4个网格大小.为了发现第1种尺度的空间关系,我们使用一部分隐含节点来发现网格本身各维度之间的关系,即,每个隐含节点对应于一个网格大小的滑动窗口,滑动窗口的滑动距离为1.如图 6(a)所示,图中给出了4个隐含节点a,b,c,d,分别用于发现第8个、第6个、第27个和第29个网格本身各特征维度之间的关系.
为了发现第2种尺度的空间关系,我们使用了一部分隐含节点来发现相邻的4个网格之间的相互关系,即,每个隐含节点对应于4网格大小的滑动窗口,滑动窗口的滑动距离为1.如图 6(b)所示,图中给出了2个隐含节点e,f,其中,隐含节点e用于发现13,14,20,21这4个网格之间的关系;隐含节点f用于发现12,13,19,20这4个网格之间的关系.我们把它们称为1倍多尺度隐含节点.之后,我们使用多倍的多尺度隐含节点来更好地发现不同网格之间的关系.
本文拟采用屏蔽矩阵方式来刻画多尺度网络间的局部链接关系.令mhx表示从输入层到隐含层参数的一个屏蔽矩阵,用于屏蔽掉与相应的隐含节点无关的参数,并令CEM(M1,M2)来表示两个相同维度矩阵对应元素相乘,最后,我们得到了如下的多尺度时间递归神经网络模型:
$\left. \begin{align} & \min f(\theta )=L(\hat{y};y)+\lambda reg(\theta ) \\ & \text{s}\text{.t}\text{. }\left\{ \begin{array}{*{35}{l}} {{t}_{i}}=CEM({{m}_{hx}}{{W}_{hx}}){{x}_{i}}+{{W}_{hh}}{{h}_{i-1}}+{{b}_{h}} \\ {{h}_{i}}=e({{t}_{i}}) \\ {{s}_{i}}={{W}_{yh}}{{h}_{i}}+{{b}_{y}} \\ {{{\hat{y}}}_{i}}=g({{s}_{i}}) \\ \end{array} \right. \\ \end{align} \right\}$ | (6) |
为了对本文提出的算法进行验证和分析,我们选取了5种代表性的方法进行比较,包括SF[13]、MPPCA[19]、SF-MPPCA、Adam等人的方法[27]和MDT[18].在本文中,我们使用RNN来表示时间递归神经网络模型,使用MRNN来表示多尺度的时间递归神经网络模型.我们在圣地亚哥加州大学的异常检测数据集上对上述方法进行了测试及比较.该数据集包含了两个不同场景的视频子集,分别为Ped1数据集和Ped2数据集.在Ped1数据集上,RNN和MRNN的默认参数为:学习率为0.003,学习率衰减比例为0.999,迭代次数为2 000,L1范式的系数为0.005.对于RNN,我们使用了500个隐含节点;对于MRNN的隐含节点的设置,我们分别用46个隐含节点来发现网格本身各维度特征之间的关系,用32个隐含节点来发现相邻4个网格之间的关系,总共5倍规模.序列长度设置为39个时刻.在Ped2数据集上,RNN和MRNN的默认参数为:学习率为0.01,学习率衰减比例为0.999,迭代次数为1 000,L1范式的系数为0.01.对于RNN,我们使用了400个隐含节点;对于MRNN的隐含节点的设置,我们分别用50个隐含节点来发现网格本身各维度特征之间的关系,用36个隐含节点来发现相邻4个网格之间的关系,总共5倍规模.序列长度设置为29个时刻.
3.1 实验数据数据集使用圣地亚哥加州大学的异常检测数据集[18, 34],数据主要通过安装在高地、俯瞰人行道的静态摄像机获得.在人行道上的人群密度是可变的,人群密度从稀疏到非常拥挤.其中,正常的情况为场景中只有正常行走的行人在人行道上.异常情况主要有以下两点:1) 非行人实体在人行道上流动;2) 异常的人群行为模式.其中,异常包括有:较多的情况为在人行道上骑自行车、溜冰、开小汽车或者是行人横跨人行道或者在草地上践踏;较少的情况为坐着轮椅的人.所有的异常情况都是自然出现的.数据集被分成了两个子集,分别为Ped1数据集和Ped2数据集,每个子集包含一个场景.在Ped1子集中,包含了由200帧组成的多个视频片段;在Ped2数据集中,包含了分别有180,150,120帧组成的多个视频片段.
•视频场景1(Ped1数据集):一群人朝着视像头或者是远离摄像头移动,有少许的视角的扭曲.其中包含了34个训练视频样本和36个测试视频样本.
•视频场景2(Ped2数据集):行人的移动平行于摄像平面.其中包含了16个训练视频样本和12个测试的视频样本.
由于我们的方法使用了有监督的方式,所以对于Ped1数据集,我们使用了其中的36个测试视频样本(其中,正常样本帧数约为3 200,异常样本帧数约为4 000),并使用了5折交叉验证来验证模型的有效性.对于Ped2数据集,我们在原有的12个测试视频样本的基础上加入了8个训练视频样本,总共20个视频序列(其中,正常样本帧数约为1 652,异常样本帧数约为1 648),并在这20个视频序列上做了5折交叉验证,以此来验证模型的有效性.本文分别给出了在Ped1数据集上的异常检测以及定位结果和在Ped2数据集上的异常检测结果.
如图 7所示,在实验中:
•本文首先去除了一些无关的背景,对于其他方法,我们并没有对背景进行手工剪除.但是对于传统方法来说,不剪除背景对于检测结果不会有太大的影响.因为背景部分在不同帧之间是固定不变的,不会产生大的光流点.
•然后,对于Ped1数据集,将场景划分为30×20的46个网格;对于Ped2数据集,我们剔除了上部分背景,并将场景划分为36×30的50个网格.
•最后,对每个网格进行标记,获得训练及测试样本.
3.2 评估方式局部人群异常事件检测任务主要由两部分组成:异常检测和异常定位.在这里,我们沿用了Mahadevan等人[18]提出的评估方式,即,对于异常检测,当有某个像素被认为是异常的时候就判定该帧为异常;对于异常定位,如果引起异常的对象有40%的像素被检测到,就认为异常定位正确.该评估方式被后续的许多文献(如文献[9, 10, 11, 12, 21, 28, 29])所采用,作为传统方法的评估方式.所以,将其用于传统方法来评估异常检测以及异常定位是否准确是合适的.
对于本文提出的方法,我们使用受试者工作特征曲线(receiver operating characteristic curve,简称ROC)来对其进行评估.ROC曲线的横坐标表示本身为负类被检测为正类的比例,即,假阳性率(false positve rate,简称FPR);纵坐标表示本身为正类被检测为正类的比例,即,真阳性率(true positive rate,简称TPR).我们在两个数据集上做了5折交叉验证,并使用阈值平均[35]方法求取5折交叉验证的平均ROC曲线.该方法在给定的阈值下得到每条ROC曲线对应的点,然后对这些点求均值,得到在该阈值下的平均值.变换阈值得到不同阈值下的平均值,最终得到5折交叉验证的平均ROC曲线.
本文分别给出了异常检测结果的等错误率(equal error rate,简称EER)(即,在漏检率(miss rate,简称MR)等于FPR情况下的错误率);在等错误率情况下,异常定位结果的检测率;异常检测结果和异常定位结果的ROC曲线.
3.3 实验结果图 8给出了在Ped1数据集上使用特征分别为2层HOF和3层HOF的MRNN进行异常检测的结果.从图 8中我们可以看出,3层的HOF比2层的HOF检测效果要好.
表 1给出了在Ped1和Ped2数据集上,RNN和MRNN与其他经典算法异常检测结果的等错误率.从表 1中可以看到,MRNN比其他经典算法有更低的等错误率.
图 9给出了异常检测结果的ROC曲线,其中,图 9(a)、图 9(e)分别为Ped1和Ped2数据集上MRNN方法在异常检测方面的5折交叉验证的ROC曲线,从中可以看出,我们的方法具有一定的稳定性;图 9(b)、图 9(f)分别为Ped1和Ped2数据集上RNN方法在异常检测方面的5折交叉验证的ROC曲线,从中可以看出,RNN方法也具有一定的稳定性;图 9(c)、图 9(g)分别为Ped1和Ped2数据集上MRNN和RNN方法在异常检测方面的5折交叉验证的ROC曲线的阈值平均,从中可以看出,MRNN比普通的RNN效果要好;图 9(d)、图 9(h)分别为Ped1和Ped2数据集上MRNN方法和其他经典算法在异常检测任务方面的ROC曲线,从中可以看出,MRNN比经典的方法要好.从以上实验结果可以发现,MRNN比RNN在异常检测方面更好的原因在于:在异常事件检测中,目标个体的大小、异常事件的时空范围均存在较大差异.与RNN相比,MRNN通过多个尺度领域间的关系可以更好地发现不同粒度的异常事件,从而获得了比RNN更加准确的异常检测效果.MRNN比其他经典的方法在异常检测方面更好的原因在于:MRNN通过同时建模空间维度的关系和时间维度的关系,可以更好地发现时间维度的相互依赖关系和多尺度空间维度的相互关系,从而能获得比经典方法更好的效果.
表 2给出了在等错误率的情况下,Ped1数据集上,RNN和MRNN与其他经典算法异常定位结果的检测率.从表 2中可以看到,MRNN和RNN比其他经典算法在定位异常方面具有更大的优势.
图 10给出了异常定位结果的ROC曲线,其中,图 10(a)为Ped1数据集上MRNN方法在异常定位方面的5折交叉验证的ROC曲线;图 10(b)为Ped1数据集上RNN方法异常定位方面的5折交叉验证的ROC曲线;图 10(c)为Ped1数据集上MRNN和RNN在异常定位方面的5折交叉验证的ROC曲线的阈值平均,从图 10(c)中可以看出,MRNN在异常定位方面比RNN要好;图 10(d)为Ped1数据集上MRNN和经典算法在异常定位任务方面的ROC曲线,从图 10(d)中可以看出,我们的方法在异常定位方面要远远优于经典方法.从以上实验结果可以发现,MRNN比RNN在异常检测方面更好的原因在于:在异常定位中,目标个体的大小、异常事件的时空范围均存在较大差异.与RNN相比,MRNN通过多个尺度领域间的关系可以更好地发现不同粒度的异常事件,从而获得了比RNN更加准确的异常定位效果.MRNN比其他经典的方法在异常定位方面更好的原因在于: MRNN通过同时建模空间维度的关系和时间维度的关系,可以更好地发现时间维度的相互依赖关系和多尺度空间维度的相互关系,从而获得比经典方法更好的定位效果.
在人群异常事件检测和定位任务中存在着两种类型的异常情况——空间异常事件和时间异常事件.通过对时间维度的关系和空间维度的关系进行建模,有助于异常事件的检测和定位.为此,在密集场景时空建模的基础上,本文提出了一种基于多尺度时间递归神经网络的人群异常事件检测和定位方法.与经典算法的对比实验,证明了本方法的有效性.同时,由于多尺度时间递归神经网络模型的普适性,我们的方法不仅可以用于异常事件检测,而且可以用于具体事件检测或者辅助人群中的追踪和定位任务.虽然本方法的检测速度受限于光流算法,但是基于GPU加速等策略,仍然可以达到实时检测异常的目的.另外,鉴于MRNN是基于有监督的方法,需要大量的人工标注,在实际应用中可以使用众包的方式来进行人工标注,并且每隔一段时间对检测错误的视频帧进行标注,将其纳入到训练集中,并更新模型,以此来不断提升异常检测和异常定位效果.
[1] | Zhan B, Monekosso DN, Remagnino P, Velastin SA, Xu LQ. Crowd analysis: A survey. Machine Vision and Applications, 2008, 19(5-6):345-357 . |
[2] | Junior JCSJ, Musse SR, Jung CR. Crowd analysis using computer vision techniques. IEEE Signal Processing Magazine, 2010,27(5): 66-77 . |
[3] | Thida M, Yong YL, Climent-Pérez P, Eng HL, Remagnino P. A literature review on video analytics of crowded scenes. In: Proc. of the Intelligent Multimedia Surveillance. Berlin, Heidelberg: Springer-Verlag, 2013. 17-36 . |
[4] | Li T, Chang H, Wang M, Ni BB, Hong RC, Yan SC. Crowded scene analysis: A survey. IEEE Trans. on Circuits and Systems for Video Technology, 2014,25(3):367-386 . |
[5] | Kong D, Gray D, Tao H. A viewpoint invariant approach for crowd counting. In: Proc. of the 18th Int’l Conf. on Pattern Recognition. 2006. 1187-1190 . |
[6] | Kratz L, Nishino K. Tracking with local spatio-temporal motion patterns in extremely crowded scenes. In: Proc. of the Computer Vision and Pattern Recognition (CVPR). 2010. 693-700 . |
[7] | Benabbas Y, Ihaddadene N, Djeraba C. Motion pattern extraction and event detection for automatic visual surveillance. Journal on Image and Video Processing, 2011,2011(1):413-447 . |
[8] | Solmaz B, Moore BE, Shah M. Identifying behaviors in crowd scenes using stability analysis for dynamical systems. IEEE Trans. on Pattern Analysis and Machine Intelligence, 2012,34(10):2064-2070 . |
[9] | Cong Y, Yuan J, Tang Y. Video anomaly search in crowded scenes via spatio-temporal motion context. IEEE Trans. on Information Forensics and Security, 2013,8(10):1590-1599 . |
[10] | Reddy V, Sanderson C, Lovell BC. Improved anomaly detection in crowded scenes via cell-based analysis of foreground speed, size and texture. In: Proc. of the Computer Vision and Pattern Recognition Workshops (CVPRW). 2011. 55-61 . |
[11] | Cong Y, Yuan J, Liu J. Sparse reconstruction cost for abnormal event detection. In: Proc. of the Computer Vision and Pattern Recognition (CVPR). 2011. 3449-3456 . |
[12] | Cheng KW, Chen YT, Fang WH. Abnormal crowd behavior detection and localization using maximum sub-sequence search. In: Proc. of the 4th ACM/IEEE Int’l Workshop on Analysis and Retrieval of Tracked Events and Motion in Imagery Stream. ACM Press, 2013. 49-58 . |
[13] | Mehran R, Oyama A, Shah M. Abnormal crowd behavior detection using social force model. In: Proc. of the Computer Vision and Pattern Recognition (CVPR). 2009. 935-942 . |
[14] | Chen DY, Huang PC. Visual-Based human crowds behavior analysis based on graph modeling and matching. Sensors Journal, IEEE, 2013,13(6):2129-2138 . |
[15] | Antic B, Ommer B. Video parsing for abnormality detection. In: Proc. of the Computer Vision (ICCV). 2011. 2415-2422 . |
[16] | Wu S, Moore BE, Shah M. Chaotic invariants of lagrangian particle trajectories for anomaly detection in crowded scene. In: Proc. of the Computer Vision and Pattern Recognition (CVPR). 2010. 2054-2060 . |
[17] | Zhang D, Gatica-Perez D, Bengio S, Mccowan L. Semi-Supervised adapted hmms for unusual event detection. In: Proc. of the Computer Vision and Pattern Recognition (CVPR). 2005. 611-618 . |
[18] | Mahadevan V, Li W, Bhalodia V, Vasconcelos N. Anomaly detection in crowded scenes. In: Proc. of the Computer Vision and Pattern Recognition (CVPR). 2010. 1975-1981 . |
[19] | Kim J, Grauman K. Observe locally, infer globally: A space-time MRF for detecting abnormal activities with incremental updates. In: Proc. of the Computer Vision and Pattern Recognition (CVPR). 2009. 2921-2928 . |
[20] | Kratz L, Nishino K. Anomaly detection in extremely crowded scenes using spatio-temporal motion pattern models. In: Proc. of the Computer Vision and Pattern Recognition (CVPR). 2009. 1446-1453 . |
[21] | Li W, Mahadevan V, Vasconcelos N. Anomaly detection and localization in crowded scene. IEEE Trans. on Pattern Analysis and Machine Intelligence, 2014,36(1):18-32 . |
[22] | Cong Y, Yuan J, Liu J. Abnormal event detection in crowded scenes using sparse representation. Pattern Recognition, 2013,46(7): 1851-1864 . |
[23] | Thida M, Eng HL, Dorothy M, Remagnino P. Learning video manifold for segmenting crowd events and abnormality detection. In: Proc. of the Computer Vision (ACCV 2010). Berlin, Heidelberg: Springer-Verlag, 2011. 439-449 . |
[24] | Andrade EL, Blunsden S, Fisher RB. Modelling crowd scenes for event detection. In: Proc. of the 18th Int’l Conf. on Pattern Recognition. 2006. 175-178 . |
[25] | Benabbas Y, Ihaddadene N, Djeraba C. Motion pattern extraction and event detection for automatic visual surveillance. Journal on Image and Video Processing, 2011,2011:Article ID 163682 . |
[26] | Wu S, Wong HS, Yu Z. A Bayesian model for crowd escape behavior detection. IEEE Trans. on Circuits and Systems for Video Technology, 2014,24(1):85-98 . |
[27] | Adam A, Rivlin E, Shimshoni I, Reinitz D. Robust real-time unusual event detection using multiple fixed-location monitors. IEEE Trans. on Pattern Analysis and Machine Intelligence, 2008,30(3):555-560 . |
[28] | Roshtkhari MJ, Levine MD. An on-line, real-time learning method for detecting anomalies in videos using spatio-temporal compositions. Computer Vision and Image Understanding, 2013,117(10):1436-1452 . |
[29] | Thida M, Eng HL, Remagnino P. Laplacian eigenmap with temporal constraints for local abnormality detection in crowded scenes. IEEE Trans. on Cybernetics, 2013,43(6):2147-2156 . |
[30] | Loy CC, Xiang T, Gong S. Salient motion detection in crowded scenes. In: Proc. of the 5th IEEE Int’l Symp. on Communications Control and Signal Processing (ISCCSP). 2012. 1-4 . |
[31] | Xiong G, Wu X, Chen Y, Ou Y. Abnormal crowd behavior detection based on the energy model. In: Proc. of the IEEE Int’l Conf.. on Information and Automation (ICIA). 2011 495-500 . |
[32] | Sodemann AA, Ross MP, Borghetti BJ. A review of anomaly detection in automated surveillance. IEEE Trans. on Systems, Man, and Cybernetics, Part C: Applications and Reviews, 2012,42(6):1257-1272 . |
[33] | Rumelhart DE, Hinton GE, Williams RJ. Learning representations by back-propagating errors. Nature, 1986,323(6088):533-536. |
[34] | http://www.svcl.ucsd.edu/projects/anomaly |
[35] | Fawcett T. ROC graphs: Notes and practical considerations for researchers. Technical Report, HPL-2003-4, Palo Alto: HP Laboratories, 2003. |