软件学报  2021, Vol. 32 Issue (3): 726-741   PDF    
面向时空图建模的图小波卷积神经网络模型
姜山1,2 , 丁治明2,3 , 朱美玲2 , 严瑾1,2 , 徐馨润1,2     
1. 中国科学院大学, 北京 100049;
2. 中国科学院 软件研究所, 北京 100190;
3. 大规模流数据集成与分析技术北京市重点实验室, 北京 100190
摘要: 时空图建模是分析图形结构系统中各要素空间关系与时间趋势的一个基础工作.传统的时空图建模方法主要基于图中节点与节点关系固定的显式结构进行空间关系挖掘,这严重限制了模型的灵活性.此外,未考虑节点间的时空依赖关系的传统建模方法不能捕获节点间的长时时空趋势.为了克服这些缺陷,研究并提出了一种新的用于时空图建模的图神经网络模型,即面向时空图建模的图小波卷积神经网络模型(graph wavelet convolutional neural network for spatiotemporal graph modeling,简称GWNN-STGM).在GWNN-STGM中设计了一个图小波卷积神经网络层,并在该网络层中设计并引入了自适应邻接矩阵进行节点嵌入学习,使得模型能够在不需要结构先验知识的情况下,从数据集中自动发现隐藏的结构信息.此外,GWNN-STGM还包含了一个堆叠的扩张因果卷积网络层,使模型的感受野能够随着卷积网络层数的增加呈指数增长,从而能够处理长时序列.GWNN-STGM成功将图小波卷积神经网络层和扩张因果卷积网络层两个模块进行有效集成.通过在公共交通网络数据集上实验发现,提出的GWNN-STGM的性能优于其他的基准模型,这表明设计的图小波卷积神经网络模型在从输入数据集中探索时空结构方面具有很大的潜力.
关键词: 图小波卷积    图卷积神经网络    时空图建模    时空结构    图神经网络    
Graph Wavelet Convolutional Neural Network for Spatiotemporal Graph Modeling
JIANG Shan1,2 , DING Zhi-Ming2,3 , ZHU Mei-Ling2 , YAN Jin1,2 , XU Xin-Run1,2     
1. University of Chinese Academy of Sciences, Beijing 100049, China;
2. Institute of Software, Chinese Academy of Sciences, Beijing 100190, China;
3. Beijing Key Laboratory on Integration and Analysis of Large-scale Stream Data, Beijing 100190, China
Abstract: The spatiotemporal graph modeling is a basic work to analyze the spatial relationship and time trend of each element in the graph structure system. The traditional spatiotemporal graph modeling method is mainly based on the explicit structure of nodes and the fixed relationship between nodes in the graph for spatial relationship mining, which severely limits the flexibility of the model. Besides, traditional methods cannot capture long-term trends. To overcome these shortcomings, a novel end-to-end neural network model for spatiotemporal graph modeling is proposed, i.e., a graph wavelet convolutional neural network for spatiotemporal graph modeling called GWNN-STGM. A graph wavelet convolutional neural network layer is designed in GWNN-STGM. A self-adaption adjacency matrix is introduced in this network layer for node embedding learning so that the model can be used without prior knowledge of the structure. The hidden structural information is automatically found in the training dataset. In addition, GWNN-STGM includes a stacked dilated causal convolutional network layer so that the receptive field of the model can grow exponentially with the increase in the number of convolutional network layers that can handle long-term sequences. The GWNN-STGM successfully integrated the two modules of graph wavelet convolutional neural network layer and dilated causal convolutional network layer. Experimental results on two public transportation network datasets show that the performance of the proposed GWNN-STGM is better than other latest benchmark models, which shows that the designed graph wavelet convolutional neural network model has a great ability to explore the spatial-temporal structure from the input dataset.
Key words: graph wavelet convolution    graph convolution neural network    spatiotemporal graph modeling    spatiotemporal structure    graph neural network    

时空图建模(spatiotemporal graph modeling, 简称STGM)是分析系统中各组件的空间关系和时间趋势的一项重要技术, 时空图建模技术属于图数据管理领域中有关图结构数据的上层应用.如图 1所示: 在时空图中, 每个节点都有动态输入特征.时空图建模的目标是: 在给定图结构的情况下, 对每个节点的动态特征进行建模.这里的属性特指图结构中节点的信号输入属性特征, 如建模图结构下各节点的特征变化趋势, 从而完成对图节点特征的预测分析.此外, 时空图建模技术具有广泛的应用场景, 比如对城市道路交通参数预测[1]、出租车需求量预测[2]、行为识别[3]等.近年来, 在深度学习技术的成功推动下, 研究人员借鉴卷积网络(convolution neural network, 简称CNN)[4]、循环神经网络(recurrent neural network, 简称RNN)[5]和深度自动编码器(deep autoencoder, 简称DAE)[6]的思想, 定义和设计了用于处理图结构数据的神经网络模型[7].随着图神经网络的发展, 时空图建模越来越受到研究者的广泛关注.

Fig. 1 Spatiotemporal graph modeling 图 1 时空图建模

时空图建模是通过图中节点间的依赖关系构建图节点的动态输入[8].特别地, 在城市道路短时交通速度和流量预测中, 将安置在城市道路上的各个探测传感器看作是节点, 那么布置在城市路网的交通传感器就构成一个图形结构, 图中节点的连接边是通过两个节点的欧式距离来判定.由于城市道路中各交通参数受各种因素制约, 比如一条道路上的交通过度拥挤将会导致进入该道路的前序道路交通速度的降低, 即一条道路的参数状态会影响其相连接的另一输入道路的交通状态, 因此在对每条道路上的交通参数时间序列数据进行建模时, 理应将城市交通探测系统构成的图形结构作为一种固有结构先验知识来建模节点间相互依赖关系.

图结构具有丰富的空间属性模式, 对图中各节点赋予时间依赖, 则其就成为时空图结构.如何同时捕捉图的空间和时间相关性, 是时空图建模研究的核心难点问题.时空图建模的传统方法要么集中在图结构的关系性建模上, 要么集中在节点级的时序建模上, 往往忽略节点的空间关联关系和时间关联关系.由于现实世界中各网络节点不仅受当前状态的影响, 还要受到其领域节点的影响, 此外还要受到历史状态累积的影响, 因此, 未考虑节点间的时空依赖关系的传统建模方法显然是不能捕获节点间的长时间时空趋势.本文主要瞄准于静态网络场景下的时空图建模, 旨在同时捕获图结构隐藏的时空依赖关系, 并对节点特征进行预测分析.本文在图谱卷积操作的基础上, 针对现有时空图建模的问题现状, 研究并提出了一个基于图小波卷积神经网络的时空图建模方法, 称为GWNN-STGM(graph wavelet convolutional neural network for spatiotemporal graph modeling).

在GWNN-STGM模型中设计了一个图小波卷积神经网络层, 并在该网络层中设计并引入了一个自适应邻接矩阵进行节点嵌入学习, 使得模型能够在不需要结构先验知识的情况下, 从数据集中自动发现隐藏的结构信息.此外, 采用堆叠的扩张因果卷积来捕获图节点的时间相关性.随着隐含层数目的增加, 堆叠式的扩张因果卷积神经网络(dilated causal convolutional neural network, 简称DCCNN)[9]的感受野大小呈指数级增长.因此, GWNN-STGM利用堆叠的扩张因果卷积处理具有长时序列的时空图形数据, 能够有效地捕获图节点的时间相关性.

1 相关研究工作 1.1 时空图建模

STGM是分析系统中各组件的空间关系和时间趋势的一项重要技术.在对时空图建模过程中, 通常假设各对象之间的显式连接关系是预先确定的, 现有的方法大多捕捉固定图形结构的空间依赖性, 但是这种显式图结构不一定能够真实地反映节点间依赖关系, 并且由于数据中存在不完整的连接, 可能会丢失隐藏的空间连接关系.得力于深度学习技术的发展, 目前, 研究者对时空图建模的研究主要分为两个方向[8]: 一类是将图卷积网络(graph convolutional neural network, 简称GCN)集成到RNN中, 从而构建图卷积递归神经网络; 另一类是将GCN集成到CNN中, 构建图卷积神经网络.归纳起来, 这两类方法要么将GCN集成到RNN中, 要么将GCN集成到CNN中.现有的时空图建模方法虽然能够有效地将图形结构信息进行整合, 但是也存在两个明显的缺点.

●  首先, 现有的时空图建模都是在假设数据的图形结构能够反映节点之间真实依赖关系的情况下进行建模, 但是在面对节点间的连接不需要参考两个节点之间的相互依赖关系时以及两个节点之间没有连接但是存在相互依赖关系时, 这样的建模方法显然不可取.这样的情况在推荐系统中是较为常见的, 比如: 两个用户是具有连接关系的, 但是他们可能对产品有不同的偏好程度; 两个用户具有相似的产品偏好, 但是他们没有连接关系;

●  其次, 目前对时空图建模的研究还不能有效地捕获时间相关性特征.虽然有学者通过引入注意模型[10]来动态调整图中节点间的连接权重, 一定程度上解决了空间相关性的建模, 但是缺乏对时间相关性的建模.有学者将RNN和长短期记忆网络(long short-term memory, 简称LSTM)模型引入到时空图建模问题中[11-13], 但是在处理长距离序列数据时往往需要非常耗时的迭代计算, 并且存在梯度消失情况.

此外, 近年来, 动态图神经网络在建模或捕捉网络的结构和性质方面取得了新的进展[14], 相比于静态网络来说, 动态图神经网络强调了网络中节点和边的出现顺序和时间.因此, 节点的邻域并不是同时形成的, 得到的快照网络结构是一段时间内邻域的累积结构.虽然动态图神经网络能够建模动态图结构, 但是需要动态记录每个时间戳下的图结构, 在生物分子领域、医药等领域有着非常大的应用场景.对于图网络结构变化不明显的应用场景下, 动态记录图网络结构是不明智的, 如交通路网, 因为道路网络物理状态多为固定模型.

1.2 图卷积神经网络

图卷积网络已经被证明是图形上一类函数的通用逼近器[7], 并且已成功应用于多种学习任务, 包括图节点嵌入[15]、图节点间的链接预测[16]和图分类[17]等.图卷积网络有力地推动了对图结构的学习和建模的能力.图卷积网络有两大主流: 基于频谱的方法和基于空间的方法.基于频谱的方法在频域中从图信号处理的角度引入滤波器来定义图卷积, 其中, 图卷积操作被定义为从图信号中去除噪声.基于空间的方法将图卷积表示为从图中节点邻域聚合节点的特征信息, 并进行特征信息更新.特别地, 当图卷积网络的算法在图节点层级运行时, 通常将图池化(graph pooling)[18]模块与图卷积层进行交错运算, 更进一步地将图特征信息向更深层次转化, 最终形成更高级别的图形结构.无论是基于频谱的方法还是基于空间的方法, 图的邻接矩阵通常被认为是先验知识, 这种先验知识是以结构的形式存在, 并且在学习训练过程中是固定不变的, 或者是不经常变动的.文献[19]提出利用高斯核函数来学习图结构中节点邻居的权重.文献[20]将注意力模型引入到图卷积神经网络模型, 通过利用注意力机制更新图中节点邻居的权重参数, 从而完成动态调整图的结构.文献[21]设计了一个图节点自适应信息传输路径网络层, 并用这个网络层来提取图中节点邻域的信息, 从而为更新节点连接关系提供节点的依赖信息.针对图形结构数据的分类问题, 文献[22]设计了基于距离度量的自适应学习图形的邻接矩阵, 学习生成的邻接矩阵受图节点输入信息的约束.尽管这些图神经网络学习方法能够学习图结构, 但是他们都必须依赖于预先定义好的图结构.由于时空图的输入是动态的, 这些建模方法仍然不能同时捕捉图的空间和时间相关性.因此, 迫切需要设计一种同时捕获空间和时间相关关系的时空图建模模型与方法.

1.3 图小波卷积神经网络

尽管基于空间的方法构建的图卷积神经网络取得了一些初步的成功, 并提供了一个将欧式空间的CNN推广到图形数据结构的统一灵活框架, 但是如何确定节点的合适邻域大小, 仍然是一个难点问题.相比于基于空间的方法, 基于图谱的方法构建的图卷积是通过图傅里叶变换和卷积定理定义卷积操作.基于图谱的方法利用图的傅里叶变换将图节点域中定义的信号转换为频谱域, 如基于图的Laplacian矩阵的特征向量所张成的空间, 然后在频谱域中定义滤波器, 并对图信息进行滤波操作, 这样就保持与CNN类似的权重共享特性.但是需要求解图的特征向量, 当图较大时, 对图的Laplacian矩阵特征分解是非常耗时的.

文献[23]利用图小波变换替代图傅里叶变换, 定义了谱图卷积并提出了图小波神经网络.该模型无需进行图的Laplacian矩阵特征分解运算, 有效地降低了神经网络的计算资源的消耗.图小波神经网络与频谱神经网络的区别在于图小波神经网络具有明显3个优点.

(1)   不需要对Laplacian矩阵进行特征分解就可以快速得到图小波矩阵, 因此效率明显提升;

(2)   图小波矩阵是稀疏的, 而Laplacian矩阵的特征向量构成的矩阵多是稠密的.相比于图傅里叶变换操作, 图小波变换操作可以更加容易使用稀疏运算库, 因此具有更高的计算效率;

(3)   图小波网络在节点域具有局部化特性, 反映了以每个节点为中心的信息扩散.

尽管图小波神经网络能够一定程度上解决图谱图卷积网络的计算效率问题, 并且具有一定的局部特性, 这种特性对图的空间相关性建模是有利的, 但是仍然缺乏时空图建模的能力.

1.4 时空图网络

时空图建模方法可以划归为两类: 一类是基于递归神经网络层(RNN)构建的图卷积递归神经网络; 另一类是将基于卷积神经网络层(CNN)构建的图卷积神经网络.基于RNN构建的图卷积网络主要是通过利用图卷积操作运算对传递给RNN单元的输入和隐状态进行滤波处理, 并以此来建模图的时空依赖关系.

文献[14]针对图链接预测和节点分类的问题, 通过使用RNN建模GCN参数变化状态来捕获图序列的动态性, 无需借助节点嵌入运算沿时间维度进行图卷积处理.文献[12]通过使用图卷积对传递给RNN单元的输入和隐状态进行滤波来捕获时空依赖性, 该方法能够对短时的图序列数据进行时空建模, 但是无法处理较长时间的数据.文献[24]将自然语言处理领域中时空注意机制引入到图卷积神经网络中, 并适当提高了图卷积神经网络模型对时空图数据的建模的性能.文献[25]提出了一种快速图卷积神经网络模型结构, 用于预测具有图结构的数据序列.结合有门控RNN单元和图卷积层的新模型架构, 其可以提高训练阶段的数值稳定性, 但是依然涉及大量的待训练参数, 在短时序列数据时空建模具有较好性能.基于RNN的图卷积神经网络方法的最主要缺点是对于长时序列来说效率明显降低, 并且在与图卷积网络相结合时, 存在梯度爆炸现象, 训练阶段不易收敛.文献[26]针对稀疏的、无结构的和无序的点云数据分类预测的问题, 提出一种链接动态图神经网络模型, 对点云数据进行分类和分段预测.该模型冻结特征提取器, 使用动态图链接图的层次特征, 并重新训练分类器, 很大程度上提高了网络模型的预测性能.

基于RNN的图卷积神经网络和基于CNN的图卷积神经网络的模型方法在保持较好的计算结果的同时, 都需要进行多层叠加或者使用图的池化模块来扩大图卷积神经网络模型的接受域或感受野, 因此也带来了更高的计算消耗, 计算效率有待进一步提升.

2 时空图建模方法

文中首先给出了时空图建模问题的形式化定义, 其次详细介绍了图谱卷积、图小波卷积和时间卷积, 最后给出了本文设计的用于时空图建模的总体模型架构.

2.1 相关定义及说明

图(graph)定义. 图一般表示为G=(V, E, A), 其中, V是图G的节点集合, E是图G中边的集合, A是图G中的邻接矩阵.使用viV表示图的第i个节点, eij=(vi, vj)∈E表示图G中节点vi指向节点vj的连接边, |V|=n和|E|=m分别表示图G中的节点集合V的元素数量和边集合E的元素数量.A∈Rn×n, 邻接矩阵A中元素满足公式:

$ {{\bf{A}}_{ij}} = \left\{ {\begin{array}{*{20}{l}} {1,{\rm{if}}\;\;{e_{ij}} \in E}\\ {0,{\rm{if }}\;{e_{ij}} \notin E} \end{array}} \right. $ (1)

对于给定图G和它的邻接矩阵A, 则图G的拉普拉斯矩阵LRn×n表示为

$ \mathit{\boldsymbol{L}} = {\mathit{\boldsymbol{I}}_n} - {\mathit{\boldsymbol{D}}^{ - 1/2}}\mathit{\boldsymbol{A}}{\mathit{\boldsymbol{D}}^{1/2}} $ (2)

其中, ${\mathit{\boldsymbol{D}}_{ij}} = \sum\nolimits_j {{\mathit{\boldsymbol{A}}_{ij}}} $, InRn×n为单位矩阵.矩阵L为实对称矩阵, 因此它具有一组完整的特征向量组成的特征矩阵U=(u1, u2, …, un)∈Rn×n, 称U为矩阵L特征向量矩阵.与特征矩阵U关联的特征值数组λ=(λ1, λ2, …, λn)是非负的实值, 表示图G的频谱或频率.在图谱理论中, 与较小特征值相关联的特征向量携带具有缓慢变化的信号, 表明连接的节点共享相似的权值.相反, 与较大特征值相关联的特征向量在连接的节点上具有变化更快的信号[23].

图属性(graph attribute)定义. 在图G中, 每个节点都有各自的信号特征或属性特征, 一般用矩阵XRn×d表示图G的属性特征, ${\mathit{\boldsymbol{x}}_{{v_i}}} \in {R^d}$表示图G中节点vi的属性向量, 具有图属性特征的图称为属性图(attributed graph).

时空图(spatiotemporal graph)定义. 时空图表示为Gt=(V, E, Xt), XtRn×d.时空图是在一般图上进行扩展定义的, 其中, 节点的属性矩阵Xt是随时间t呈动态变化状态.

问题描述: 在给定一个图G和它的H个历史属性特征情况下, 求解未来N个时间步长下图G的属性特征矩阵, 即求解一个映射函数f使其满足如下关系:

$ {\mathit{\boldsymbol{X}}^{t + 1, \ldots , t + N}} = f\left( {{\mathit{\boldsymbol{X}}^{t - H - 1, \ldots , t}}, \mathit{\boldsymbol{G}}} \right) $ (3)

其中, Xt-H-1, …, tRn×d×H, Xt+1, …, t+NRn×d×N.

2.2 图谱卷积层

由于图结构没有类似于欧式空间中图像数据的自然连接顺序, 因此标准卷积运算不能直接用于图结构的非欧式空间数据.图卷积的形式化图谱定义[27]的提出, 为图形式结构数据的处理提供了一个崭新的思路, 将深度学习中常用于图像的卷积运算扩展到图数据上.图谱方法是通过图傅里叶变换和卷积定理来定义卷积操作.图谱卷积是利用图的傅里叶变换将图节点域中定义的图信号或特征变换至频谱域中, 再利用图频域滤波理论进行特征提取处理, 最后将信号进行逆变换至节点域的重要操作.图谱卷积层定义为

$ \mathit{\boldsymbol{x}}{*_G}\mathit{\boldsymbol{ke}} = \mathit{\boldsymbol{U}}({\mathit{\boldsymbol{U}}^T}\mathit{\boldsymbol{ke}}) \odot ({\mathit{\boldsymbol{U}}^T}\mathit{\boldsymbol{x}}) = \mathit{\boldsymbol{U}}{\mathit{\boldsymbol{g}}_\theta }{\mathit{\boldsymbol{U}}^T}\mathit{\boldsymbol{x}} $ (4)

其中, *G表示图卷积操作运算符, ke为卷积核, 此处的xRn为图G上的信号, ⊙为矩阵的Hadamard乘积, gθ为滤波核, U为图G的拉普拉斯矩阵L的特征向量矩阵.在图谱域中, 称$\mathit{\boldsymbol{\tilde x }}= {\mathit{\boldsymbol{U}}^T}\mathit{\boldsymbol{x}}$为图傅里叶变换, 称$\mathit{\boldsymbol{x}} = \mathit{\boldsymbol{U}}\mathit{\boldsymbol{\tilde x}}$为图傅里叶逆变换.按照公式(4)定义的图谱卷积存在明显的缺陷.

●  首先, 需要求解拉普拉斯矩阵L的特征值数组和特征向量矩阵, 计算很耗时, 计算复杂度为O(n3), 不适用于大图运算;

●  其次, 求解出来的UUT为稠密矩阵, 在进行傅里叶变换运算时效率低下;

●  最后, 基于图傅里叶变换定义的卷积操作覆盖整个图的节点域, 卷积操作不具备局部邻域特性.

针对上述缺陷, 文献[27]提出了利用切比雪夫多项式K阶截断来近似滤波核gθ, 如下:

$ {\mathit{\boldsymbol{g}}_\theta } = \sum\nolimits_{k = 0}^{K - 1} {{\mathit{\boldsymbol{\theta }}_k}diag{{(\mathit{\boldsymbol{\lambda }})}^k}} $ (5)

其中, θRK是切比雪夫近似多项式系数向量.但是, 公式(5)定义的卷积滤波核具有一定的限制性, 这不利于对在图上定义更一般的卷积运算.比如对切比雪夫多项式K阶截断时, K越大, 越不利于保持卷积的局部邻域特性; 而K越小, 又很难近似滤波核gθ, 且使得近似误差增大.

利用图小波变换来代替图傅里叶变换来定义图谱卷积, 如下:

$ \mathit{\boldsymbol{x}}{*_G}\mathit{\boldsymbol{ke}} = {\mathit{\boldsymbol{\psi}} _s}(\mathit{\boldsymbol{\psi}} _s^{ - 1}\mathit{\boldsymbol{ke}}) \odot (\mathit{\boldsymbol{\psi}} _s^{ - 1}\mathit{\boldsymbol{x}}) = {\mathit{\boldsymbol{\psi}} _s}{\mathit{\boldsymbol{g}}_\theta }\mathit{\boldsymbol{\psi}} _s^{ - 1}\mathit{\boldsymbol{x}} $ (6)

其中, ψs=UGsUT=(ψs1, ψs2, …, ψsn), ${{\bf{G}}_s} = diag({{\rm{e}}^{s{\lambda _i}}}{|_{i = 1:n}}) \in {R^{n \times n}}$为尺度矩阵[28], 表明热扩散核函数尺度范围; s为尺度参数, 控制节点邻域范围.在图谱域中, 称$\mathit{\boldsymbol{\tilde x }}= \mathit{\boldsymbol{}\psi} _s^{ - 1}\mathit{\boldsymbol{x}}$为图小波变换, $\mathit{\boldsymbol{x}} = {\mathit{\boldsymbol{\psi}} _s}\mathit{\boldsymbol{\tilde x}}$图小波逆变换.ψs$\mathit{\boldsymbol{\psi}} _s^{ - 1}$可以通过SGWT[29]算法进行快速的多项式近似求解, 其计算复杂度为O(mK), K为切比雪夫多项式阶数.ψs$\mathit{\boldsymbol{\psi}} _s^{ - 1}$通常是稀疏的, 可以进行稀疏矩阵运算, 同时又是局部的, 每个图小波对应于图上的一个信号, 该信号从一个中心节点向外部扩散出去, 受尺度参数s的灵活控制, 所以在节点域具有局部特性.

与基于图傅里叶变换定义的图卷积操作相比, 基于图小波变换定义图卷积具有更高的计算效率.充分利用图小波变换的优势, 我们定义图小波卷积操作如下:

$ \mathit{\boldsymbol{Z}} = {\mathit{\boldsymbol{\psi }}_s}\mathit{\boldsymbol{\Theta \psi }}_s^{ - 1}\mathit{\boldsymbol{XW}} = \mathit{\boldsymbol{\tilde \psi XW}} $ (7)

其中, WRd×q是待学习的参数矩阵, ΘRn×n是图卷积核的对角矩阵, $\mathit{\boldsymbol{\tilde \psi}} \in {R^{n \times n}}$, Z∈Rn×q.

为了学习时空图的空间依赖项和图小波卷积网络隐藏层的空间依赖项, 我们定义了自适应邻接矩阵, 并将其引入到图小波卷积层中, 自适应邻接矩阵无需图的结构先验信息, 直接从数据集中自学习, 动态关联和发现网络隐藏层的空间依赖关系.自适应邻接矩阵定义如下:

$ {\mathit{\boldsymbol{\tilde A}}_{dy}} = \alpha (relu({\mathit{\boldsymbol{U}}_s}\mathit{\boldsymbol{U}}_t^T)) $ (8)

其中, UsRn×r为源节点信息的动态嵌入矩阵和UtRn×r为目标节点信息的动态嵌入矩阵, ${\mathit{\boldsymbol{U}}_s}\mathit{\boldsymbol{U}}_t^T$为源节点与目标节点间的空间依赖权重.其中, αβ分别为SoftMax函数和ReLu函数, 它们的作用分别是消除弱空间依赖关系和对空间依赖关系进行规范化处理, 从而减小不平衡现象造成的误差.引入自适应邻接矩阵后, 我们修改公式(7), 并定义新的图小波卷积层如下:

$ \mathit{\boldsymbol{Z}} = \sum\nolimits_{m = 0}^M {{{\mathit{\boldsymbol{\tilde P'}}}_m}\mathit{\boldsymbol{X}}{\mathit{\boldsymbol{W}}_{m1}} + \mathit{\boldsymbol{\tilde A}}_{dy}^m\mathit{\boldsymbol{X}}{\mathit{\boldsymbol{W}}_{m2}}} $ (9)

其中, ${\mathit{\boldsymbol{\tilde P'}}_m} = \mathit{\boldsymbol{\psi}} /(\mathit{\boldsymbol{\psi}} \cdot sum(axis = 0)), \mathit{\boldsymbol{\psi}} = \mathit{\boldsymbol{\tilde \psi}} + \mathit{\boldsymbol{A}} \in {R^{n \times n}}$, Wm1Rd×q, Wm2Rd×q, M表示图信号向邻域扩散的有限步骤.当图结构不可用时, 可单独使用自适应邻接矩阵来捕获隐藏的空间相关性[14], 即:

$ \mathit{\boldsymbol{Z}} = \sum\nolimits_{m = 0}^M {\mathit{\boldsymbol{\tilde A}}_{dy}^m\mathit{\boldsymbol{X}}{\mathit{\boldsymbol{W}}_m}} $ (10)

公式(10)定义的图卷积可解释为汇聚来自不同阶邻域的变换特征信息, 因此用其捕获隐藏的空间相关性.

2.3 时间卷积层

在时空图建模中, 另一个最重要的任务是进行时间相关性的建模.采用扩展因果卷积(dilated causal convolution, 简称DCC)[9]作为时间卷积层来捕捉图节点的时间趋势.特别地, 在扩展因果卷积网络中, 允许通过增加网络层深度来获得指数级增长的感受野, 从而有效扩大对时序列数据处理的历史范围.具体而言, 扩展因果卷积是在因果卷积基础上引入扩展率, 通过跳过部分输入来使滤波核可以应用于大于滤波核本身长度的区域, 并且扩展率随着层深度进行指数级增长, 因此感受野也随着增大.

假设在节点vi, 给定一个1维时间序列xRH和一个滤波核$\mathit{\boldsymbol{k}} \in {R^{{K^*}}}$, 则扩展因果卷积定义如下:

$ \mathit{\boldsymbol{x}}{*_{dc}}\mathit{\boldsymbol{k}}[t] = \sum\nolimits_{s = 0}^{{K^*}} {\mathit{\boldsymbol{k}}[s]\mathit{\boldsymbol{x}}[t - d*s]} $ (11)

其中, *dc为扩展因果卷积运算符; K*为扩展因果卷积核尺寸大小; d为扩展因子(dilation factor, 简称DF), d数值的大小控制着跳跃距离, 即每d步就选择一个输入.

为了更加清晰地描述扩展因果卷积的作用, 我们将因果卷积与扩展因果卷积进行示意, 如图 2所示.在图 2中, 通过叠加多个卷积层, 以增加卷积运算的感受域.对于给定图中节点vi的历史特征序列, 在具有同样的网络层数的情况下, 因果卷积(如图 2左所示)的感受域明显小于扩展因果卷积(如图 2右所示)的感受域.一般情况下, 在扩展因果卷积层中, 随着卷积层数的加深, 扩展因子成指数增加, 模型的感受域也成指数增大.在图 2中, 扩展因果卷积感受野在每一层上分别扩大了1倍、2倍和4倍.使得通过堆叠有限深度的网络层, 扩展因果卷积就能够捕获较长序列数据间的相关性, 从而有效节省了计算资源.与基于RNN的方法相比, DCC具有明显的优势, DCC能够以非递归的方式处理长时序列数据, 这种非递归的处理方式有利于并行加速, 同时, 扩展因果卷积有效缓解了梯度爆炸问题[5].

Fig. 2 Schematic diagram of causal convolution (left) and dilated causal convolution (right) 图 2 因果卷积(左)与扩展因果卷积(右)示意图

门控机制(gating mechanism)在对序列数据建模问题中被证明是有效的[5], 为了能够充分建模时间维度上的非线性关系, 引入门控机制, 并定义门控时间卷积层, 定义如下:

$ \mathit{\boldsymbol{Z}} = \mathit{\boldsymbol{\delta }}\left( {{\mathit{\boldsymbol{\Theta }}_1}{*_{dc}}\mathit{\boldsymbol{X}} + \mathit{\boldsymbol{b}}} \right) \odot \mathit{\boldsymbol{\sigma }}\left( {{\mathit{\boldsymbol{\Theta }}_2}{*_{dc}}\mathit{\boldsymbol{X}} + \mathit{\boldsymbol{c}}} \right) $ (12)

其中, Θ1Θ1为模型待学习参数; ⊙为矩阵的Hadamard乘积; δσ分别为Tanh函数和Sigmod函数, 原则上可以将δσ的定义式可以推广至其他任意激活函数形式.Tanh函数和Sigmod函数曲线如图 3所示.

Fig. 3 Curves between Tanh and Sigmod 图 3 Tanh函数和Sigmod函数曲线

2.4 面向时空图的图小波卷积神经网络总体架构

本节将描述面向时空图建模的图小波卷积神经网络总体架构, 该架构将图小波卷积层和门控时间卷积层结合起来, 完成属性图的时空关系建模和预测.网络模型结构定义如下.

●  输入层(或第0层):

$ {\mathit{\boldsymbol{H}}_0} = {\mathit{\boldsymbol{X}}^{t - H - 1:t}} \in {R^{n \times d \times H}} $ (13)

●  第l卷积层:

(1)   门控时间卷积运算

$ {\mathit{\boldsymbol{H}}_{gtcn}} = \mathit{\boldsymbol{\delta }}\left( {{\mathit{\boldsymbol{\Theta }}_1}{*_{dc}}{\mathit{\boldsymbol{H}}_{l - 1}} + \mathit{\boldsymbol{b}}} \right) \odot \mathit{\boldsymbol{\sigma }}\left( {{\mathit{\boldsymbol{\Theta }}_2}{*_{dc}}{\mathit{\boldsymbol{H}}_{l - 1}} + \mathit{\boldsymbol{c}}} \right) $ (14)

(2)   图小波卷积运算

$ {\mathit{\boldsymbol{H}}_{gcn}} = \sum\nolimits_{m = 0}^M {{{\mathit{\boldsymbol{\tilde P'}}}_m}{\mathit{\boldsymbol{H}}_{gtcn}}{\mathit{\boldsymbol{W}}_{m1}} + \mathit{\boldsymbol{\tilde A}}_{dy}^m{\mathit{\boldsymbol{H}}_{gtcn}}{\mathit{\boldsymbol{W}}_{m2}}} $ (15)
$ {\mathit{\boldsymbol{H}}_t} = ReLU\left( {{\mathit{\boldsymbol{H}}_{gcn}} + {\mathit{\boldsymbol{H}}_0}} \right) $ (16)

●  输出层:

$ {\mathit{\boldsymbol{O}}_*} = ReLU(\sum\nolimits_{l = 0}^L {{\mathit{\boldsymbol{H}}_l}} ) $ (17)
$ \mathit{\boldsymbol{Y}} = MLP\left( {ReLU\left( {MLP\left( {{\mathit{\boldsymbol{O}}_*}} \right)} \right)} \right) $ (18)

其中, ReLU为非线性激活函数[30], YRn×d×N, L为架构的总卷积层数, MLP为多层感知机或线性全连接层[31].

面向时空图建模的图小神经网络总体架构通过叠加多个时空层, 以处理不同时间层次的空间依赖关系.即: 在最浅层, 图卷积接收短期时间信息; 在最深层, 图卷积处理长期时间信息.选择平均绝对误差(mean absolute error, 简称MAE)为模型的目标函数, 并使用梯度下降法进行训练.MAE定义如下:

$ Loss = \frac{1}{{ndN}}\sum\nolimits_{i = 1}^N {\sum\nolimits_{j = 1}^n {\sum\nolimits_{k = 1}^d {|\mathit{\boldsymbol{\tilde Y}}_{jk}^{t + 1} - \mathit{\boldsymbol{Y}}_{jk}^{t + 1}|} } } $ (19)

其中, $\mathit{\boldsymbol{\tilde Y}} \in {R^{n \times d \times N}}$为预测的真值数据(ground truth, 简称GT).

3 实验分析

本节主要对本文提出的模型进行实验分析, 实验中选用公共交通网络数据集METR-LA和PEMS-BAY[5]对模型进行验证.实验数据中, 数据记录的采样间隔是5分钟, METR-LA中共有207个网络传感器节点(或网络图节点)和1 515个边, PEMS-BAY中共有325个网络传感器节点和2 369个边.本实验按照采样时间顺序对网络节点属性特征数据进行提取, 并按照训练数据集: 验证数据集: 测试数据集为7:1:2的比率策略进行数据集划分, 在训练过程中对数据集进行了随机shuffle操作, 实验中采用与文献[8]一致的膨胀因子的参数设置.

3.1 实验相关参数设置

本实验运行环境为Intel(R) Xeon(R) Gold 5218CPU@2.30GHz, NVIDIA GeForce GTX2080GPU, 显存32GB.设置历史观测步长和预测窗口大小均为12, 即利用过去一小时时段(12×5分钟)的观测值来预测下一个小时的特征.模型中卷积层数l=2, M=2.训练过程中对参数数量采用随机丢弃策略, 丢弃率(dropout rate)设置为0.3.采用随机初始化方式对模型中的参数进行初始化, 模型的训练优化器为Adam, 并且学习率设置为0.0001.

3.2 实验对照的基准方法

为测试模型的性能, 我们选用ARIMA, DCRNN[32], STGCN[33], Graph WaveNet[8]模型作为参考基准模型进行对比实验, 具体描述见表 1.在实验过程中, 选用平均绝对误差(mean absolute errors, 简称MAE)、平均绝对百分比误差(mean absolute percentage errors, 简称MAPE)和均方根误差(root mean squared errors, 简称RMSE)这3种度量函数为模型性能的评估指标.

Table 1 Experimental baseline models 表 1 实验对照的基准方法模型

3.3 实验结果分析 3.3.1 模型性能对比分析

基于METR-LA和PEMS-BAY实验数据, 表 2给出了设计的模型和基线模型的性能统计结果.表 2中分别列出了15分钟预测、30分钟预测和60分钟预测的误差值(或称性能).可以明显地看出, 本文提出的模型在两个数据集上都取得了较好的性能结果.

Table 2 Performance comparison of our model and other baseline models 表 2 设计的模型与基准模型的性能对比

具体地, 本文提出的模型比时间模型ARIMA有很大的优势.在表 2中, 60分钟时窗的模型预测MAE数值在两个实验数据集上均比时间模型ARIMA要低49.71%(METR-LA)和43.44%(PEMS-BAY).与时空模型相比, 本文的神经网络模型性能均优于Graph WaveNet模型、STGCN模型和DCRNN网络模型.与基准模型集中性能最佳的Graph WaveNet模型相比, 可以看出, 在15分钟预测时, 本文的模型仅取得了较小的性能提升; 在数据集METR-LA和PEMS-BAY上, MAE均只降低了0.01.在30分钟时长窗口期下, 本文模型的MAE在METR-LA和PEMS-BAY数据集上分别降低了0.03和0.04.但是随着预测时间窗口的增大, 在60分钟预测时长窗口期下, 我们模型的MAE分别降低了0.05和0.8.这表明: 本文提出的模型具有更大的时空作用域, 特别是模型中叠加了门控时间卷积层, 该层使用扩张因果卷积和门控机制, 扩张因果卷积层能使模型的感受野成指数增加, 并使我们的模型能处理更大时长的数据, 这个特性对于时空关系建模非常有利.此外, 统计了本文模型与最佳基准模型Graph WaveNet[8]在预测时间窗口序列N={1, 2, …, 12}中的平均性能结果, 见表 3.在实验数据集METR-LA上, 本文设计的模型性能数值MAE, RMSE和MAPE分别比Graph WaveNet模型的性能数值低0.07%, 0.02%和1.8%.在PEMS-BAY上, 模型的性能依然取得了提升.因此, 本文提出的模型更适合于属性图网络的时空关系预测.

Table 3 Comparison of average performance with the best benchmark model in the prediction window area 表 3 在预测窗口区内与最佳基准模型的平均性能对比

3.3.2 自适应邻接矩阵对模型作用分析

在模型中, 为了学习时空图的空间依赖项和图小波卷积网络隐藏层的空间依赖项, 我们设计了自适应邻接矩阵, 并将其引入到图小波卷积层中, 直接从数据集中以端到端的形式自学习, 动态关联和发现网络隐藏层的空间依赖关系.图 4~图 6分别绘制了引入自适应邻接矩阵网络模型(gwcn-Ady)和未引入自适应邻接矩阵网络模型(gwcn), 在METR-LA数据集上的不同预测时间窗口区内的平均绝对误差MAE、平均绝对百分比误差MAPE和均方根误差RMSE性能曲线.在预测窗口时间长为5分钟时, 引入矩阵${\mathit{\boldsymbol{\tilde A}}_{dy}}$和未引入矩阵${\mathit{\boldsymbol{\tilde A}}_{dy}}$的模型在MAE, MAPE和RMSE上的性能均差别很小, 这表明自适应邻接矩阵对短时预测性能提升作用不明显.随着预测时长的增加, 引入自适应邻接矩阵的模型性能与未自适应邻接矩阵的模型性能之间的差异也在增大, 在60分钟时长预测时, 引入矩阵${\mathit{\boldsymbol{\tilde A}}_{dy}}$的模型性能优势较为明显.这表明, 引入自适应邻接矩阵能够有助于关联和发现网络隐藏层的空间依赖关系.

Fig. 4 Curves of MAE performance with the length of the prediction window 图 4 MAE性能随预测窗口长度变化曲线

Fig. 5 Curves of MAPE (%) performance with the length of the prediction window 图 5 MAPE(%)性能随预测窗口长度变化曲线

Fig. 6 Curves of RMSE performance with the length of the prediction window 图 6 RMSE性能随预测窗口长度变化曲线

为进一步验证自适应邻接矩阵能够关联和发现网络隐藏层的空间依赖关系的能力, 图 7展示了在METR-LA数据集上学习得到的${\mathit{\boldsymbol{\tilde A}}_{dy}}$的热力图(图 7中间).选取前30个节点, 发现第16个节点(图左侧选区)能够很好地关联其他非直接与其物理相连的节点信息(实际路网节点的物理连接关系图 7右), 进一步验证了自适应邻接矩阵能够关联和发现网络隐藏层的空间依赖关系的作用, 更说明了复杂的交通路网具有一定的空间关联性, 而自适应邻接矩阵能够捕捉这种远距离的空间关联关系.

Fig. 7 Heatmap of the matrix ${\mathit{\boldsymbol{\tilde A}}_{dy}}$ (right) and the connection between the nodes in the road network (right) on the METR-LA dataset 图 7 METR-LA数据集中学习得到的${\mathit{\boldsymbol{\tilde A}}_{dy}}$矩阵热力图(左)和实际路网中部分节点间的物理连接关系(右)

3.3.3 图小波变换矩阵的稀疏性分析

本文利用图小波变换矩阵替换图傅里叶变换矩阵定义图卷积网络层.除了提高预测精度外, 图小波变换在空间域和频谱域都具有稀疏性.以METR-LA和PEMS-BAY数据集为例, 说明了图小波变换的稀疏性.

在METR-LA数据集中共有207个节点, 因此, 图小波变换矩阵$\mathit{\boldsymbol{\psi}} _s^{ - 1} \in {R^{207 \times 207}}$, 图傅里叶变换矩阵UTR207×207.表 4中第一行列出了$\mathit{\boldsymbol{\psi}} _s^{ - 1}$UT的稀疏度(或称非零元素的密度百分比), $\mathit{\boldsymbol{\psi}} _s^{ - 1}$的非零元素占比为30.09%, UT的非零元素占比为99.98%.在PEMS-BAY数据集中共有325个节点, 图小波变换矩阵$\mathit{\boldsymbol{\psi }}_s^{ - 1} \in {R^{325 \times 325}}$, 图傅里叶变换矩阵UTR325×325.表 4中第2行列出了$\mathit{\boldsymbol{\psi }}_s^{ - 1}$UT的稀疏度, $\mathit{\boldsymbol{\psi }}_s^{ - 1}$的非零元素占比为21.81%, UT的非零元素占比为98.7%.因此, 图小波变换矩阵$\mathit{\boldsymbol{\psi }}_s^{ - 1}$远比图傅里叶变换矩阵UT稀疏.更具稀疏性的图小波变换不仅加快了计算速度, 而且能够很好地捕获以每个节点为中心的相邻空间拓扑关系, 这个特性对空间关系建模是有利的.

Table 4 Non-zero element statistics of the wavelet transform matrix and the Fourier transform matrix 表 4 图小波变换矩阵与傅立叶变换矩阵非零元素统计

3.3.4 尺度因子大小对模型性能的影响分析

在图小波卷积层中, 尺度因子s控制着每个节点信息的扩散邻域大小, 节点邻域信息动态关联着中心节点的属性特征变化趋势, 因此, 选取合适的尺度因子将有助于模型性能的提升.为了探究图小波变换矩阵$\mathit{\boldsymbol{\psi }}_s^{ - 1}$中尺度因子s大小对模型性能的影响, 统计了在s=1, 2, 3, 5, 10, 15, 20时, 模型在数据集METR-LA上的MAE性能曲线.

图 8绘制了在不同尺度因子s参数下的MAE曲线, 在预测时间窗口小于40分钟时, 不同的参数对网络模型的MAE影响差异性不明显.这表明在执行短期预测任务时, 即使使用较小的尺度因子参数, 图小波神经网络模型能够很好地捕获网络节点间隐藏的空间关系, 并且尺度因子s越大, 对模型MAE性能提升越不明显.

Fig. 8 Curves of MAE performance of the proposed model at different scale factors with the prediction window time 图 8 不同尺度因子下, 模型的MAE性能随预测窗口时间长变化曲线

图 9绘制了不同尺度因子s对模型进行较大预测窗口时的MAE曲线.在预测时窗大于45分钟时, 不同的尺度因子参数对模型的MAE影响具有明显的差异.当s=1时, 模型的MAE曲线和s=15时的MAE性能曲线几乎重合, 并且s=1和s=15时, 模型的MAE曲线均在s=2, 3, 5, 10, 20时的MAE曲线下方.这表明, 选用合适的尺度参数对模型的性能是有积极的作用.此外, 在s=1和s=15时, 本文提出的图小波神经网络模型的MAE曲线趋于一致.这一实验性结论为确定图小波变换矩阵$\mathit{\boldsymbol{\psi}} _s^{ - 1}$中尺度因子s的大小提供了参考, 即, s=1是图小波神经网络模型在没有确定最佳尺度因子参数情况下的最佳选择.

Fig. 9 Curves of MAE performance of the proposed model at different scale factors with the prediction window time (at the larger prediction time window) 图 9 不同尺度因子对模型MAE性能随预测窗口时间长度的变化曲线(较大的预测时间窗口)

3.3.5 模型抗干扰对比分析

为了验证本文模型的抗干扰能力, 本实验利用过去1小时时段(12×5分钟)的观测值来预测下一个小时的特征, 历史观测时间窗口大小为12.设置了4组对比实验, 分别为: (1) 在整个输入窗口期添加0均值的高斯噪声; (2) 仅在历史时间点6添加非高斯噪声; (3) 在历史时间点1、历史时间点6和历史时间点12添加非高斯噪声; (4) 在全部的历史时间点添加非高斯噪声.图 10绘制了不同噪声下的曲线图(在数据集METR-LA上, 以0节点为例).

Fig. 10 Outputs of the modelat different inputnoises sequence 图 10 模型在不同输入噪声序列下的输出曲线

图 10中: 对输入序列不加任何噪声时, 模型的输出较为平稳; 当对输入序列全部施加0均值且标准差为0.15的高斯噪声时, 模型的预测输出变化较为明显, 即在短时预测时窗内(30分钟内)偏差较大, 但是随着预测时间窗的增加, 模型具有较好预测收敛性, 在预测时间窗末期(30分钟~60分钟之内), 加高斯噪声后模型的预测输出和未加高斯噪声时的预测输出趋于一致, 这表明模型对长时预测具有较好的抗干扰性.当对输入序列中第5个值(即输入时间窗的30分钟点)增加一个很大的整数噪声(本次实验选定为整数100), 模型的预测输出比未加噪声时的预测输出要略大, 但总体上较为平缓.随着对输入序列进行多点位增加噪声(噪声整数100), 模型的预测输出均比未加噪声时的输出要大, 在短时预测时间窗口内偏差较为明显, 但是随着预测时间窗的增加, 模型的预测偏差逐渐减小, 这说明模型对长时预测具有一定的抗干扰性.综上所述, 本文的模型对短时预测的抗噪声能力较弱, 对长时预测的抗干扰能力较强, 对于具有高斯噪声的输入, 模型的短时预测性能失效.正因为这种特性, 本文提出的模型不能应对时序或时空异常数据的检测; 相反, 其具有较强的抗干扰性, 因此, 该模型可以应用在具有强噪声网络环境下的时空预测场景.

3.3.6 其他实验补充分析

除了与传统时序预测模型和静态图神经网络模型实验对比分析外, 还将模型与动态图神经网络模型进行了实验对比.因此, 这部分主要讲述与动态图神经网络在本实验数据集上的实验性结论.

动态网络相比于静态网络来说, 更强调了网络中节点和边的出现顺序和时间.在现实中, 图网络结构主要是通过节点和边的顺序添加而形成的, 理应被视为一个有节点与其邻居之间交互事件驱动的动态过程.因此, 节点的邻域并不是同时形成的, 图网络结构属于一种快照网络结构, 是一段时间内邻域的累积.为了构造这种动态的网络结构, 我们随机统计了在输入时间窗口内网络中每个节点特征的时间分布, 去除了最小Top10对应的网络节点, 并以此获得了12个图结构的时间快照(其中, 12是指12个历史观测, 按5分钟一个观测, 1小时为12个观测点), 每个图结构时间快照构成了图结构序列, 在训练过程中, 随着时间步骤依次动态改变这种图结构.为了能够与动态图神经网络模型进行对比, 我们改造了EvolveGCN模型[14], 因为原始EvolveGCN对图节点的分类、边的分类和节点间连接预测效果好.为了使其能够对时序特征预测, 我们将EvolveGCN模型每个时间戳下的节点嵌入进行了线性叠加并经过了ReLU函数处理, 最后接入一个感知机层, 以此获得对时序特征预测的能力, 修改后的EvolveGCN模型结构如图 11所示.

Fig. 11 Modified EvolveGCN model 图 11 修改后的EvolveGCN模型结构

图 12中, 在METR-LA数据集上的MAE曲线(左)在短时预测(小于30分钟)修改EvolveGCN模型的MAE比所提出GWNN-STGM模型的MAE要大.但是随着预测时长的增加, 修改EvolveGCN[14]模型的MAE要低于GWNN-STGM模型.这表明在METR-LA数据集上, 动态图结构下的EvolveGCN(修改)模型能够对长时预测具有较好的性能.在PEMS-BAY数据集上的MAE曲线(右)发现: EvolveGCN(修改)模型的MAE在15分钟预测时长内, 比GWNN-STGM模型的MAE低; 在大于15分钟预测时长时, EvolveGCN(修改)模型的MAE数值均比GWNN-STGM模型高.这表明在PEMS-BAY数据集上, 动态图结构下的EvolveGCN(修改)模型不能够很好地进行长时预测.其中最主要原因是, 构造产生的动态图结构不能完全真实反映现实世界中物理路网的真实状态.

Fig. 12 MAE conducted by the GWNN-STGM (ours) and the modified EvolveGCNon datasets 图 12 本文GWNN-STGM模型和修改后的EvolveGCN模型在实验数据集下预测的MAE曲线

4 总结与未来工作

本文提出了一种新的时空图建模的图小波卷积神经网络模型.提出的图小波卷积神经网络通过将图小波卷积层和扩展因果卷积层结合起来, 有效地捕获了时空图节点间属性特征的时空相关性.提出了利用自适应邻接矩阵从数据中动态学习隐层空间依赖关系的有效方法.本文提出的模型在两个公共交通网络数据集上的性能优于其他最新的基准方法, 这表明本文的图小波卷积神经网络模型在从输入数据中探索时空结构方面具有一定的潜力.

为了进一步探究模型的性能, 通过对模型的抗干扰能力实验分析, 发现本文模型对短时预测的抗噪声能力较弱, 对长时预测的抗干扰能力较强, 对于具有高斯噪声的输入, 模型的短时预测性能失效.因此, 模型不能应对时序或时空异常数据的检测场景; 相反, 其具有较强的抗干扰性, 因此, 提出的模型可以应用在具有强噪声网络环境下的时空预测场景.此外, 将模型与动态图神经网络模型进行了实验对比分析, 发现仅依靠统计节点的时序特征提取网络结构时间快照的方法构造的动态图结构破坏了图结构的完整时空依赖信息, 因此不能完全真实反映现实世界中物理路网的真实状态.

在未来的工作中, 将继续探索本文模型在其他应用领域的尝试, 主要包含3个方面: (1) 探索本文模型在大图结构下的时序预测性能, 因为随着信息技术的发展, 大图结构中的数据的分析挖掘价值愈发突出; (2) 探索本文模型在动态图结构下的性能, 特别是针对多连接关系的动态图结构领域的时序预测; (3) 探索本文模型在图节点分类、连接关系预测等多个领域的应用.

参考文献
[1]
Yu B, Lee Y, Sohn K. Forecasting road traffic speeds by considering area-wide spatio-temporal dependencies based on a graph convolutional neural network (GCN). Transportation Research Part C: Emerging Technologies, 2020, 114: 189-204. [doi:10.1016/j.trc.2020.02.013]
[2]
Safikhani A, Kamga C, Mudigonda S, Faghih SS, Monghimi B. Spatio-Temporal modeling of yellow taxi demands in New York city using generalized STAR models. Int'l Journal of Forecasting, 2020, 36(3): 1138-1148. [doi:10.1016/j.ijforecast.2018.10.001]
[3]
Sun XY, Liu Q, Yang Y. Similarity graph convolutional construction network for interactive action recognition. In: Cheng WH, ed. Proc. of the MultiMedia Modeling (Part Ⅱ). Cham: Springer-Verlag, 2020. 291-303. [doi:10.1007/978-3-030-37734-2_24]
[4]
Han S, Kim J. Video scene change detection using convolution neural network. In: Proc. of the ICIT 2017. New York: ACM, 2017. 116-119. [doi:10.1145/3176653.3176673]
[5]
Ma TS, Kuang P, Tian WH. An improved recurrent neural networks for 3D object reconstruction. Applied Intelligence, 2020, 50(3): 905-923. [doi:10.1007/s10489-019-01523-3]
[6]
Xiong YH, Zuo RG. Recognition of geochemical anomalies using a deep autoencoder network. Computers & Geosciences, 2016, 86: 75-82. [doi:10.1016/j.cageo.2015.10.006]
[7]
Zhang S, Tong HH, XU JJ, Maciejewski R. Graph convolutional networks: Algorithms, applications and open challenges. In: Proc. of the CSoNet 2018. Cham: Springer-Verlag, 2018. 79-91. [doi:10.1007/978-3-030-04648-4_7]
[8]
Wu ZH, Pan SR, Long GD, Jiang J, Zhang CQ. Graph WaveNet for deep spatial-temporal graph modeling. In: Proc. of the IJCAI 2019. 2019. 1907-1913. [doi:10.24963/ijcai.2019/264]
[9]
Mishra K, Basu S, Maulik U. DaNSe: A dilated causal convolutional network based model for load forecasting. In: Deka B, ed. Proc. of the Pattern Recognitsion and Machine Intelligence. Cham: Springer-Verlag, 2019. 234-241. [doi:10.1007/978-3-030-34869-4_26]
[10]
Kazi A, Shekarforoush S, Krishna SA, Burwinkel H, Vivar G, Wiestler B, Kortum K, Ahmadi S, Albarqouni S, Navab N. Graph convolution based attention model for personalized disease prediction. In: Shen DG ed. Proc. of the Medical Image Computing and Computer Assisted Intervention (MICCAI 2019). Cham: Springer-Verlag, 2019. 122-130. [doi:10.1007/978-3-030-32251-9_14]
[11]
Graves A. Supervised Sequence Labelling with Recurrent Neural Networks. Berlin, Heidelberg: Springer-Verlag, 2012, 37-45. [doi:10.1007/978-3-642-24797-2_4]
[12]
Seo Y, Defferrard M, Vandergheynst P, Bresson X. Structured sequence modeling with graph convolutional recurrent networks. In: Proc. of the ICONIP 2018. Cham: Springer-Verlag, 2018. 362-373. [doi:10.1007/978-3-030-04167-0_33]
[13]
Liang XD, Shen XH, Feng JS, Lin L, Yan SC. Semantic object parsing with graph LSTM. In: Proc. of the ECCV 2016. Cham: Springer-Verlag, 2016. 125-143. [doi:10.1007/978-3-319-46448-0_8]
[14]
Pareja A, Domeniconi G, Chen J, Ma TY, Suzumura T, Kanezashi H, Kaler T, Schardl TB, Leiserson CE. EvolveGCN: Evolving graph convolutional networks for dynamic graphs. AAAI-20, 2020, 34(4): 5363-5370. [doi:10.1069/aaai.v.v34i04.5984]
[15]
Liu C, Li XC, Zhao DY, Guo SL, Dong LJ, Yao H. A-GNN: Anchors-aware graph neural networks for node embedding. In: Chu XW, ed. Proc. of the Quality, Reliability, Security and Robustness in Heterogeneous Systems, Vol. 300. Cham: Springer-Verlag, 2020. 141-153. [doi:10.1007/978-3-030-38819-5_9]
[16]
Hisano R. Semi-Supervised graph embedding approach to dynamic link prediction. In: Proc. of the CompleNet 2018: Complex Networks Ⅸ. Cham: Springer-Verlag, 2018. 109-121. [doi:10.1007/978-3-319-73198-8_10]
[17]
Zheng XF, Zhang M, Hu JW, Chen WF, Feng GC. Weighted graph classification by self-aligned graph convolutional networks using self-generated structural features. In: Proc. of the PRCV 2018. Cham: Springer-Verlag, 2018. 505-516. [doi:10.1007/978-3-030-03335-4_44]
[18]
Gopinath K, Desrosiers C, Lombaert H. Adaptive graph convolution pooling for brain surface analysis. In: Proc. of the IPMI 2019: Information Processing in Medical Imaging. Cham: Springer-Verlag, 2019. 86-98. [doi:10.1007/978-3-030-20351-1_7]
[19]
Monti F, Boscaini D, Masci J, Rodolà E, Svoboda J, Bronstein M. Geometric deep learning on graphs and manifolds using mixture model CNNs. In: Proc. of the CVPR 2017. IEEE, 2017. 5425-5434. [doi:10.1109/CVPR.2017.576]
[20]
Xie ZY, Chen JZ, Peng B. Point clouds learning with attention-based graph convolution networks. Neurocomputing, 2020, 402: 245-255. [doi:10.1016/j.neucom.2020.03.086]
[21]
Liu ZQ, Chen CC, Li LF, Zhou J, Li XL, Song L. GeniePath: Graph neural networks with adaptive receptive paths. In: Proc. of the AAAI Conf. on Artificial Intelligence (AAAI-19). 2018. 4424-4431. [doi:10.1609/aaai.v33i01.33014424]
[22]
Li RY, Wang S, Zhu FY, Huang JZ. Adaptive graph convolutional neural networks. In: Proc. of the AAAI Conf. on Artificial Intelligence (AAAI-18). 2018. 3546-3553.
[23]
Xu BB, Shen HW, Cao Q, Qiu YQ, Cheng XQ. Graph wavelet neural network. In: Proc. of the Int'l Conf. on Learning Representations (ICLR 2019). 2019. 1-13. https://openreview.net/forum?id=H1ewdiR5tQ
[24]
Liao RJ, Li YJ, Song Y, Wnag SL, Hamilton WL, Duvenaud D, Urtasun R, Zemel RS. Efficient graph generation with graph recurrent attention networks. In: Wallach H, ed. Proc. of the Advances in Neural Information Processing Systems, Vol. 32. Curran Associates, Inc. , 2019. 4255-4265. URL: https://proceedings.neurips.cc/paper/2019/file/d0921d442ee91b896ad95059d13df618-Paper.pdf
[25]
Kadambari SK, Chepuri SP. Fast graph convolutional recurrent neural networks. In: Proc. of the Int'l Conf. on Asilomar Conf. on Signals, Systems, and Computers (ACSSC 2019). IEEE, 2019. 467-471.
[26]
Zhang KG, Hao M, Wang J, Silva CW, Fu CL. Linked dynamic graph CNN: Learning on point cloud via linking hierarchical features. Computing Research Repository (CoRR), 2019, abs/1904.100114: 1-8. URL: http://arxiv.org/abs/1904.10014
[27]
Kipf TN, Welling M. Semi-Supervised classification with graph convolutional networks. In: Proc. of the Int'l Conf. on Learning Representations (ICLR 2017). 2017. 1-14. URL: https://openreview.net/forum?id=SJU4ayYgl
[28]
Donnat C, Zitnik M, Hallac D, Leskovec J. Learning structural node embeddings via diffusion wavelets. In: Proc. of the ACM SIGKDD Int'l Conf. on Knowledge Discovery & Data Mining (KDD-18). ACM, 2018. 1320-1329. [doi:10.1145/3219819.3220025]
[29]
Hammond DK, Vandergheynst P, Gribonval R. Wavelets on graphs via spectral graph theory. Applied and Computational Harmonic Analysis, 2011, 30: 129-150. [doi:10.1016/j.acha.2010.04.005]
[30]
Wang SH, Muhannad K, Hong J, Sangaiah AK, Zhang YD. Alcoholism identification via convolutional neural network based on parametric ReLU, dropout, and batch normalization. Neural Computing and Applications, 2020, 32(3): 665-680. [doi:10.1007/s00521-018-3924-0]
[31]
Raheli B, Aalami MT, Shafie AE, Ghorbani MA, Deo RC. Uncertainty assessment of the multilayer perceptron (MLP) neural network model with implementation of the novel hybrid MLP-FFA method for prediction of biochemical oxygen demand and dissolved oxygen: A case study of langat river. Environmental Earth Sciences, 2017, 76: 503. [doi:10.1007/s12665-017-6842-z]
[32]
Li YG, Yu R, Shahabi C, Liu Y. Diffusion convolutional recurrent neural network: Data-driven traffic forecasting. In: Proc. of the Int'l Conf. on Learning Representations (ICLR 2018). 2018. 1-16. URL: https://openreview.net/forum?id=SJiHXGWAZ
[33]
Yu B, Yin HT, Zhu ZX. Spatio-Temporal graph convolutional networks: A deep learning framework for traffic forecasting. In: Proc. of the Int'l Joint Conf. on Artificial Intelligence (IJCAI-18). 2018. 3634-3640. [doi:10.24963/ijcai.2018/505]