随着大数据时代到来和人工智能的不断发展,动态图数据已经被广泛地应用于现实生活与科学研究当中,有巨大的使用和研究价值。现在许多实际场景中的图数据都是动态产生的,例如,当新用户的加入和新关系的建立,动态图数据会不断地扩展延伸。随着各个领域的动态图数据增加,动态图数据扮演着越来越重要的角色。动态图神经GSK2118436体内实验剂量网络作为一种有效的图数据处理工具,在链接预测和节点分类任务上表现出优异的性能,动态图神经网络在近几年得到了很多的关注。当图神经网络涉及的领域越来越广,图神经网络中的隐私问题也受到更多重视,有关于图神经网络的隐私保护方法也在不断被提出,但是目前有关于动态图神经网络的隐私保护方法研究还处于一个比较初步的阶段。在集中式场景下,动态图神经网络会随着时间推移动态更新节点的信息,当不同时刻节点变换的信息被攻击者捕获时,攻击者结合一定的背景知识可以对动态图中的边信息进行推理攻击。在分布式场景下,节点的特征信息和标签信息如果直接提供给不可信的服务器,亦会面临严重的隐私威胁。差分隐私是一种有效的隐私保护技术,它具有严格的数学定义,不需要对攻击者拥有的背景知识进行提前预知,已广泛应用于各种数据发布场景。基于差分隐私的图神经网络隐私保护模型是机器学习和数据安全交叉领域的研究热点,然而已有的图神经网络隐私保护方法主要针对静态图,尚未有研究考虑动态图神经网络中的隐私泄露问题。本文分析动态图数据神经网络在集中式场景和分布式场景下存在的隐私泄露问题,提出两种分别对应于集中式场景和分布式场景的差分隐私保护方法。本文的主要研究工作如下:(1)提出一种动态图神经网络的流差分隐私保护方法,此种方法针对于集中式场景下动态图神经网络oncologic imaging的隐私泄露问题。首先分析集中式场景下在动态图神经网络训练过程中,攻击者如何根据动态图训练过程中的传递信息和一定的背景知识推断出动态图中的边隐私信息。针对集中式场景下动态图神经网络的隐私泄露问题,本文提出了一种集中式场景下动态图神经网络的隐私保护方法,利用流差分隐私中的滑动窗口机制对动态时间进行建模,在滑动窗口滑动的过程中对动态图神经网络训练中传递的信息进行扰动,从而保护动态图中的边信息。为了得到更合理的隐私预算分配,提出符合动态图特性的隐私预算分配策略,从而使得对传递信息的扰动更加精准,在确保隐私保护效果的同时,保证了模型的效MRTX849浓度用性。(2)提出一种动态图神经网络的本地化差分隐私保护方法,此种方法针对于分布式场景下动态图神经网络的隐私泄露问题。首先阐述了分布式场景下在动态图神经网络训练过程中,将节点的特征信息和标签信息直接发送给非可信的服务器,会对节点的隐私信息造成严重威胁。针对分布式场景下动态图神经网络的隐私泄露问题,本文提出一种分布式场景下动态图神经网络的隐私保护方法。为了保护节点的特征信息,使用特征扰动算法对节点特征信息进行扰动,再对经过扰动后的节点特征信息进行整流操作。为了保护节点的标签信息,利用随机响应机制以一定的概率对节点的标签进行翻转,使得节点的标签信息中带有一定的噪声,从而保护了节点的标签信息。为了进一步降低所施加噪声对模型效用性的影响,提高数据的可用性,采用了多层节点信息聚合的方法,使得扰动后的节点特征信息和节点标签信息更接近于真实的信息,从而在保证节点隐私的情况下,可以得到较好的模型效用性。(3)对本文所提出的两个算法进行了隐私分析,并在多个公开真实的数据集(Cora、Elliptic、DBLP、UCI、DNC和Epinions)上进行实验,分别验证了所提出两个算法的效用性。实验结果证明本文所提出的算法在保证动态图数据安全的同时,模型在下游任务的表现上也达到不错的效果。