一、摘要学习复杂网络上的连续时间动态对于理解、预测和控制科学和工程中的复杂系统至关重要。然而,由于高维系统结构中的组合复杂性、它们难以捉摸的连续时间非线性动力学以及它们的结构-动力学依赖性,使得这项任务非常具有挑战。为了解决这些挑战,我们提出将常微分方程系统(ODEs)和图神经网络(GNNs)相结合,以数据驱动的范式来学习复杂网络上的连续时间动态变化。我们用GNN来建模微分方程系统。我们并未在前向过程中使用离散数量的神经网络层进行映射,而是在连续时间上数值地整合GNN层,从而捕获图上的连续时间动态。我们的模型可以解释为连续时间GNN模型或图神经ode模型。我们的模型可以用于:连续时间网络动态预
Cascade-LSTM是一个用于虚假信息级联检测的树结构神经分类器,它本质上是一个谣言(假新闻)检测模型,它将谣言检测任务视为一个树分类问题。 Cascade-LSTM在递归神经网络(本文具体基于TreeLSTM,即树结构的LSTM)的基础上,引入了一个双向的TreeLSTM结构来沿着传播树结构进行自底向上和自顶向下的遍历来编码传播树节点的用户特征。 具体地,Cascade-LSTM先从叶节点向根节点自底向上地遍历,更新节点特征,然后再从根节点向叶节点遍历-以自底向上的隐状态向量、节点特征和父节点的隐状态向量为输入,再次更新节点特征,以编码节点间的上下文依赖关系,来沿着传播树结
记录一下,很久之前看的论文-基于RNN来从微博中检测谣言及其代码复现。1引言 现有传统谣言检测模型使用经典的机器学习算法,这些算法利用了根据帖子的内容、用户特征和扩散模式手工制作的各种特征,或者简单地利用使用正则表达式表达的模式来发现推特中的谣言(规则加词典)。 特征工程是至关重要的,但手工特征工程是繁琐复杂、有偏见和耗时费力的。例如,图1中的两个时间序列图描述了典型的谣言信号的浅层模式。虽然它们可以表明谣言和非谣言事件的时间特征(微博文本中关键词的时序变化),但这两种情况之间的差异对于特征工程来说既不明确,也不明显。 另一方面,深度神经网络在许多机器学习问题上已经显
记录一下,很久之前看的论文-基于RNN来从微博中检测谣言及其代码复现。1引言 现有传统谣言检测模型使用经典的机器学习算法,这些算法利用了根据帖子的内容、用户特征和扩散模式手工制作的各种特征,或者简单地利用使用正则表达式表达的模式来发现推特中的谣言(规则加词典)。 特征工程是至关重要的,但手工特征工程是繁琐复杂、有偏见和耗时费力的。例如,图1中的两个时间序列图描述了典型的谣言信号的浅层模式。虽然它们可以表明谣言和非谣言事件的时间特征(微博文本中关键词的时序变化),但这两种情况之间的差异对于特征工程来说既不明确,也不明显。 另一方面,深度神经网络在许多机器学习问题上已经显
ImageNetClassificationwithDeepConvolutionalNeuralNetworks论文地址1.研究背景:在计算机视觉领域,识别大规模图像集合是一个重要的任务。然而,由于数据量大,多样性复杂,传统的机器学习方法在此任务上面临着许多挑战。深度学习方法的出现解决了这一问题,其中卷积神经网络(CNNs)被证明在大规模视觉识别任务中非常有效。2.研究内容:本文介绍了一个基于卷积神经网络的深度学习模型,名为AlexNet。该模型通过在大规模视觉识别挑战(ILSVRC)上获得了最好的成绩,使得深度学习在视觉识别领域受到了广泛的关注。3.研究方法:AlexNet是一个由8个神经
ImageNetClassificationwithDeepConvolutionalNeuralNetworks论文地址1.研究背景:在计算机视觉领域,识别大规模图像集合是一个重要的任务。然而,由于数据量大,多样性复杂,传统的机器学习方法在此任务上面临着许多挑战。深度学习方法的出现解决了这一问题,其中卷积神经网络(CNNs)被证明在大规模视觉识别任务中非常有效。2.研究内容:本文介绍了一个基于卷积神经网络的深度学习模型,名为AlexNet。该模型通过在大规模视觉识别挑战(ILSVRC)上获得了最好的成绩,使得深度学习在视觉识别领域受到了广泛的关注。3.研究方法:AlexNet是一个由8个神经
GraphNeuralTransportNetworkswithNon-localAttentionsforRecommenderSystems用于推荐系统的非局部注意的图神经传输网络来源:WWW2022摘要:通常,GNN通过在本地邻居之间传播和聚合消息来生成用户/项的嵌入。因此,GNN捕获远程依赖关系的能力在很大程度上取决于它们的深度。然而,简单地训练深度gnn会产生瓶颈效应,例如过拟合和过平滑等,无法得到较好的训练效果。为了解决这个问题,作者提出了图最优传输网络(GOTNet)来捕获在不增加GNN深度的情况下的长期依赖关系。GOTNet能够只使用浅层GNN来同时捕获图中的本地和非本地消息,
GraphNeuralTransportNetworkswithNon-localAttentionsforRecommenderSystems用于推荐系统的非局部注意的图神经传输网络来源:WWW2022摘要:通常,GNN通过在本地邻居之间传播和聚合消息来生成用户/项的嵌入。因此,GNN捕获远程依赖关系的能力在很大程度上取决于它们的深度。然而,简单地训练深度gnn会产生瓶颈效应,例如过拟合和过平滑等,无法得到较好的训练效果。为了解决这个问题,作者提出了图最优传输网络(GOTNet)来捕获在不增加GNN深度的情况下的长期依赖关系。GOTNet能够只使用浅层GNN来同时捕获图中的本地和非本地消息,
论文链接:https://arxiv.org/pdf/2002.01680.pdf代码:https://github.com/cynricfu/MAGNN摘要:大量现实世界的图或网络本质上是异构的,其中包含了多种类型的节点和连边关系。异构图嵌入是将异构图中丰富的结构和语义信息嵌入到网络节点的低维向量表示中。现有模型通常采用定义多个元路径的方式来捕捉其中的复合关系,并以此来指导邻居节点的选择。然而这些模型要么忽略了节点的内容特征(或属性特征),要么只考虑了元路径两端节点而舍弃了元路径内部节点信息,要么只依赖于单个元路径,从而导致其他元路径信息的丢失。为解决上述问题,我们提出了一个名为MAGNN的
论文链接:https://arxiv.org/pdf/2002.01680.pdf代码:https://github.com/cynricfu/MAGNN摘要:大量现实世界的图或网络本质上是异构的,其中包含了多种类型的节点和连边关系。异构图嵌入是将异构图中丰富的结构和语义信息嵌入到网络节点的低维向量表示中。现有模型通常采用定义多个元路径的方式来捕捉其中的复合关系,并以此来指导邻居节点的选择。然而这些模型要么忽略了节点的内容特征(或属性特征),要么只考虑了元路径两端节点而舍弃了元路径内部节点信息,要么只依赖于单个元路径,从而导致其他元路径信息的丢失。为解决上述问题,我们提出了一个名为MAGNN的