Graph representation learning for static graphs is a well studied topi的简体中文翻译

Graph representation learning for s

Graph representation learning for static graphs is a well studied topic. Recently, a few studies have focused on learning temporal information in addition to the topology of a graph. Most of these studies have relied on learning to represent nodes and substructures in dynamic graphs. However, the representation learning problem for entire graphs in a dynamic context is yet to be addressed. In this paper, we propose an unsupervised representation learning architecture for dynamic graphs, designed to learn both the topological and temporal features of the graphs that evolve over time. The approach consists of a sequence-to-sequence encoder-decoder model embedded with gated graph neural networks (GGNNs) and long short-term memory networks (LSTMs). The GGNN is able to learn the topology of the graph at each time step, while LSTMs are leveraged to propagate the temporal information among the time steps. Moreover, an encoder learns the temporal dynamics of an evolving graph and a decoder reconstructs the dynamics over the same period of time using the encoded representation provided by the encoder. We demonstrate that our approach is capable of learning the representation of a dynamic graph through time by applying the embeddings to dynamic graph classification using a real world dataset of animal behaviour.
0/5000
源语言: -
目标语言: -
结果 (简体中文) 1: [复制]
复制成功!
静态图的图表示学习是一个经过充分研究的主题。近来,除了图的拓扑结构之外,一些研究还集中于学习时间信息。这些研究大多数依赖于学习以表示动态图中的节点和子结构。但是,动态上下文中整个图形的表示学习问题尚未解决。在本文中,我们提出了一种用于动态图的无监督表示学习体系结构,旨在学习随时间变化的图的拓扑和时间特征。该方法由嵌入了门控图神经网络(GGNN)和长短期记忆网络(LSTM)的序列到序列编码器/解码器模型组成。GGNN能够在每个时间步学习图的拓扑,而LSTM被利用来在时间步长之间传播时间信息。此外,编码器学习进化图的时间动态,并且解码器使用由编码器提供的编码表示在相同的时间段上重建动态。我们证明,通过使用动物行为的真实世界数据集将嵌入应用于动态图分类,我们的方法能够通过时间学习动态图的表示。
正在翻译中..
结果 (简体中文) 2:[复制]
复制成功!
静态图形的图形表示学习是一个研究良好的主题。最近,除了图形的拓扑外,一些研究还侧重于学习时间信息。这些研究大多数都依赖于学习来表示动态图形中的节点和子结构。但是,动态上下文中整个图形的表示学习问题尚未解决。在这篇论文中,我们提出了一个动态图形的不受监督的表示学习架构,旨在学习随时间演变的图形的拓扑和时间特征。该方法由嵌入门控图形神经网络(GGN)和长期短期内存网络(LSTMs)的序列到序列编码器解码器模型组成。GGNN 能够在每个时间步长中了解图形的拓扑,同时利用 LSTM 在时间步长之间传播时态信息。此外,编码器学习不断发展的图形的时间动力学,解码器使用编码器提供的编码表示来重建同一时期的动态。我们证明,我们的方法能够通过使用动物行为的真实数据集将嵌入应用于动态图形分类,来学习动态图形的表示。
正在翻译中..
结果 (简体中文) 3:[复制]
复制成功!
静态图的图表示学习是一个很好的研究课题。近年来,除了图的拓扑结构外,一些研究集中在时间信息的学习上。这些研究大多依赖于学习如何在动态图中表示节点和子结构。然而,在动态环境下,整个图的表示学习问题仍有待解决。在本文中,我们提出了一个动态图的无监督表示学习架构,用来学习随时间演化的图的拓扑和时间特征。该方法由一个嵌入门控图神经网络(GGNNs)和长短时记忆网络(LSTMs)的序列到序列编解码模型组成。GGNN能够在每个时间步学习图的拓扑结构,而LSTMs用于在时间步之间传播时间信息。此外,编码器学习演化图的时间动态,解码器使用编码器提供的编码表示在相同时间段内重建动态。我们证明了我们的方法能够通过时间来学习动态图的表示,通过使用真实世界的动物行为数据集将嵌入应用到动态图分类中。
正在翻译中..
 
其它语言
本翻译工具支持: 世界语, 丹麦语, 乌克兰语, 乌兹别克语, 乌尔都语, 亚美尼亚语, 伊博语, 俄语, 保加利亚语, 信德语, 修纳语, 僧伽罗语, 克林贡语, 克罗地亚语, 冰岛语, 加利西亚语, 加泰罗尼亚语, 匈牙利语, 南非祖鲁语, 南非科萨语, 卡纳达语, 卢旺达语, 卢森堡语, 印地语, 印尼巽他语, 印尼爪哇语, 印尼语, 古吉拉特语, 吉尔吉斯语, 哈萨克语, 土库曼语, 土耳其语, 塔吉克语, 塞尔维亚语, 塞索托语, 夏威夷语, 奥利亚语, 威尔士语, 孟加拉语, 宿务语, 尼泊尔语, 巴斯克语, 布尔语(南非荷兰语), 希伯来语, 希腊语, 库尔德语, 弗里西语, 德语, 意大利语, 意第绪语, 拉丁语, 拉脱维亚语, 挪威语, 捷克语, 斯洛伐克语, 斯洛文尼亚语, 斯瓦希里语, 旁遮普语, 日语, 普什图语, 格鲁吉亚语, 毛利语, 法语, 波兰语, 波斯尼亚语, 波斯语, 泰卢固语, 泰米尔语, 泰语, 海地克里奥尔语, 爱尔兰语, 爱沙尼亚语, 瑞典语, 白俄罗斯语, 科西嘉语, 立陶宛语, 简体中文, 索马里语, 繁体中文, 约鲁巴语, 维吾尔语, 缅甸语, 罗马尼亚语, 老挝语, 自动识别, 芬兰语, 苏格兰盖尔语, 苗语, 英语, 荷兰语, 菲律宾语, 萨摩亚语, 葡萄牙语, 蒙古语, 西班牙语, 豪萨语, 越南语, 阿塞拜疆语, 阿姆哈拉语, 阿尔巴尼亚语, 阿拉伯语, 鞑靼语, 韩语, 马其顿语, 马尔加什语, 马拉地语, 马拉雅拉姆语, 马来语, 马耳他语, 高棉语, 齐切瓦语, 等语言的翻译.

Copyright ©2024 I Love Translation. All reserved.

E-mail: