We propose sequence-to-sequence architectures for graph representation的简体中文翻译

We propose sequence-to-sequence arc

We propose sequence-to-sequence architectures for graph representation learning in both supervised and unsupervised regimes. Our methods use recurrent neural networks to encode and decode information from graph-structured data. Recurrent neural networks require sequences, so we choose several methods of traversing graphs using different types of substructures with various levels of granularity to generate sequences of nodes for encoding. Our unsupervised approaches leverage long short-term memory (LSTM) encoder-decoder models to embed the graph sequences into a continuous vector space. We then represent a graph by aggregating its graph sequence representations. Our supervised architecture uses an attention mechanism to collect information from the neighborhood of a sequence. The attention module enriches our model in order to focus on the subgraphs that are crucial for the purpose of a graph classification task. We demonstrate the effectiveness of our approaches by showing improvements over the existing state-of-the-art approaches on several graph classification tasks.
0/5000
源语言: -
目标语言: -
结果 (简体中文) 1: [复制]
复制成功!
我们提出了在有监督和无监督两种情况下图表示学习的序列到序列体系结构。我们的方法使用递归神经网络对图结构数据中的信息进行编码和解码。递归神经网络需要序列,因此我们选择几种使用不同类型粒度的子结构遍历图的方法,以生成用于编码的节点序列。我们的无监督方法利用长短期记忆(LSTM)编解码器模型将图形序列嵌入到连续的向量空间中。然后,我们通过汇总其图形序列表示来表示图形。我们的监督架构使用注意力机制从序列附近收集信息。注意模块丰富了我们的模型,以便专注于对图分类任务至关重要的子图。我们通过在几个图形分类任务上显示现有技术的改进来证明我们方法的有效性。
正在翻译中..
结果 (简体中文) 2:[复制]
复制成功!
我们为受监督和非监督机制中的图形表示学习提供了序列到序列的体系结构。我们的方法使用循环神经网络对图形结构数据中的信息进行编码和解码。循环神经网络需要序列,因此我们选择几种使用不同粒度的不同类型的子结构遍历图形的方法,以生成用于编码的节点序列。我们的无监督方法利用长期短期内存 (LSTM) 编码器解码器模型将图形序列嵌入到连续矢量空间中。然后,我们通过聚合图形序列表示来表示图形。我们受监督的体系结构使用一种关注机制从序列的邻域收集信息。关注模块丰富了我们的模型,以便专注于对于图形分类任务至关重要的子图。通过展示对多个图形分类任务的现有最先进的方法的改进,我们展示了我们方法的有效性。
正在翻译中..
结果 (简体中文) 3:[复制]
复制成功!
我们提出了在有监督和无监督两种情况下进行图表示学习的序列到序列结构。我们的方法使用递归神经网络对图结构数据进行编码和解码。递归神经网络需要序列,因此我们选择了几种不同类型、不同粒度的子结构遍历图的方法来生成节点序列进行编码。我们的无监督方法利用长短期存储器(LSTM)编解码模型将图序列嵌入到连续向量空间中。然后我们通过聚合图序列表示来表示一个图。我们的监督体系结构使用一种注意机制来从序列的邻域收集信息。注意模块丰富了我们的模型,以便集中在子图上,这些子图对于图分类任务来说是至关重要的。我们展示了我们的方法的有效性,通过展示在几个图分类任务上现有的最新方法的改进。<br>
正在翻译中..
 
其它语言
本翻译工具支持: 世界语, 丹麦语, 乌克兰语, 乌兹别克语, 乌尔都语, 亚美尼亚语, 伊博语, 俄语, 保加利亚语, 信德语, 修纳语, 僧伽罗语, 克林贡语, 克罗地亚语, 冰岛语, 加利西亚语, 加泰罗尼亚语, 匈牙利语, 南非祖鲁语, 南非科萨语, 卡纳达语, 卢旺达语, 卢森堡语, 印地语, 印尼巽他语, 印尼爪哇语, 印尼语, 古吉拉特语, 吉尔吉斯语, 哈萨克语, 土库曼语, 土耳其语, 塔吉克语, 塞尔维亚语, 塞索托语, 夏威夷语, 奥利亚语, 威尔士语, 孟加拉语, 宿务语, 尼泊尔语, 巴斯克语, 布尔语(南非荷兰语), 希伯来语, 希腊语, 库尔德语, 弗里西语, 德语, 意大利语, 意第绪语, 拉丁语, 拉脱维亚语, 挪威语, 捷克语, 斯洛伐克语, 斯洛文尼亚语, 斯瓦希里语, 旁遮普语, 日语, 普什图语, 格鲁吉亚语, 毛利语, 法语, 波兰语, 波斯尼亚语, 波斯语, 泰卢固语, 泰米尔语, 泰语, 海地克里奥尔语, 爱尔兰语, 爱沙尼亚语, 瑞典语, 白俄罗斯语, 科西嘉语, 立陶宛语, 简体中文, 索马里语, 繁体中文, 约鲁巴语, 维吾尔语, 缅甸语, 罗马尼亚语, 老挝语, 自动识别, 芬兰语, 苏格兰盖尔语, 苗语, 英语, 荷兰语, 菲律宾语, 萨摩亚语, 葡萄牙语, 蒙古语, 西班牙语, 豪萨语, 越南语, 阿塞拜疆语, 阿姆哈拉语, 阿尔巴尼亚语, 阿拉伯语, 鞑靼语, 韩语, 马其顿语, 马尔加什语, 马拉地语, 马拉雅拉姆语, 马来语, 马耳他语, 高棉语, 齐切瓦语, 等语言的翻译.

Copyright ©2024 I Love Translation. All reserved.

E-mail: