2005 年谢芳等人利用 BP 神经网络模型和统计待消歧词的上下文信息来进行词义消歧。2014 年张婷婷提出基于 WordNet 现存的词义的德语翻译

2005 年谢芳等人利用 BP 神经网络模型和统计待消歧词的上下文信息

2005 年谢芳等人利用 BP 神经网络模型和统计待消歧词的上下文信息来进行词义消歧。2014 年张婷婷提出基于 WordNet 现存的词义结构以及词义对用的上下文语义关系,词义消歧之后通过语义选择完成消歧工作。2016 年张国清进行了有导的利用神经网络进行的词义消歧方法,还介绍了无导的利用 Hownet 义原同现频率信息进行的消歧方法。2016 年张春祥等人将语义信息引入词义消歧模型之中。在汉语句子中,以歧义词汇为中心定位其左右词汇单元,以左右词汇单元的语义类别为基础,使用贝叶斯模型来判断歧义词汇的真实语义。随着神经网络的兴起,神经网络在自然语言处理也被广泛应用。Bengio等借助语言模型的思想,使用句子中的词作为神经网络的输入和神经网络的输出,利用语言模型的思想和神经网络反向传播算法,对词向量进行学习,大大缩短了训练时间。结合矩阵分解和上下文窗口,能利用更多的统计信息,在越大的语料上越具有优势,深度学习获得的词向量中包含大量的语义信息,这些语义信息能否用于以及如何用于词义消歧领域成为了最新的问题。
0/5000
源语言: -
目标语言: -
结果 (德语) 1: [复制]
复制成功!
Im Jahr 2005 verwendeten Xie Fang et al. Das BP-Modell für neuronale Netze und statistische Kontextinformationen von Wörtern, die eindeutig definiert werden sollen, um eine Begriffsklärung durchzuführen. Im Jahr 2014 schlug Zhang Tingting vor, basierend auf der vorhandenen Wortbedeutungsstruktur von WordNet und der kontextsemantischen Beziehung der Wortbedeutungspaarung. Nach der Wortbedeutungsdisambiguierung wird die Disambiguierungsarbeit durch semantische Auswahl abgeschlossen. Im Jahr 2016 führte Zhang Guoqing eine Methode zur Disambiguierung des geführten Wortsinns unter Verwendung eines neuronalen Netzwerks durch und führte auch eine Methode zur ungeleiteten Disambiguierung unter Verwendung von Hownet ein, was die ursprüngliche Häufigkeit des gemeinsamen Auftretens bedeutet. Im Jahr 2016 führten Zhang Chunxiang und andere semantische Informationen in das Wortsinn-Disambiguierungsmodell ein. In chinesischen Sätzen wird das mehrdeutige Vokabular als Zentrum verwendet, um seine linken und rechten lexikalischen Einheiten zu lokalisieren. Basierend auf den semantischen Kategorien der linken und rechten lexikalischen Einheiten wird das Bayes'sche Modell verwendet, um die wahre Semantik des mehrdeutigen Vokabulars zu bestimmen. Mit dem Aufkommen neuronaler Netze werden neuronale Netze auch häufig in der Verarbeitung natürlicher Sprache verwendet. Mit Hilfe von Sprachmodellideen verwendeten Bengio et al. Die Wörter im Satz als Eingabe des neuronalen Netzwerks und als Ausgabe des neuronalen Netzwerks. Unter Verwendung der Ideen des Sprachmodells und des Algorithmus zur Rückausbreitung des neuronalen Netzwerks zum Erlernen der Wortvektoren wurde die Trainingszeit erheblich verkürzt. Durch die Kombination von Matrixzerlegung und Kontextfenstern können mehr statistische Informationen verwendet werden. Je größer der Korpus, desto vorteilhafter ist er. Die durch Deep Learning erhaltenen Wortvektoren enthalten viele semantische Informationen. Können und wie können diese semantischen Informationen zur Eliminierung von Wortbedeutungen verwendet werden? Das Feld der Divergenz ist zum neuesten Thema geworden.
正在翻译中..
结果 (德语) 2:[复制]
复制成功!
Im Jahr 2005 verwendeten Xie Fang et al. das neuronale Netzwerkmodell von BP und die kontextuellen Informationen, die die Wörter als uneindeutig einrechneten. Im Jahr 2014 schlug Zhang eine kontextssemantische Beziehung vor, die auf WordNets vorhandener Wortbedeutungsstruktur und Wortbedeutungspaaren basiert, die dann durch semantische Auswahl verunstaltet werden. Im Jahr 2016 führte Zhang Guoqing eine geführte Methode der Disambiguation mit hilfe neuronaler Netze durch und führte auch die ungelenkte Methode der Disambiguation mit Hownet Yiyuan homogenen Frequenzinformationen ein. Im Jahr 2016 führten Zhang Chunxiang und andere semantische Informationen in das Modell des Wortes ein, das Disambiguation bedeutet. In chinesischen Sätzen werden die linken und rechten Vokabeleinheiten als Mittelpunkt positioniert, und die reale semantische Semantik des mehrdeutigen Vokabulars wird vom Bayesschen Modell anhand der semantischen Kategorien linker und rechter Vokabeleinheiten beurteilt. Mit dem Aufkommen neuronaler Netze werden neuronale Netzwerke auch in der natürlichen Sprachverarbeitung weit verbreitet. Bengio und andere verwenden die Wörter im Satz als Eingabe des neuronalen Netzwerks und die Ausgabe des neuronalen Netzwerks, und verwenden den Gedanken- und Neuronalnetzwerk-Reverse-Propagationsalgorithmus des Sprachmodells, um den Wortvektor zu lernen, was die Trainingszeit erheblich verkürzt. In Kombination mit Matrixzerlegung und Kontextfenster können mehr statistische Informationen genutzt werden, je vorteilhafter die Korporen, desto mehr enthält der durch Deep Learning erhaltene Wortvektor eine große Menge an semantischen Informationen, ob diese semantischen Informationen verwendet werden können und wie man sie im Bereich der Wortentmystik verwendet, ist das neueste Problem geworden.
正在翻译中..
结果 (德语) 3:[复制]
复制成功!
In 2005 nutzten Xie Fang und andere BP neuronales Netzwerkmodell und statistische Kontextinformationen des Wortes, das disambitioniert werden sollte, um Wortsinndisambiguation durchzuführen.In 2014 schlug Zhang Tingting vor, die Disambiguation durch semantische Selektion nach Wortsinndisambiguation auf der Grundlage der vorhandenen Wortsinnsstruktur von WordNet und der kontextsemantischen Beziehung von Wortbedeutung Matching zu vollenden.Im 2016 führte Zhang Guoqing mit Hilfe eines neuronalen Netzwerkes eine direkte Wortsinndisambiguation durch und führte eine nicht geführte Wortsinndisambiguation durch.Im 2016 führten Zhang Chunxiang und andere semantische Informationen in das Wortsinndisambiguationsmodell ein.In chinesischen Sätzen befinden sich die linken und rechten lexikalischen Einheiten mit den mehrdeutigen Wörtern als Mittelpunkt. Basierend auf den semantischen Kategorien der linken und rechten lexikalischen Einheiten, wird Bayesian-Modell verwendet, um die wahre Semantik der mehrdeutigen Wörter zu beurteilen.Mit dem Aufkommen neuronaler Netzwerke werden neuronale Netzwerke in der natürlichen Sprachverarbeitung weit verbreitet eingesetzt.Mit Hilfe der Idee des Sprachmodells verwendet Bengio Wörter in Sätzen als Eingabe von neuronalem Netzwerk und der Ausgabe von neuronalem Netzwerk und verwendet die Idee des Sprachmodells und des neuronalen Netzwerks zurück Vermehrungsalgorithmus, um das Wort Vektor zu lernen, was die Trainingszeit stark verkürzt.Mit der Kombination von Matrixzerlegung und Kontext-Fenster können mehr statistische Informationen verwendet werden. Je größer das Korpus, desto vorteilhafter ist es. Der Wortvektor, der durch tiefes Lernen gewonnen wird, enthält eine Menge semantische Informationen. Ob und wie man diese semantischen Informationen im Bereich der Wortsinndisambiguation verwendet, ist das neueste Problem geworden.<br>
正在翻译中..
 
其它语言
本翻译工具支持: 世界语, 丹麦语, 乌克兰语, 乌兹别克语, 乌尔都语, 亚美尼亚语, 伊博语, 俄语, 保加利亚语, 信德语, 修纳语, 僧伽罗语, 克林贡语, 克罗地亚语, 冰岛语, 加利西亚语, 加泰罗尼亚语, 匈牙利语, 南非祖鲁语, 南非科萨语, 卡纳达语, 卢旺达语, 卢森堡语, 印地语, 印尼巽他语, 印尼爪哇语, 印尼语, 古吉拉特语, 吉尔吉斯语, 哈萨克语, 土库曼语, 土耳其语, 塔吉克语, 塞尔维亚语, 塞索托语, 夏威夷语, 奥利亚语, 威尔士语, 孟加拉语, 宿务语, 尼泊尔语, 巴斯克语, 布尔语(南非荷兰语), 希伯来语, 希腊语, 库尔德语, 弗里西语, 德语, 意大利语, 意第绪语, 拉丁语, 拉脱维亚语, 挪威语, 捷克语, 斯洛伐克语, 斯洛文尼亚语, 斯瓦希里语, 旁遮普语, 日语, 普什图语, 格鲁吉亚语, 毛利语, 法语, 波兰语, 波斯尼亚语, 波斯语, 泰卢固语, 泰米尔语, 泰语, 海地克里奥尔语, 爱尔兰语, 爱沙尼亚语, 瑞典语, 白俄罗斯语, 科西嘉语, 立陶宛语, 简体中文, 索马里语, 繁体中文, 约鲁巴语, 维吾尔语, 缅甸语, 罗马尼亚语, 老挝语, 自动识别, 芬兰语, 苏格兰盖尔语, 苗语, 英语, 荷兰语, 菲律宾语, 萨摩亚语, 葡萄牙语, 蒙古语, 西班牙语, 豪萨语, 越南语, 阿塞拜疆语, 阿姆哈拉语, 阿尔巴尼亚语, 阿拉伯语, 鞑靼语, 韩语, 马其顿语, 马尔加什语, 马拉地语, 马拉雅拉姆语, 马来语, 马耳他语, 高棉语, 齐切瓦语, 等语言的翻译.

Copyright ©2024 I Love Translation. All reserved.

E-mail: