Abstract—Demand for high performance deep learning (DL)inference in so的简体中文翻译

Abstract—Demand for high performanc

Abstract—Demand for high performance deep learning (DL)inference in software applications is growing rapidly. DL workloadsrun on myriad platforms, including general purpose processors(CPU), system-on-chip (SoC) with accelerators, graphicsprocessing units (GPU), and neural processing unit (NPU) addincards. DL software engineers typically must choose betweenrelatively slow general hardware (e.g., CPUs, SoCs) or relativelyexpensive, large, power-hungry hardware (e.g., GPUs, NPUs).This paper describes Centaur Technology’s Ncore, the industry’sfirst high-performance DL coprocessor technology integratedinto an x86 SoC with server-class CPUs. Ncore’s 4096byte-wide SIMD architecture supports INT8, UINT8, INT16,and BF16 datatypes, with 20 tera-operations-per-second computecapability. Ncore shares the SoC ring bus for low-latency communicationand work sharing with eight 64-bit x86 cores, offeringflexible support for new and evolving models. The x86 SoCplatform can further scale out performance via multiple sockets,systems, or third-party PCIe accelerators. Ncore’s software stackautomatically converts quantized models for Ncore consumptionand leverages existing DL frameworks.In MLPerf’s Inference v0.5 closed division benchmarks, Ncoreachieves 1218 IPS throughput and 1.05ms latency on ResNet-50-v1.5 and achieves lowest latency of all Mobilenet-V1 submissions(329μs). Ncore yields 23x speedup over other x86 vendor percorethroughput, while freeing its own x86 cores for other work.Ncore is the only integrated solution among the memory intensiveneural machine translation (NMT) submissions.
0/5000
源语言: -
目标语言: -
结果 (简体中文) 1: [复制]
复制成功!
摘要- <br>软件应用程序中对高性能深度学习(DL)推理的需求正在迅速增长。DL工作负载<br>运行在多种平台上,包括通用处理器<br>(CPU),具有加速器的片上系统(SoC),图形<br>处理单元(GPU)和神经处理单元(NPU)附加<br>卡。DL软件工程师通常必须在<br>相对较慢的通用硬件(例如,CPU,SoC)或相对<br>昂贵,大型,耗电的硬件(例如,GPU,NPU)之间进行选择。<br>本文介绍了Centaur Technology的Ncore,这是业界第<br>一个集成<br>到具有服务器级CPU的x86 SoC中的高性能DL协处理器技术。Ncore的4096<br>字节宽的SIMD体系结构支持INT8,UINT8,INT16 <br>和BF16数据类型,并具有每秒20兆次运算的计算<br>能力。Ncore <br>与八个64位x86内核共享SoC环形总线,以实现低延迟通信和工作共享,从而<br>为新的和不断发展的模型提供灵活的支持。x86 SoC <br>平台可以通过多个插槽,<br>系统或第三方PCIe加速器进一步扩展性能。Ncore的软件堆栈可<br>自动转换量化模型以消耗Ncore,<br>并利用现有的DL框架。<br>在MLPerf的Inference v0.5封闭部门基准测试中,Ncore <br>在ResNet-50-上实现了1218 IPS吞吐量和1.05ms延迟。<br>v1.5,并实现了所有Mobilenet-V1提交的最低延迟<br>(329μs)。Ncore的速度是其他x86供应商percore <br>吞吐量的23倍,同时释放了自己的x86内核进行其他工作。<br>Ncore是内存密集型<br>神经机器翻译(NMT)提交中唯一的集成解决方案。
正在翻译中..
结果 (简体中文) 2:[复制]
复制成功!
摘要—对高性能深度学习的需求 (DL)<br>软件应用中的推理正在迅速增长。DL 工作负载<br>在无数平台上运行,包括通用处理器<br>(CPU),带加速器、显卡的片上系统 (SoC)<br>处理单元 (GPU) 和神经处理单元 (NPU) 附加<br>卡。DL 软件工程师通常必须在<br>相对较慢的一般硬件(例如,CPU、SoC)或相对较慢的<br>昂贵、大型、耗电的硬件(例如,GPU、新点设备)。<br>本文描述了森陶尔科技的Ncore,该行业的<br>集成了第一个高性能DL协处理器技术<br>到带有服务器级 CPU 的 x86 SoC 中。Ncore 的 4096<br>字节范围 SIMD 架构支持 INT8、UINT8、INT16、<br>和 BF16 数据类型,每秒计算 20 个 tera 操作<br>能力。Ncore 共享 SoC 环形总线,用于低延迟通信<br>并与八个 64 位 x86 内核共享,提供<br>灵活支持新的和不断发展的模式。The x86 SoC<br>平台可以通过多个套接字进一步扩展性能,<br>系统或第三方 PCIe 加速器。Ncore 的软件堆栈<br>自动转换 Ncore 消费的量化模型<br>并利用现有的DL框架。<br>在 MLPerf 的推理 v0.5 封闭式分部基准中,Ncore<br>在 ResNet-50 上实现 1218 IPS 吞吐量和 1.05ms 延迟<br>v1.5,实现所有 Mobilenet-V1 提交的最低延迟<br>(329μs)。 Ncore 比其他 x86 供应商每核产生 23 倍的加速<br>吞吐量,同时释放自己的 x86 内核用于其他工作。<br>Ncore 是内存密集型中唯一的集成解决方案<br>神经机器翻译 (NMT) 提交。
正在翻译中..
结果 (简体中文) 3:[复制]
复制成功!
高性能深度学习(DL)的抽象需求<br>软件应用中的推理正在迅速增长。DL工作负载<br>运行在各种平台上,包括通用处理器<br>(CPU)、带加速器的片上系统(SoC)、图形<br>处理单元(GPU)和神经处理单元(NPU)addin<br>卡。DL软件工程师通常必须在<br>相对较慢的通用硬件(如CPU、SOC)或相对较慢的<br>昂贵、大型、耗电量大的硬件(如GPU、NPU)。<br>本文描述了半人马技术的Ncore<br>首款高性能DL协处理器技术集成<br>使用服务器级CPU进入x86 SoC。军士4096<br>字节范围的SIMD体系结构支持INT8、UINT8、INT16,<br>和BF16数据类型,每秒计算20tera操作<br>能力。Ncore共享SoC环总线以实现低延迟通信<br>与8个64位x86内核共享工作,提供<br>灵活支持新的和不断发展的模型。x86系统芯片<br>平台可以通过多个套接字进一步扩展性能,<br>系统或第三方PCIe加速器。Ncore的软件堆栈<br>自动转换用于Ncore消耗的量化模型<br>并利用现有的DL框架。<br>在MLPerf的推论v0.5中,闭师基准,Ncore<br>在ResNet-50上实现1218 IPS吞吐量和1.05ms延迟-<br>v1.5,实现所有Mobilenet-v1提交的最低延迟<br>(329μs)。Ncore的速度比其他x86供应商percore快23倍<br>吞吐量,同时释放自己的x86内核用于其他工作。<br>Ncore是内存密集型系统中唯一的集成解决方案<br>神经机器翻译(NMT)提交。<br>
正在翻译中..
 
其它语言
本翻译工具支持: 世界语, 丹麦语, 乌克兰语, 乌兹别克语, 乌尔都语, 亚美尼亚语, 伊博语, 俄语, 保加利亚语, 信德语, 修纳语, 僧伽罗语, 克林贡语, 克罗地亚语, 冰岛语, 加利西亚语, 加泰罗尼亚语, 匈牙利语, 南非祖鲁语, 南非科萨语, 卡纳达语, 卢旺达语, 卢森堡语, 印地语, 印尼巽他语, 印尼爪哇语, 印尼语, 古吉拉特语, 吉尔吉斯语, 哈萨克语, 土库曼语, 土耳其语, 塔吉克语, 塞尔维亚语, 塞索托语, 夏威夷语, 奥利亚语, 威尔士语, 孟加拉语, 宿务语, 尼泊尔语, 巴斯克语, 布尔语(南非荷兰语), 希伯来语, 希腊语, 库尔德语, 弗里西语, 德语, 意大利语, 意第绪语, 拉丁语, 拉脱维亚语, 挪威语, 捷克语, 斯洛伐克语, 斯洛文尼亚语, 斯瓦希里语, 旁遮普语, 日语, 普什图语, 格鲁吉亚语, 毛利语, 法语, 波兰语, 波斯尼亚语, 波斯语, 泰卢固语, 泰米尔语, 泰语, 海地克里奥尔语, 爱尔兰语, 爱沙尼亚语, 瑞典语, 白俄罗斯语, 科西嘉语, 立陶宛语, 简体中文, 索马里语, 繁体中文, 约鲁巴语, 维吾尔语, 缅甸语, 罗马尼亚语, 老挝语, 自动识别, 芬兰语, 苏格兰盖尔语, 苗语, 英语, 荷兰语, 菲律宾语, 萨摩亚语, 葡萄牙语, 蒙古语, 西班牙语, 豪萨语, 越南语, 阿塞拜疆语, 阿姆哈拉语, 阿尔巴尼亚语, 阿拉伯语, 鞑靼语, 韩语, 马其顿语, 马尔加什语, 马拉地语, 马拉雅拉姆语, 马来语, 马耳他语, 高棉语, 齐切瓦语, 等语言的翻译.

Copyright ©2024 I Love Translation. All reserved.

E-mail: