Wicken has a good example that can be adapted to illustrate this diffe的简体中文翻译

Wicken has a good example that can

Wicken has a good example that can be adapted to illustrate this difference (1987:185). Suppose that I ask you to place a die on a table a thousand consecutive times, each time choosing the face you want to place upward. Shannon’s equation calculates the informa-tion on the resulting sequence as a function of the number of times a face actually turns up in comparison with the number of times it could be predicted to turn up, given the number of faces on the die. The uncertainty implied by the probability function reflects my in-ability to know in advance which choices you will make, not my ignorance about which die faces have already appeared. To imagine an analogous case for thermodynamic entropy, suppose that a thou-sand dice are cast all at once, and a measuring instrument records the total amount of light reflected from the die faces. We do not know how each individual die landed. After calibrating the light in-strument, however, we could figure out the average face count on the basis of the amount of light reflected. In this case the probability function reflects ignorance of the microstates, not ignorance of our choices in assembling a series of such states. 
0/5000
源语言: -
目标语言: -
结果 (简体中文) 1: [复制]
复制成功!
威肯具有可以适合于说明此差(1987:185)一个很好的例子。假设我问你放置一个芯片上表中的连续一千次,每次选择你想要向上放置脸上。香农公式计算出的结果序列作为面部实际上随着次数就可以预测调高数比较轮番上涨的次数的函数的Informa公司 - 重刑,鉴于模具面的数量。由概率函数隐含的不确定性反映了我的能力在其中提前选择,你会做,不是我的无知哪些模面已经出现了就知道了。想象为热力学熵的类似情况下,假设一个你砂骰子铸造一次全部,以及测量仪器的记录光从模具面反射的总量。我们不知道每个人模如何降落。校准在-strument光后,但是,我们可以计算出光的反射量的基础上,平均面数。在这种情况下,概率函数反映了微观,我们的选择装配一系列这样的状态不是无知的无知。 
正在翻译中..
结果 (简体中文) 2:[复制]
复制成功!
威肯有一个很好的例子,可以调整来说明这种差异(1987:185)。假设我要求你连续在桌子上放一个模具一千次,每次选择你想向上放置的脸。Shannon 的方程计算结果序列上的概元数,作为人脸实际出现的次数与根据模具上的面数预测出现的次数的函数。概率函数隐含的不确定性反映了我提前知道你会做出哪些选择的能力,而不是我对已经出现的死脸的无知。想象热力学熵的类似情况,假设一次铸造一个黄砂骰子,测量仪器记录从模面反射的光总量。我们不知道每个人是怎么死的然而,在校准光在结构上后,我们可以根据反射的光量计算出平均面数。在这种情况下,概率函数反映了对微观状态的无知,而不是我们对组装一系列此类状态的选择的无知。
正在翻译中..
结果 (简体中文) 3:[复制]
复制成功!
威肯有一个很好的例子可以用来说明这种差异(1987:185)。假设我让你连续一千次把一个骰子放在桌子上,每次都选择你想放在上面的脸。Shannon方程计算得到的序列信息是一个面实际出现的次数的函数,与给定模具上的面数可以预测的出现次数相比。概率函数所隐含的不确定性反映了我提前知道你将做出哪些选择的能力,而不是我对哪些死亡面孔已经出现的无知。想象一个类似的热力学熵的例子,假设一个千砂骰子被同时投下,一个测量仪器记录从模具表面反射的光的总量。我们不知道每个人是怎么死的。然而,在校准仪器中的光之后,我们可以根据反射的光的数量计算出平均人脸数。在这种情况下,概率函数反映了对微观状态的无知,而不是对我们在组合一系列这样的状态时的选择的无知。<br>
正在翻译中..
 
其它语言
本翻译工具支持: 世界语, 丹麦语, 乌克兰语, 乌兹别克语, 乌尔都语, 亚美尼亚语, 伊博语, 俄语, 保加利亚语, 信德语, 修纳语, 僧伽罗语, 克林贡语, 克罗地亚语, 冰岛语, 加利西亚语, 加泰罗尼亚语, 匈牙利语, 南非祖鲁语, 南非科萨语, 卡纳达语, 卢旺达语, 卢森堡语, 印地语, 印尼巽他语, 印尼爪哇语, 印尼语, 古吉拉特语, 吉尔吉斯语, 哈萨克语, 土库曼语, 土耳其语, 塔吉克语, 塞尔维亚语, 塞索托语, 夏威夷语, 奥利亚语, 威尔士语, 孟加拉语, 宿务语, 尼泊尔语, 巴斯克语, 布尔语(南非荷兰语), 希伯来语, 希腊语, 库尔德语, 弗里西语, 德语, 意大利语, 意第绪语, 拉丁语, 拉脱维亚语, 挪威语, 捷克语, 斯洛伐克语, 斯洛文尼亚语, 斯瓦希里语, 旁遮普语, 日语, 普什图语, 格鲁吉亚语, 毛利语, 法语, 波兰语, 波斯尼亚语, 波斯语, 泰卢固语, 泰米尔语, 泰语, 海地克里奥尔语, 爱尔兰语, 爱沙尼亚语, 瑞典语, 白俄罗斯语, 科西嘉语, 立陶宛语, 简体中文, 索马里语, 繁体中文, 约鲁巴语, 维吾尔语, 缅甸语, 罗马尼亚语, 老挝语, 自动识别, 芬兰语, 苏格兰盖尔语, 苗语, 英语, 荷兰语, 菲律宾语, 萨摩亚语, 葡萄牙语, 蒙古语, 西班牙语, 豪萨语, 越南语, 阿塞拜疆语, 阿姆哈拉语, 阿尔巴尼亚语, 阿拉伯语, 鞑靼语, 韩语, 马其顿语, 马尔加什语, 马拉地语, 马拉雅拉姆语, 马来语, 马耳他语, 高棉语, 齐切瓦语, 等语言的翻译.

Copyright ©2024 I Love Translation. All reserved.

E-mail: