计算机程序为什么采用二进制?
来源:学生作业帮助网 编辑:作业帮 时间:2024/11/25 14:46:25
xTMsPCt'-ͮNC40SQ#Fi"j̻*(ڬ%s= PÏKF&(Jܲ_cQԧ7G^|tvROؖAo2q>H_y|sZ}#a#
/I" 5َXxK;O $:tQcJ*(hs& $ƜlE]hPY筚@'̴
WyILa;c9r'htxK9Ь1Ӂ"$
c% "jh,,݄+إDLuSL %<bͣ$'qKSyʆ=Fຸ);`Xx7NYB^өI=v *:THCTLjLUsI)xWch$
T|URC?BD5\V9h1i_LI
wd.umNQQxp~} ,RN喜id"Z
/E
+i0E
z;/_#2YJ{AXDvH,p!\i㚩(6!|SQsIWm}^¸m Bm&ZfQ~5hƗxqD̉⟅WyC=ڽ8[A?o]cēA56k]:oaYxO
@
计算机程序为什么采用二进制?
计算机程序为什么采用二进制?
计算机程序为什么采用二进制?
简单是一个原因,更重要的是稳定,因为电脑内部信号传输的时候,归到根本上还是电信号的传播,采用二进制,就可以采用脉冲信号(高位代表1,低位代表0),而信号传输过程中肯定会受到干扰和衰弱,因为采用的是脉冲信号,所以即使有较大的信号干扰,依旧可以复原出来,因为二进制的非0即1特性.稳定的特点使得硬件的信号传输可靠性非常高,现在一般达到10的9次方数量级,再加上数据校验等技术,可以使得可靠性达到10的15~20次方左右,也就是讲传输一千万亿个bit才会出现一个错误,基本可以讲不会出错了.
但是使用二进制也有它的缺陷,因为有些数学中的有些数字到二进制的转换不是等价的,也就是讲把一个数转换到2进制,在转换到10进制,数字就变了,这是由于计算机中存储二进制是有长度的,所以就会有取舍,所以就会有误差,在数学计算中,这些误差是没法忽略的,例如数学中很常见的大规模矩阵计算,用普通的计算机就很痛苦,因为得到的结果常常误差太大而不可用.但是要想改变也不容易,如果用十进制,数据传输的稳定性是没法和二进制相比的.
计算机程序为什么采用二进制?
计算机中为什么采用二进制?而平时采用十六进制?
在计算机中,为什么要采用二进制来表示数据?
在计算机内部为什么要采用二进制而不是十进制
计算机内部,数据采用二进制表示,而程序则用字符表示.这句话错在哪儿
计算机中的二进制代码跟二进制数码是什么,为什么要采用代码跟数码?
为什么常用的计数方式采用十进制 计算机采用的是二进制
为什么计算机采用二进制?莱布尼兹发明二进制时说受中国古代传统文化的影响,试举出中国古代有关的例子?
计算机内部为什么要采用二进制形式存储数据和进行管理
数字电子计算机为什么采用二进制
1.诺依曼在他的EDVAC计算机方案中,提出了两个重要的概念,它们是( ) 选择项:A:采用二进制和存储程序
计算机一直都只能采用二进制计算吗?
计算机内数据采用二进制表示因为二进制数 的什么?
计算机为什么采用补码计算
我们常用的数是十进制,而计算机程序处理中使用的是只有数码0和1的二进制数,这两者可以相互换算将二进制数10110换算成十进制数为什么?
4.计算机之所以采用二进制,是因为它运算最简单.这句话对吗?
计算机二进制怎么算
计算机为什么采用二进计数制