计算机程序为什么采用二进制?

来源:学生作业帮助网 编辑:作业帮 时间:2024/11/25 14:46:25
计算机程序为什么采用二进制?
xTMsPCt'-ͮNC40SQ#Fi"j̻*(ڬ%s= PÏKF&(Jܲ_cQԧ7G^|tvROؖAo2q>H_y|sZ}#a# /I" 5َXxK;O $:tQcJ*(hs& $ƜlE]hPY筚@'̴  WyILa;c9r'htxK9Ь1Ӂ"$ c% "jh,,݄+إDLuSL %<bͣ$'qKSyʆ= F؃ຸ );`Xx7NYB^өI=v *:THCTLjLUsI)xWch$ T|URC?BD5\񑥰V9h 1i_LI wd.umNQQxp~},RN喜id"Z /E +i0E z;/_#2YJ{AXDvH,p!\i㚩(6! |SQsIWm}^¸m Bm&ZfQ~5hƗxqD̉⟅WyC=ڽ8[ A?o]cēA56k ]:oaYxO @

计算机程序为什么采用二进制?
计算机程序为什么采用二进制?

计算机程序为什么采用二进制?
简单是一个原因,更重要的是稳定,因为电脑内部信号传输的时候,归到根本上还是电信号的传播,采用二进制,就可以采用脉冲信号(高位代表1,低位代表0),而信号传输过程中肯定会受到干扰和衰弱,因为采用的是脉冲信号,所以即使有较大的信号干扰,依旧可以复原出来,因为二进制的非0即1特性.稳定的特点使得硬件的信号传输可靠性非常高,现在一般达到10的9次方数量级,再加上数据校验等技术,可以使得可靠性达到10的15~20次方左右,也就是讲传输一千万亿个bit才会出现一个错误,基本可以讲不会出错了.
但是使用二进制也有它的缺陷,因为有些数学中的有些数字到二进制的转换不是等价的,也就是讲把一个数转换到2进制,在转换到10进制,数字就变了,这是由于计算机中存储二进制是有长度的,所以就会有取舍,所以就会有误差,在数学计算中,这些误差是没法忽略的,例如数学中很常见的大规模矩阵计算,用普通的计算机就很痛苦,因为得到的结果常常误差太大而不可用.但是要想改变也不容易,如果用十进制,数据传输的稳定性是没法和二进制相比的.