云之汀 上海龙凤网419:计算机编码

来源:百度文库 编辑:杭州交通信息网 时间:2024/05/10 12:47:40
我听说计算机只能认识0与1这两个字符,这似乎有些令人难以置信!我还听说过什么10进制以及16进制的编码。基本概念我都懂了,和数学中的没啥两样。只不过,所谓的编码,在计算机都没有见到啊!还有,上述所说的,计算机只认得0与1这两个字符,这个我也不懂,比如说,我们打字,输入的哪是0与1啊,ABCD等字符都有啊!目前,我只知道HTML编码,及把一个HTML文件以纯文本的方式打开就它的源代码。请大家帮助我一下!

底层编码是二进制的,二进制的编码太长,不利于表示,所以简写为十六进制,例如 “我”的编码是 “CED2”,“爱”的编码是“B0AE”,你不需要懂。
你的输入输出都是经过程序转换的,所以你不需要直接使用二进制进行输入与输出,在50年代,确实是用二进制直接输入的。
现在编码都用的是高级语言,由编译器和连接器生成二进制文件,以不需要人的参与了

让人类的实际问题用计算机的信息化处理方式代劳解决,首先碰到的问题就是人和计算机的沟通问题,也就是要有一种映射机制来让人和计算机进行语言的沟通,计算机语言终归体现在其物理的电平特性上,即只有高电平、低电平(也还有无电平)之分,数学建模归为二进制的0和1,也就是语言基元语素是0和1,但是人类的语言的基础语素就太多了,这需要在二者之间做一种映射,但是计算机语言的基元语素只有0和1,二者语言空间维度相差甚远,这种映射的建立似乎太过模糊,不会具有一对一映射的精准度,那怎么办呢?需要让计算机把其语言的基元语素进行维度放大,自然想到了组合,也就是让固定位数的(也可能不固定,看编码方式)0和1的串来映射人类语言语素空间的基元,为了让人们便于理解和使用二进制,计算机有多种进制表示方式,这里不再详述,如utf-8中\u5382表示厂。为了让这些映射的方式具有标准化,便于让各类计算机语言交流的一致性,也就有了计算机的编码体制,如Ascii、gb2312、utf-8、big5等,这些都是一种标准,是在计算机基元语素0、1基础上的组合到达一种映射的无歧义性(一对一),也就是对计算机电平的一种封装Wrapper,为了便于人机接口的友好型,人类语言的计算机编码,如汉语,又分为外码(便于用人类可记忆的方式将语言文字输入计算机)、交换码(人类可识别到机器可识别的一种转换)、内码(计算机可理解)、字形码(计算机显示给人们,汉字是16X16的点矩阵显示的),以上很多解释是出于个人的理解。

基于电子元件的极限性与其物理上的表现形式,计算机的确只能识别0和1两个代码。当我们从键盘上或者其他输入设备输入一些数据的时候,都会被翻译成相应的0、1代码存储到计算机当中。在0和1以不同的方式排列的时候会表示不同的意思,这是规定的,规定了的东西,根本就不能说原理的。

程序设计语言分为三种:
1、机器语言:
就是所谓的0和1 计算机采用的是二进制,其逻辑电路也是以二进制为基础的 其实每个字符都由7位二进制数表示,也就是基本的ASCII码。这种语言可以不经翻译直接被计算机执行。
2 汇编语言
3 高级语言

高级语言程序(源程序)经编译程序编译后转变为计算语言程序(目标程序)经连接程序连接后转变为可执行程序 这样才能运行

电脑思维很简单,只能处理0和1,分别代表高电平和低点平,只不过是人把自己的思想注入了电脑。比如:你敲键盘上的每个按键,都对应着一串八个0和1的排列,然后电脑才知道你瞧了那个键,应该显示那个字符,(你可以看看计算机的入门书籍,这很没有你想象得那么复杂)这个由ascii规定,你可以上网查。

计算机以为是用电来工作的那么通电的时候就是1枚点时候就是0,而和机器语言最接近时汇编语言,其他语言其实都是通过编译之后,把它翻译成机器能理解的语言的。