¿Qué es un código binario?


Cualquier número puede servir de base para representar otros números. Por razones biológicas, el ser humano ha utilizado el número diez (los diez dedos de las dos manos) como base de representación de los números. Sin embargo, los ordenadores utilizan un código más sencillo denominado «binario» para hacer sus operaciones que se pueden asociar al encendido y apagado de un interruptor. 

Con ese código, la representación de los primeros números sería:
0, 1, 10, 11, 100, 101, 110, 111, 1000, 1001, 1010, 1011, 1100, 1101, 1110, 1111, 10000… 

Para traducir un número binario, por ejemplo el 11.101, al sistema decimal al que estamos habituados, debemos tener en cuenta que la primera cifra de la izquierda representa 16, la segunda 8, la tercera 4, la cuarta 2 y la primera 1, entonces el número binario 11.101 corresponde al 29 en decimal, porque:

(1 × 16) + (1 × 8) + (1 × 4) + (0 × 2) + (1 × 1) = 29 

¿Qué es un BIT? 
Es la unidad elemental de información. Dado que en informática se trabaja con códigos binarios, cada uno de los dos dígitos que constituye ese sistema de información representa un bit (Binary Digit), simbólicamente un 0 o un 1 y físicamente, por ejemplo, una bombilla encendida o apagada. 

Un kbit representa 1.000 bits (103), pero 100 billones (1014) de bits representan la cantidad de información que hay en la Biblioteca del Congreso de EE. UU. en Washington DC, ¡una de las mayores bibliotecas del mundo! 

Dicho de una manera más científica, ¡un bit de información es la cantidad de información que necesitamos para tomar una decisión entre dos alternativas con un mismo grado de probabilidad! Podemos decir que un bit representa «la cantidad de incertidumbre» que hay al lanzar una moneda al aire. 

¿Y un octeto? 
Los ordenadores procesan, habitualmente, la información en bloques de 8 bits, un octeto, que se denominan bytes. Los múltiplos de esos bytes incorporan los términos kilo (1.024 bytes o 210), mega, giga, tera, peta, exa, zetta, yotta, basados en raíces griegas, para definir cantidades importantes de información. 

Esta denominación de octetos, al estar constituidos por 8 bits (unidad básica de información), todavía se mantiene en francés. En español también se denomina «carácter». 

Dado que los ordenadores solo utilizan dos caracteres diferentes, que representamos como «0» y «1», es necesario efectuar una codificación de cada carácter en ceros y unos. Existen diferentes sistemas de codificación, la mayoría de los cuales utilizan 8 bits para codificar los caracteres naturales, aunque otros emplean 16 e incluso 32 bits. Los más utilizados son el sistema EBCDIC y el sistema ASCII.

No hay comentarios