Definición de Bit

BitEl hombre necesita medir distancias, calcular el peso y establecer sistemas de medición convencionales para describir la realidad en función de algún parámetro.

Un bit es la medida utilizada en el ámbito de la computación. Se basa en el sistema binario de numeración y sirve para determinar la cantidad de información almacenada. Al tratarse de un sistema binario existen dos valores, el 1 y el 0, que actúan como unidades. El 1 equivale a verdadero y el 0 a falso. Este modelo de medición del almacenamiento de la información proviene del campo de la lógica, concretamente de la lógica proposicional. Así, los circuitos de las computadoras tienen una dimensión estrictamente lógica, en la que solo existe lo verdadero o lo falso. Todas las proposiciones lógicas pueden combinarse mediante una serie de conectores que las relacionan (negación, conjunción, disyunción, condicional y bicondicional). Pongamos un ejemplo concreto para ilustrar esta cuestión. La proposición A y la proposición B se unen con una disyunción (que equivale a la conjunción o e indica una cosa o la otra). Así, A v B será falso solo en el caso de que tanto A como B lo sean.

Las leyes de la lógica se han aplicado a la informática y todas las operaciones posibles se realizan con bits, con el 0 y con el 1.

La palabra bit procede del acrónimo dígito binario (en inglés Binary digit). Este sistema de medición se aplica a cualquier dispositivo digital y funciona con el 1 como sinónimo de encendido y el 0 que equivale a apagado. Existen cuatro posibilidades combinatorias de dos bits: las dos apagadas, la primera apagada y la segunda encendida, la primera encendida y la segunda no y, por último, las dos encendidas. De esta manera, con dos bits tenemos cuatro posibles combinaciones y, en consecuencia, cuanto más bits tengamos mayor será el volumen de información que se pueda almacenar.

Cuando en lugar de dos bits se utilizan cuatro se denomina nibble y sirve para describir la cantidad de memoria almacenada en un dispositivo.

En los últimos años el bit clásico está siendo desplazado por una nueva unidad, el qubit, el cual procede de la física cuántica y aporta una capacidad de almacenamiento de la información muy superior a la del bit. La aparición de los qubits significa que la próxima generación de computadoras será distinta, los PCs serán cuánticos. Los qubits se encuentran en una fase de experimentación, por lo que se trata de un proyecto, aunque con unas posibilidades que resultan difíciles de imaginar.

Definición Siguiente >>