Lo digital

Solemos entender por digital la información codificada en ceros y unos y sus transformaciones, comunicación y almacenamiento.

En un ordenador u otro dispositivo digital el cero podría representarse físicamente mediante una tensión (por ejemplo 0 voltios) y el uno mediante otra distinta (5 voltios).

Brevemente, ¿cómo podemos codificar información de esta manera? Adelanto que existen varios sistemas, si bien basta con comprender uno para comprender todos.

Cómo codificar o escribir números (enteros) con ceros y unos

Partamos de que disponemos de una tira de dígitos binarios o huecos o casillas donde escribir nuestros ceros y unos. Casi siempre se dispone de tiras de longitud múltiplo de 8 (8, 16, 24 etc.) En una tira de 8 dígitos caben pocos números, pero por sencillez pondré un ejemplo con ella.

xxxx xxxx

En la práctica los números enteros positivos se representan casi siempre así:

Decimal Digital
0 0000 0000
1 0000 0001
2 0000 0010
3 0000 0011
4 0000 0100

etc. hasta terminar:

254 1111 1110
255 1111 1111

Este sistema tiene sus ventajas, que aquí no voy a mostrar. Sólo comentar que se comporta igual que nuestro sistema decimal. Cuando en la cifra significativa llegamos al dígito más alto, el 9 por ejemplo, y sumamos uno, entonces anotamos 1 en la siguiente cifra a la izquierda y ponemos el resto a cero. Por ejemplo, 99 + 1 = 100. Y en la tabla de arriba vemos que es sistema binario se comporta igual. Lo cuál nos permite hacer la suma y en realidad todas las operaciones aritméticas igual que cuando utilizamos numeración decimal.

El sistema binario (en números) no es más que el sistema decimal sólo que en lugar de utilizar diez símbolos (del 0 al 9) utilizamos dos (0 y 1).

Ahora sólo nos queda la segunda parte. ¿Cómo representar todo lo demás?

¿Cómo representamos las letras? Si sabemos que una tira de ceros y unos se va a destinar a letras (o signos de puntuación, espacios etc), iremos tomando subtiras (de 8, 16, 32 bits, lo más frecuente) y escribiremos una letra en cada subtira. ¿Cómo? Da igual. Basta con asignar una secuencia de ceros y unos a cada letra (o signo de puntuación etc.).

Podríamos adoptar una correspondencia secuencial, es decir que la letra a (minúscula) se corresponda con una cifra binaria, la letra b con su siguiente etc. Por ejemplo podríamos empezar en la secuancia 0011 0000, nuestra a:

Alfabético Digital
a 0011 0000
b 0011 0001
c 0011 0010

y así hasta la z.

NOTA Normalmente se sabe de antemano si una tira de ceros y unos contiene un número o un carácter (letra, puntuación, espacio etc.) Más aún, si contiene un número, se sabe si es natural, entero, o incluso fraccionario.

Para anotar letras (y otros caracteres) en binario, basta con acordar una correspondencia entre dichos caracteres y secuencias de ceros y unos.

Codificación

Una codificación es una correspondencia entre los signos de un sistema de escritura y sus correspondientes representaciones digitales, tal como hemos ejemplificado.

Existe una codificación básica, la ASCII, con correspondencias para todas las letras del alfabeto latino. Como la informática se desarrolla en países anglófonos y en inglés no se necesitan acentos y otros diacríticos, la codificaciòn ASCII no los contiene.

En codificación ASCII no hay manera de escribir rôle ni camión, ni siquiera niñera. Por no hablar de otros alfabetos, como el cirílico (ruso) o el alifato (árabe). En consecuencia para escribir en otras lenguas se necesita para cada una al menos una codificación alternativa. Y además indicar cuál se ha utilizado.

La solución más sencilla es utilizar para cada carácter (signo) una secuencia diferente. Si queremos que valga para todos los idiomas del mundo, necesitaremos que cada subtira sea más larga: no de ocho bits sino de cuatro veces ocho bits (32 bits). Inconveniente: los archivos que escribamos ocuparán más espacio en el disco duro, y llevará más tiempo transmitirlos.

En la práctica se suele hacer lo siguiente. Dado que en codificación ASCII quedan algunos códigos (secuencias de ceros y unos) sin utilizar, cada vez que queramos representar una letra no inglesa (la eñe por ejemplo), escribiremos uno de estos códigos sin utilizar y a continuación otro (de ocho bits). Por tanto los caracteres no ingleses ocuparán más (dos octetos), lo cuál hace que el procesamiento sea un poco más complicado, pero a cambio un archivo en castellano de mil caracteres no ocupará mucho más que uno en inglés (en ASCII) de mil caracteres.

Digital frente a Analógico

Solemos entender el mundo mediante opuestos. En tecnología de la información, digital se opone a analógico. Analógico significa que puede adoptar cualquiera de infinitos valores dentro de un intervalo continuo. Por ejemplo podemos medir la tensión entre los bornes de una batería y la medida será una cantidad analógica de voltios. Un polímetro omnisciente nos daría una cantidad infinita de decimales.

Pero como tales polímetros no existen y además no necesitamos más de una o dos cifras decimales, nos basta con expresar la tensión de dicha batería dentro de un conjunto limitado de valores. En la práctica lo digital resulta más práctico.

En contextos matemáticos en lugar de digital se prefiere discreto, y en lugar de analógico se prefiere continuo. (Se viene a expresar la misma oposición que digital-analógico, con connotaciones diferentes.) Discreto en el sentido de que va a saltos. Por ejemplo, cuando expresamos la carga de una batería podríamos saltar del valor de 12,34V a 12,35V porque o no disponemos de mayor precisión (para medir los milivoltios) o no la necesitamos.

Hiperdigital

Hasta ahora hemos presupuesto que digital significa representar (y manipular) información en ceros y unos, es dicir emplear sólo dos signos. Hablando con precisión, el sistema decimal que manejamos en la vida diaria también es un sistema digital. De hecho las operaciones aritméticas son análogas, en binario y en denario.

Existen 10 de personas: las que conocen el código binario y las que no.

Más aún, dado que un alfabeto consta de un número no infinito de signos, con la posible excepción del chino, todo alfabeto es digital.

Quiere esto decir que La Ilíada (griego antiguo), El Quijote y la Crítica de la razón pura de Kant son obras digitales, a pesar de que sus autores no conocían ni empleaban ordenadores electrónicos digitales.

Cuando en la era contemporánea decimos digital en realidad queremos decir hiperdigital. Nos referimos a unas características cuantitativas. Lo hiperdigital es:

Más aún, en las representaciones hiperdigitales resulta más importante que en las premodernas el formato en el que están: página web, PDF, JSON, SQL, SVG etc. En cambio en la era anterior un libro físico, una partitura, un dibujo o pintura, una grabación de sonido o una fotografía etc. sólo podían existir en un formato.