Esta es una pregunta interesante, porque nos permite discutir y aclarar una idea errónea muy común y de paso aprender un poco más sobre la historia de la informática.
Comencemos profundizando en la historia de las redes informáticas. La transferencia de información a través de redes ha sido siempre medida en bits. Un bit es el unidad básica y más pequeña de medida en informática y comunicación digital. Los bits se suelen representar en el sistema binario como 0 y 1. Un bit, de hecho, es una contracción de la expresión “Binary Digit”(Dígito Binario).
La velocidad de una red se establece usando una notación de bit por segundo, expresada como bits/segundo y casi siempre acortada a b/s. Originalmente, las redes eran tan lentas que sus velocidades eran medidas solo en bits. Pero entonces las velocidades de conexión crecieron y empezamos a usar el prefijo kilo para expresar miles de bits. Durante los 90, casi todo el mundo se conectaba a su ISP usando módems de 56k (o 56 Kb/s). Con la llegada y la popularización de la tecnología de banda ancha, como la DSL y los módems por cable, la velocidad volvió a incrementarse y empezamos a hablar de ella en términos no ya de bits o kilobits, sino de megabits, con lo que los usuarios comenzaron a ver su velocidad de conexión expresada en MB/s.
Llegados este punto es donde las cosas pueden resultar un poco confusas para los no expertos en la materia. El almacenamiento informático no se mide en bits, sino en bytes. Un bit, como ya hemos conectado, es la unidad digital de medida más pequeña en el mundo digital, y que normalmente es 1 o 0. Un byte, sin embargo, es una unidad de información digital que (en casi todos los sistemas informáticos, y más aún en Windows, Linux o OS X como el que puedes estar usando) está compuesto por ocho bits. Otro término, utilizado por los informáticos para evitar esta confusión sobre las diferentes estructuras de tamaños de bytes existentes en el mundo, es el de octeto. En otras palabras, el sistema de bytes que usa tu sistema operativo no es más que un montón de bits agrupados de ocho en ocho.
Esta diferencia es la que hace que, aparentemente, todo se desmorone. Es decir, tenemos una conexión de banda ancha con capacidad de 40 megabits por segundo (bajo condiciones ideales, 40.000.000 bits circulando por la línea). Sin embargo, tal y como acabamos de aprender, un byte son 8 bits. Tu sistema operativo y todas las aplicaciones que hay en él (navegadores web, asistentes de descarga, clientes torrent…) miden la transmisión y el volumen de datos en bytes, no en bits. Si dividimos la velocidad de nuestra conexión (medida en bits) entre 8, obtendremos una cifra parecida a la velocidad de descarga que puedes ver en tus tests de velocidad: 40.000.000 bits se convierten en 5.000.000 bytes. Si esos valores lo dividimos entre un millón, obtendremos un número expresado en megas, mucho más cómodo de usar: 40 megabits y 5 megabytes, respectivamente. Junto con la etiqueta «por segundo» sabremos que estamos hablando de las velocidades de transmisión, por lo que tendremos por un lado la velocidad que está publicitando tu ISP (40 Mb/s) y la velocidad que nosotros estamos viendo cuando estamos disfrutando de la máxima conexión (5 MB/s).
Aunque esto puede resultar realmente confuso para los usuarios, debes saber que en realidad estás obteniendo exactamente aquello por lo que estás pagando (y puede que incluso tengas que sentirte agradecido por tener velocidades al límite de lo que tu paquete de Internet soporta).
Leer Más:
Cómo saber la velocidad de mi conexión a Internet