La palabra bit no es más que una simple compresión del término «binary digit», y fue utilizada originalmente por el matemático John Tukey mientras trabajaba para Bell Labs en la segunda mitad de la década del ’40. ¿Pero qué sucede con el byte? Todos sabemos que un byte equivale a ocho bits, sin embargo, eso debió salir de alguna parte. El profesor David Brailsford de la Universidad de Nottingham participó en un reciente vídeo para el canal Computerphile, y allí explicó cómo es que el byte se transformó en lo que conocemos hoy.
Uno de los aspectos más críticos a considerar en esta exploración del byte es que los primeros ordenadores estaban basados en palabras (word) con un número específico de bits. Esto reflejaba en cierto modo la necesidad que tenían los programadores de la época, quienes priorizaron la precisión decimal sobre todo lo demás. El deseo general era obtener unos diez dígitos de precisión cuando la tabla logarítmica promedio entregaba cuatro. Brailsford explica en el vídeo que diez dígitos equivalen a poco más de 33 bits, y eso llevó a la construcción de sistemas como EDVAC, que apuntaban a un mínimo de 40 bits (fueron 44 en total).
La informática científica había alcanzado su objetivo aplicando diferentes estrategias, pero la informática comercial había ganado mucha tracción, y eso introduce en la ecuación a nada menos que IBM. La conclusión de IBM fue que aquellos ordenadores originales eran terribles a la hora de manipular caracteres. Por ejemplo, aplicar caracteres de 5 bits (código Baudot) en una palabra mínima de 18 bits era un desperdicio gigantesco, y una pesadilla de rendimiento.
La propuesta de IBM fue que la palabra deje de ser la unidad mínima, y que cada uno de los caracteres sea direccionado individualmente, bajo una referencia fija de 8 bits por unidad. La palabra byte ya había sido utilizada con anterioridad para describir a otros grupos arbitrarios de bits, pero en esencia fue Werner Buchholz durante el desarrollo del IBM 7030 quien estandarizó al byte moderno como paquete de 8 bits. ¿La mejor parte? Al ordenar el hardware de modo tal que interprete cuatro de esos bytes en una palabra de 32 bits, los matemáticos e ingenieros tenían casi todo lo que necesitaban a una velocidad muy superior.
podrias ponerlo en graficos? no entiendo ni puta
Y lo de “por qué un Kilo byte son 1024 bytes, si el prefijo Kilo quiere decir 1000? de donde salen esos 24 adicionales?” da para otro articulo similar
En sistema binario se multiplica por 2 a diferencia del sistema decimal que es base 10.
En ese orden de ideas hablamos de 1 byte, 2 bytes, 4,8,16,32,64… 512 bytes, 1024 bytes o 1 Kb , es claro que no es una unidad del S.I pero fue adoptado por IEC para su uso en la informática.
Lo que pasa es que se le asignó el término kilo a 1024 bits por ser 1024 muy cercano a 1000, y por qué no se maneja 1000 bits como kilo bits pues porque no estamos en un sistema decimal, sino en un binario, recuerda que 2^10 viene a ser 1024, y como estamos en un sistema binario se toma 1024 como kilo.
Se explica el origen de la palabra “bit”, vale, pero el origen en sí de la palabra “byte” no se explica (cuando es el título del artículo)
Es cierto amigo Daniel, el vídeo no ataca al origen «puro y duro» de la palabra byte, sino que explora su desarrollo hasta alcanzar la forma de 8 bits que posee hoy, y merece una expansión:
Efectivamente fue Werner Buchholz quien usó la palabra byte por primera vez en junio de 1956 durante el desarrollo del IBM 7030 para describir a grupos de 8 bits (byte es una leve corrupción de «bite»), mientras que su «debut público» por así decirlo sucedió a través del documento «Processing Data in Bits and Pieces» (junio de 1959), el cual me encantaría compartir pero se encuentra atrapado detrás de un paywall.
Sin embargo, el byte describiendo a un grupo de bits con un tamaño «menor al de una palabra» tiene como creador a un tal Louis G. Dooley, entre 1956 y 1957 (no hay datos sobre el mes exacto). En ese entonces Dooley trabajaba en el proyecto de defensa SAGE, bajo el ala del Laboratorio Lincoln del MIT. Poco tiempo después, Dooley se trasladó a Asia donde pasó varios años, y cuando regresó a los Estados Unidos, básicamente se topó con el byte de 8 bits.