La palabra bit no es más que una simple compresión del término «binary digit», y fue utilizada originalmente por el matemático John Tukey mientras trabajaba para Bell Labs en la segunda mitad de la década del ’40. ¿Pero qué sucede con el byte? Todos sabemos que un byte equivale a ocho bits, sin embargo, eso debió salir de alguna parte. El profesor David Brailsford de la Universidad de Nottingham participó en un reciente vídeo para el canal Computerphile, y allí explicó cómo es que el byte se transformó en lo que conocemos hoy.
Uno de los aspectos más críticos a considerar en esta exploración del byte es que los primeros ordenadores estaban basados en palabras (word) con un número específico de bits. Esto reflejaba en cierto modo la necesidad que tenían los programadores de la época, quienes priorizaron la precisión decimal sobre todo lo demás. El deseo general era obtener unos diez dígitos de precisión cuando la tabla logarítmica promedio entregaba cuatro. Brailsford explica en el vídeo que diez dígitos equivalen a poco más de 33 bits, y eso llevó a la construcción de sistemas como EDVAC, que apuntaban a un mínimo de 40 bits (fueron 44 en total).
La informática científica había alcanzado su objetivo aplicando diferentes estrategias, pero la informática comercial había ganado mucha tracción, y eso introduce en la ecuación a nada menos que IBM. La conclusión de IBM fue que aquellos ordenadores originales eran terribles a la hora de manipular caracteres. Por ejemplo, aplicar caracteres de 5 bits (código Baudot) en una palabra mínima de 18 bits era un desperdicio gigantesco, y una pesadilla de rendimiento.
La propuesta de IBM fue que la palabra deje de ser la unidad mínima, y que cada uno de los caracteres sea direccionado individualmente, bajo una referencia fija de 8 bits por unidad. La palabra byte ya había sido utilizada con anterioridad para describir a otros grupos arbitrarios de bits, pero en esencia fue Werner Buchholz durante el desarrollo del IBM 7030 quien estandarizó al byte moderno como paquete de 8 bits. ¿La mejor parte? Al ordenar el hardware de modo tal que interprete cuatro de esos bytes en una palabra de 32 bits, los matemáticos e ingenieros tenían casi todo lo que necesitaban a una velocidad muy superior.