A medida que crece el volumen de datos y nuestra demanda de ellos, la necesidad de transferencias más rápidas y seguras se convierte en un factor crítico para la evolución tanto de Internet como de todas las tecnologías que dependen de la red de redes. En 2009, se alcanzó una velocidad máxima de transferencia de 119 gigabits por segundo, estableciendo así un nuevo récord, pero a mediados de noviembre, dicha marca fue pulverizada por un equipo especial de investigadores pertenecientes a varias universidades e institutos. ¿Cuál es el nuevo límite a superar? 186 Gigabits por segundo, algo así como un terabyte cada 43 segundos.
Cuando logré acceso por primera vez a una conexión ADSL de cinco megabits por segundo, en su momento me pareció un salto de calidad y velocidad impresionante, pero ahora, admito que no estaría mal contar con un poco más de margen. La razón es sencilla: Estamos transfiriendo cada vez más datos, la drástica mejora en las tecnologías multimedia ha incrementado la calidad tanto del audio como del vídeo, hay cada vez más dispositivos que dependen de la nube para funcionar, y por supuesto, esta tendencia sólo parece tener espacio para acelerarse. Realizar streaming en 1080p debería ser algo común para cualquier usuario, sin embargo, la velocidad de conexión sigue siendo uno de los factores limitantes más importantes. La demanda es cada vez más grande, y son muchos los usuarios que están dispuestos a pagar por más velocidad. El balón está del lado de los proveedores, y a nivel global, se podría decir que están decepcionando.
Sin embargo, tenemos buenas noticias por el lado “científico” de las conexiones de red, ya que un variado equipo de investigadores provenientes de diferentes universidades e institutos (Caltech, CERN, U. de Victoria, U. de Michigan, Florida I.U., CANARIE, UCSD, Universidades Estatales de Rio de Janeiro y São Paulo, y otros) han logrado establecer una conexión de alta velocidad entre el Centro de Computación de la Universidad de Victoria y el Centro de Convenciones del Estado de Washington en Seattle, separados por poco menos de 120 kilómetros, mientras que durante la edición 2011 de la conferencia SuperComputing repitieron la operación entre el puesto de Caltech en la conferencia, y diferentes lugares de los Estados Unidos, Brasil y Corea del Sur. La conexión contó con un pico máximo de 98 gigabits por segundo en una dirección, y 88 gigabits por segundo en la dirección opuesta, alcanzando así un nuevo récord de transferencia de red “full-duplex” de 186 gigabits por segundo.
A la hora de calcular equivalencias, los números son escalofriantes. Estamos hablando de dos millones de gigabytes, o cien mil discos Blu-ray completos en un día. Llenarías un disco duro de un terabyte en menos de un minuto, aunque en ese caso no habría disco duro que valga para hacer frente a semejante velocidad. Además de los múltiples beneficios que podríamos obtener a nivel hogareño, un incremento drástico en las velocidades de conexión también beneficiaría en gran medida al mundo de la ciencia. Sin ir más lejos, el Gran Colisionador de Hadrones ya demandó el proceso y análisis de más de cien petabytes de datos, un volumen de información que las conexiones actuales no pueden enfrentar. Se espera que el LHC aumente dicho volumen de datos en mil veces, y que debería estar al alcance de científicos de todo el mundo en cuestión de horas. 186 gigabits por segundo son el nuevo récord, pero a este ritmo, necesitaremos mucho más.