La red de redes evoluciona a cada segundo. Servidores enteros son instalados y retirados, arquitectos e ingenieros implementan diseños avanzados con el objetivo de reducir costos, y nuevas plataformas (tanto de hardware como de software) adoptan como prioridad número uno a la eficiencia. Aún así, toda optimización tiene un límite, y la infraestructura de Internet necesita energía como cualquier otra cosa. Este reciente vídeo nos ayuda a tener una idea más precisa sobre la cantidad.
Las compañías hablan con mucha frecuencia de «la nube», un nombre bastante romántico para lo que en realidad es una legión de centros de datos esparcidos alrededor del globo. A la hora de instalar un centro de datos nuevo, los titanes de Internet deben estudiar con mucho cuidado cada lugar potencial. Hay ocasiones en las que es conveniente reciclar una estructura existente, como hizo Google con su centro de datos refrigerado por agua de mar en Hamina, y en otras, lo más razonable es comenzar desde cero. Independientemente de cada caso, la pregunta ha estado flotando entre nosotros por un largo tiempo: ¿Cuánta energía utiliza Internet? Estas mismas líneas, que fueron escritas en un borrador sobre Google Docs, son almacenadas en algún disco duro, unidad de estado sólido o respaldo en cinta remoto que trabaja frenéticamente para responder a mis solicitudes, y a las de miles de usuarios. Pero si la infraestructura de Internet cambia a cada momento, ¿cómo podemos obtener un número?
Un reciente vídeo publicado por la gente de SciShow inicia esta búsqueda a través de otro dato fundamental como es el volumen de datos. En el año 1992, Internet transfería de forma global unos 100 gigabytes diarios, una quinta parte de la capacidad que poseo en mi disco duro principal. Pequeño «fast forward» al año 2013, y el volumen global promedio dio un dramático salto hasta alcanzar unos 28 terabytes por segundo. El estudio más preciso sobre el consumo de energía asociado a Internet fue publicado en 2011, y habla del 2 por ciento de la energía mundial. Lo más curioso de todo esto es que muchas personas imaginan a los servidores trabajando al 100 por ciento, cuando en realidad no es así. Una buena cantidad de ellos promedia entre el 10 y el 15 por ciento, e incluso existen servidores «en espera», listos para responder a cualquier pico de demanda. Solamente en los Estados Unidos, durante el año 2013, los centros de datos instalados allí devoraron 91 mil millones de kilovatios-hora, y se calcula que para el año 2020, el número se elevará a 140 mil millones de kilovatios-hora anuales, algo así como 51 plantas de energía basadas en carbón.
De más está decirlo, los expertos poseen un amplio repertorio de trucos para bajar el consumo y reducir el costo general en cada centro de datos. El primero se basa en la organización de pasillos cálidos y fríos, que permite a los ventiladores en cada servidor consumir un 25 por ciento menos de energía para mantener al hardware en equilibrio térmico. Después encontramos algo aún más sencillo: Elevar la temperatura del aire acondicionado. Un servidor puede operar sin mayores sobresaltos entre los 18 y los 27 grados Celsius, pero hay muchos centros de datos que utilizan una temperatura mucho más baja, probablemente para compensar deficiencias en otros aspectos. Dependiendo de la región, apenas medio grado extra puede equivaler a un 5 por ciento de reducción en los costos de energía. Finalmente, llegamos a algo que conocemos un poco mejor: Virtualización. Como mencioné más arriba, muchos servidores funcionan a una fracción de su capacidad. La virtualización combina varios servidores en uno solo, lo que lleva a una disminución en el consumo de energía, y en el tiempo de mantenimiento. En el mejor de los casos, la virtualización representa un ahorro del 40 por ciento. ¿Qué tan alto será el consumo en el futuro? Entre la virtualización y la introducción (hoy demorada) de servidores ARM, existe la posibilidad de un ahorro importante, pero la cantidad de usuarios sigue creciendo…