Computación energéticamente eficiente

Computación energéticamente eficiente

La computación energéticamente eficiente se ha convertido en uno de los principales retos en el ámbito TI, en un contexto en el que han aumentado exponencialmente las necesidades de cómputo por la transformación digital de las organizaciones, la irrupción de nuevas tecnologías como el Internet de las Cosas con millones de dispositivos interconectados intercambiándose información y el despliegue de los sistemas de Inteligencia Artificial, que demandan enormes capacidades de procesamiento y almacenamiento, incrementando significativamente el consumo energético a nivel global.

De hecho, en lo que respecta a la IA no solo habría un problema de eficiencia energética a solucionar, sino de mera capacidad de cómputo, cuya carencia estaría repercutiendo negativamente en el entrenamiento de modelos más avanzados, e incluso en la rapidez de lanzamiento de productos ya anunciados, pero todavía no accesibles al gran público.

Esos déficits de capacidades de computación están siendo suplidos por la construcción de nuevos centros de datos, que ya representan el 2% del consumo energético, si bien como ya vimos en un post anterior los data centers actuales implementan medidas a múltiples niveles para ser más sostenibles.

Además, no es casualidad que las TPU y GPU empleadas para que los modelos IA se entrenen y corran se distingan precisamente por su menor consumo energético, así como que se esté apostando por arquitecturas ARM, más eficientes que los tradicionales x86.

También a nivel de software, se optimizan los algoritmos para que requieran menos recursos computacionales, y se aplican soluciones como la compresión de modelos y el aprendizaje federado (Federated Learning), para hacer entrenamientos de sistemas en múltiples servidores y dispositivos de manera colaborativa, sin compartir datos entre ellos.

El rol del Edge Computing y los centros de datos de proximidad

Con todo, más allá de las soluciones de hardware o software aplicables, e incluso de la viabilidad de otras fuentes de energía innovadoras que abordaremos al final del post, lo cierto es que hay un paradigma como el Edge Computing que está emergiendo como clave para la eficiencia energética, al permitir llevar el procesamiento y análisis de datos más cerca del lugar donde se generan, minimizando la huella de carbono que implica la dependencia de grandes data centers remotos.

De este modo, los datos se procesan en dispositivos locales, como sensores, gateways o nodos cercanos, sin necesidad de transmitirlos a la nube, lo que no solo reduce la latencia y mejora la velocidad de respuesta en tiempo real, sino que además al operarse localmente se aminora el volumen de información que debe enviarse a través de redes globales, con la consiguiente disminución del consumo energético para la transmisión.

La computación en el borde se utiliza ya para los dispositivos IoT, los sistemas de control de tráfico y monitoreo de Smart Cities y los vehículos autónomos, como tuvimos ocasión de comprobar durante Nexo 3.0, en la presentación de los proyectos en los que trabajan Jorge Gallego y Luís Bernal, del Grupo de Investigación de Sistemas Inteligentes y Telemática de la UMU dirigido por Antonio Skarmeta.

Con todo, aunque el Edge Computing sea efectivo para tareas específicas, tiene capacidades limitadas de almacenamiento y procesamiento. De ahí que para cubrir necesidades más complejas deba complementarse con infraestructuras más robustas: los centros de datos de proximidad.

Los data centers de proximidad o locales son instalaciones ideales para operar cerca de los usuarios o endpoints, al tener evidentes ventajas medioambientales por su cercanía en contraposición a las grandes infraestructuras remotas, y con capacidades avanzadas de procesamiento y almacenamiento en relación a los dispositivos de Edge Computing.

Además, pueden actuar como un puente entre dispositivos edge y los grandes data centers, optimizando el flujo de datos. Asimismo, aportan soporte a redes y servicios que requieren baja latencia, como es el caso de las redes 5G que precisan nodos de red cercanos para garantizar una transmisión de datos rápida y estable, necesaria para que las Smart Cities y los vehículos autónomos que veíamos puedan ser una realidad tangible. Pero también, para que el modo en el que funcionan pueda ser energéticamente eficiente, entre otras cosas para evitar que lo que ahorran por inteligentes no se pierda por lo que consume la infraestructura que soporta su operativa.

Mejora en la sostenibilidad de los data centers

Actualmente en los data centers, ya sean de proximidad o no, se están implementando diversas estrategias para mejorar su sostenibilidad. Mientras se trabaja en la viabilidad de los centros de datos Net Zero, que serían instalaciones diseñadas para operar con un impacto ambiental neto nulo.

Más allá de las soluciones de alimentación del suministro eléctrico con renovables (módulos fotovoltaicos, energía eólica o hidroeléctrica), se están introduciendo también sistemas de enfriamiento avanzado por líquido o inmersión, más eficientes que las opciones tradicionales.

Además, en centros de datos ubicados en zonas con climas de bajas temperaturas se usan procedimientos de enfriamiento pasivo. E igualmente, se reutiliza el calor que generan las infraestructuras, transfiriéndolo a redes urbanas de calefacción próximas, cerrando así el círculo de aprovechamiento térmico.

Asimismo, como ocurre en el ámbito de la ciberseguridad, la IA emerge al mismo tiempo como solución y problema, ya que por un lado contribuye a aumentar la demanda de energía, pero por otro sus algoritmos redistribuyen dinámicamente las cargas de trabajo para minimizar el desperdicio energético en los centros de datos, como por ejemplo los de Google que están operados por un sistema creado por la propia DeepMind.

Pero, pese a las soluciones que se están aplicando ya, se precisará el despliegue de nuevas tecnologías que hagan posible una computación más energéticamente eficiente. Esas innovaciones de hecho han sido destacadas por referentes como Gartner como uno de los vectores estratégicos a seguir en el ecosistema tecnológico en 2025.

Paralelamente, también se investiga en el desarrollo de nuevas fuentes de energía disruptivas como la fusión nuclear (no confundir con la fisión que es la que genera residuos radioactivos), para que micro-reactores nucleares compactos y de alta densidad energética puedan alimentar centros de datos durante años, sin generar emisiones de carbono. Curiosamente, una de las compañías de referencia en este ámbito es Helion Energy, que tiene a Sam Altman como uno de sus inversores principales.

Así, vemos cómo la búsqueda de una computación energéticamente eficiente se ha convertido en uno de los principales retos, por mucho que la búsqueda de una AGI pueda acaparar todos los focos, por la sencilla razón de que la sostenibilidad medioambiental también determina la viabilidad del desarrollo tecnológico.