La computación híbrida es una estrategia que busca aprovechar distintos tipos de hardware para mejorar el rendimiento y la eficiencia, administrando los recursos según la tarea a realizar, tanto en el procesamiento de datos como en la resolución de problemas complejos.
Este modelo de computación se basa en la combinación de CPU (unidad central de procesamiento), GPU (procesadores gráficos) y otros tipos de hardwares especializados, como FPGAs (Field-Programmable Gate Arrays) y ASICs (Application Specific Integrated Circuits), bajo el planteamiento de asignar cada tarea al componente más adecuado para ejecutarla. Con ello, no solo se mejora el rendimiento, sino que además se optimiza el uso de algoritmos paralelos, lo que maximiza la capacidad de procesamiento.
CPU y GPU
De esta manera, se hace un ‘equipo’ en el que cada hardware desempeña las funciones más acordes a sus características. Las CPU, por su versatilidad, gestionan tareas generales y la coordinación del sistema, mientras que las GPU, diseñadas para el cálculo en paralelo, resultan ideales en aplicaciones como el entrenamiento de la inteligencia artificial o el modelado 3D utilizado, por ejemplo, en la construcción para recrear los futuros edificios. Para tareas específicas que requieren una optimización aún mayor, estarían los ASICs y FPGAs, que permiten escalar la eficiencia en procesos concretos, como el procesamiento de datos en la fase de inferencia de modelos de IA o la minería de criptomonedas.
La combinación de estos elementos posibilita un equilibrio entre potencia de cálculo, flexibilidad y especialización, asegurando que cada componente contribuya según sus capacidades para lograr un rendimiento óptimo del sistema de computación en la función que tenga asignada.
Así, se evita la sobrecarga de CPUs en tareas donde una GPU o FPGA es más eficiente. Y adicionalmente, se optimiza el uso de recursos, al asignar las cargas de trabajo a la arquitectura más adecuada según la necesidad. Algo que mejora la velocidad de ejecución y, por tanto, la eficiencia en el uso de la infraestructura, con el consiguiente ahorro energético y económico.
Además, el planteamiento de la computación híbrida da pie a la creación de sistemas adaptables según la demanda de procesamiento, lo que la hace clave para data centers, inteligencia artificial y también grandes simulaciones en investigaciones científicas, en las que se recrean infinidad de parámetros que implican cálculos complejos, modelado de fenómenos físicos y el análisis de grandes volúmenes de datos en tiempo real. Todo ello se requiere, sin ir más lejos, a la hora de crear digital twins como el proyectado para el Mar Menor, con el objetivo de predecir su evolución medioambiental.
Computación híbrida e inteligencia artificial
En el campo de la inteligencia artificial, esta arquitectura híbrida ha sido clave para el entrenamiento y ejecución de modelos, ya que las GPU gráficas y otros aceleradores permiten manejar grandes volúmenes de datos y realizar cálculos complejos con mayor rapidez y eficiencia.
De hecho, la optimización del uso de procesadores gráficos lograda por DeepSeek, aplicando precisamente técnicas de computación híbrida, es uno de los aspectos más disruptivos que conlleva el modelo IA que han desarrollado, erigido en su entrenamiento sobre pocos chips de GPU H800 de Nvidia de calidad limitada, y que pese a ello se ejecuta de manera altamente eficiente gracias a una combinación de técnicas avanzadas de compresión y distribución de carga computacional.
Cambio de enfoque
De este modo, representa un cambio de enfoque en la forma en que se conciben los grandes modelos de IA, ya que al reducir la dependencia de infraestructuras costosas y optimizar el rendimiento mediante una arquitectura híbrida, DeepSeek ha demostrado que no es imprescindible esa inversión mastodóntica en hardware que hasta ahora se había asociado a la inteligencia artificial.
La irrupción de su modelo provocó auténtico terremoto bursátil, dado que ponía en cuestión el paradigma que estaban abrazando las grandes tecnológicas, y supuso un golpe en el ‘core’ de negocio del fabricante de microchips Nvdia, que sufrió la mayor caída en valoración en bolsa experimentada por una compañía en toda la historia: 589.000 millones de dólares. Una sacudida que también arrastró desde a fabricantes de equipos de litografías para chips como la holandesa ASML hasta a gigantes de la electrónica como Siemens que proveen a los data centers.
Con todo, DeepSeek también utiliza en sus modelos otras técnicas ya conocidas como el Mixture of Experts (MoE) osistema de expertos. También con un planteamiento híbrido trasladado ahora al software, para dividir al sistema IA en múltiples especialistas, activándose para cada tarea solo los requeridos, lo que optimiza el uso de recursos de computación y mejora la eficiencia del procesamiento.
Si bien, se cuestiona que sus productos resultantes sean fruto en exclusiva de técnicas híbridas de computación y software, debido a que existen fundadas sospechas de que han realizado la destilación de sus modelos vampirizando los de Open AI para entrenarlos en sus fasesde aprendizaje supervisado y ajuste fino.
Importantes innovaciones en computación híbrida
Aunque el foco esté puesto en todo lo que rodea la Inteligencia Artificial, en los últimos meses se han producido importantes avances en múltiples ámbitos, incluyendo la propia computación híbrida, en su caso con el desarrollo por parte de X-Silicon de un chip de nueva generación con arquitectura RISC-V. Este, incorpora un núcleo mixto que combina las funciones de una CPU y una GPU en una sola unidad (e incluso NPU), para manejar una amplia gama de procesos (entre ellos los de la propia IA pero también los de múltiples tareas en equipos de mesa, workstations o servidores); y hacerlo además optimizando el uso de la memoria principal y el consumo de energía, al eliminar la necesidad de transferir datos entre la unidad de procesamiento y la tarjeta gráfica, que anteriormente funcionaban por separado con distintas unidades de memoria, pero cuyo código ahora se ejecuta en el mismo núcleo.
Además, al estar basado en la arquitectura RISC-V de código abierto ofrece una alternativa flexible y libre de derechos a las arquitecturas tradicionales, lo que supone un desafío adicional para una Nvdia a la que se le acumulan las malas noticias…
Dejando al margen el futuro del gigante de los microprocesadores, lo que sí resulta indudable es que el chip de X-Silicon impulsa la computación híbrida como solución, tanto para aumentar el rendimiento y la eficiencia como para optimizar recursos en aras de la sostenibilidad de los desarrollos tecnológicos actuales y venideros.