Criptografía post-cuántica

Criptografía post-cuántica

La computación cuántica es la principal candidata a ser la próxima tecnología en acaparar el foco que ahora tiene la inteligencia artificial, si bien difícilmente se traducirá de manera inminente en productos utilizables por el usuario de a pie, algo que explica en parte tanto el propio furor por la IA como la carrera desatada por las principales tecnológicas para tener la primacía en el mercado.

Actualmente los ordenadores cuánticos habrían de recibir la denominación de prototipos según los especialistas, no tanto por la imposibilidad de fabricarlos en serie, sino más bien porque no son capaces de corregir sus propios errores. Una realidad que no impide prever para los expertos un horizonte de avances en la computación cuántica que hará que en 2029 la criptografía asimétrica convencional quede desfasada, lo que aboca al desarrollo de un nuevo paradigma de cifrado, como ya apuntamos en su momento en un post que dedicamos al impacto de las principales tecnologías emergentes en la ciberseguridad.

Evolución de los ordenadores cuánticos

Los prototipos cuánticos no paran de aumentar sus capacidades expresadas en número de cúbits, por más que no se resuelvan sus problemas de base en cuanto a inestabilidad y falta de consistencia en sus resultados. Un problema para el que los expertos tienden a poner en valor otro indicador como sería el volumen cuántico, esto es, una métrica que al margen de la cantidad de cúbits también mide su calidad y rendimiento cuando se trata de resolver problemas reales.

Así, mientras que el número de cúbits indica el potencial teórico, el volumen cuántico refleja el desempeño práctico, teniendo en cuenta aspectos como la confiabilidad de los cálculos que realizan estos bits cuánticos, su capacidad para interactuar entre sí, la precisión en la ejecución de los algoritmos más complejos, o la tolerancia al ruido,que es uno de los caballos de batalla principales en los sistemas cuánticos.

Carrera con la IA

En la computación cuántica estamos en una carrera con muchos paralelismos con la de la IA (con la salvedad hecha al principio del texto), en la que despuntan gigantes como IBM,Google o Intel, ‘sospechosos habituales’ a la hora de hablar de avances informáticos, en algún caso como el del gigante azul incluso desde comienzos del siglo pasado.

Junto a ellas, también están a la vanguardia compañías dedicadas al ámbito cuántico como IonQ, que desarrolla hardware y software específico, así como Honeywell, que en 2021 combinó su división de soluciones cuánticas con Cambridge Quantum Computing para formar Quantinuum, considerada la empresa de computación cuántica integrada más grande y avanzada del mundo.

La compañía ha lanzado Quantum Origin, la primera plataforma comercial que utiliza computación cuántica para generar claves criptográficas mejoradas, fortaleciendo la ciberseguridad frente a posibles ataques.

Pero si hablamos de hitos recientes logrados por procesadores cuánticos, habría que referirse a la predicción de la estructura secundaria del ARN mensajero, ese que tanto protagonismo tuvo para algunas vacunas del COVID, y cuyo descifrado puede suponer un avance crucial en biomedicina, ya que permitiría comprender mejor cómo se comportan estas moléculas y su papel en los procesos celulares. Un conocimiento que podría facilitar el desarrollo de tratamientos más precisos para diversas enfermedades graves, optimizar terapias genéticas y diseñar vacunas más efectivas en múltiples campos.

Además, para este proyecto de IBM y Moderna ni siquiera se han utilizado los procesadores cuánticos más potentes que tiene la primera, como por ejemplo Condor de 1.121 cúbits, al haberse recurrido a ordenadores como Eagle y Heron, de 127 y 133 cúbits respectivamente, si bien, como acabamos de exponer, el criterio del volumen cuántico determinado por los aspectos referidos primaría sobre la capacidad bruta.

En esa dirección que lleva a la reducción de errores va precisamente Willow, el último chip cuántico presentado por Google a principios de este mes de diciembre de 2024, que solo precisó de poco más de 3 minutos para ejecutar operaciones que a los ordenadores convencionales les llevarían 10.000 años.

Hacia una nueva criptografía

Las capacidades cuánticas perfilan un horizonte de oportunidades, entre las que podría estar el remedio de las patologías celulares más graves, pero también suponen una amenaza para nuestros sistemas criptográficos actuales, como ya apuntamos en un primer post en el que abordamos los retos que planteaba la computación cuántica a efectos de ciberseguridad.

RSA y ECC, los dos métodos clásicos de encriptación, cifran información planteando problemas matemáticos que no pueden resolver los ordenadores estándar, pero esa barrera no valdría para los cuánticos, algo que en su momento quedó demostrado sobre el papel por Peter Shor, padre del algoritmo de factorización que lleva su nombre y pionero en el campo de la computación cuántica.

También serían vulnerables protocolos como Diffie-Hellman, que a día de hoy se emplea para encriptar datos de aplicaciones de mensajería, sistemas de correo, redes VPN y conexiones SSL/TLS. Mientras que la velocidad operativa de las computadoras cuánticas permitiría descifrar todo tipo de claves, incluyendo las más sensibles, utilizadas en servicios financieros o las infraestructuras TI más críticas.

Pero al igual que ocurre con la IA, la propia tecnología cuántica aporta la solución al problema que plantea, mediante sistemas como Quantum Key Distribution, que posibilita la generación y transmisión aleatorias de claves simétricas de seguridad.

Además, desde hace años se está trabajando en una criptografía post-cuántica que blinde frente a las capacidades de los nuevos algoritmos. Ya en 2012 el NIST, el National Institute of Standards and Technology de los Estados Unidos, impulsó un proyecto colaborativo para fijar los estándares de cifrado para la nueva era.

Tras valorarse distintos modelos de securización que se han ido presentando desde entonces, en agosto de 2024 el NIST publicó los tres primeros estándares consensuados:

  • FIPS 203: con ML-KEM, basado en el algoritmo Crystals-Kyber, y que se utilizará para el cifrado de claves públicas.
  • FIPS 204: con ML-DSA, basado en el algoritmo Crystals-Dilithium, y que será el estándar para firmas digitales.
  • FIPS 205: con SLH-DSA, sustentado en el algoritmo SPHINCS+, y que también se orientaría para firmas digitales, habiendo sido concebido como solución de respaldo en caso de que ML-DSA presente vulnerabilidades.

Aunque el proceso todavía está en marcha y quedarían más estándares por definir

Con todo, el desafío no se limita a establecer nuevos métodos de securización, debido a que el reto también estaría en garantizar que las organizaciones inicien a tiempo la transición desde los modelos defensivos tradicionales hacia estas soluciones post-cuánticas. Esto es particularmente necesario frente a amenazas como ‘harvest now, decrypt later‘, una práctica maliciosa que consiste en recopilar datos cifrados ilegibles en la actualidad con la intención de descifrarlos en el futuro, cuando la tecnología cuántica sea capaz de romper los sistemas de seguridad actuales. En ese escenario, la protección que ofrecen los algoritmos convencionales sería tan frágil como almacenar contraseñas en texto plano…

De ahí la importancia de adoptar un enfoque proactivo que permita prepararse para la irrupción cuántica, una estrategia anticipatoria que siempre es ganadora en cualquier vertiente de la ciberseguridad.