Los agentes autónomos IA y los retos de ciberseguridad que plantean

Los agentes autónomos IA y los retos de ciberseguridad que plantean

Gartner dentro de las 10 tendencias tecnológicas clave para 2025 sitúa en primer lugar a los agentes autónomos de Inteligencia Artificial.

La IA agente se traduciría en sistemas que irían más allá de los modelos pasivos actuales, que se limitan a responder preguntas o a realizar una tarea, con posibilidad a lo sumo de ejecutarla en varios pasos en chatbots más avanzados con capacidades de proto-razonamiento, como los o1 de tecnología Strawberry de Open AI.

Esta nueva generación de sistemas autónomos que se divisa en el horizonte tendría un rol mucho más proactivo, de manera que al margen de responder cómo hacer algo tendrían la capacidad de realizar las tareas necesarias de principio a fin por sí mismos.

Aunque la aparición de productos en el mercado de estas características pueda ser una realidad inminente, otro aspecto distinto sería su fiabilidad real inmediata, a la hora de que organizaciones puedan confiarle ya la realización de operaciones complejas con expectativas de que su ejecución se realice correctamente.

Si así fuera, sería un hito importante en la vertiente de la automatización ligada a la IA, con los efectos en la productividad y ahorro de recursos para administraciones y empresas que tanto se ligan al desarrollo de la Inteligencia Artificial.

Cabe tener esperanzas fundadas de que estas capacidades sean tangibles en un plazo razonable de tiempo, pero no parece que los sistemas de IA agente pueden estar ya operativos y rindiendo los frutos deseados en los próximos meses.

De hecho, el único modelo que se ha presentado hasta la fecha que presentaría funcionalidades de ese tipo sería Claude 3.5 en su versión Sonnet, desarrollado por Anthropic (escisión de Open AI), el cual se supone que podría tomar el control del ordenador del usuario para realizar de manera autónoma las tareas que este le indique, aunque tal y como se pudo ver recientemente en el canal de divulgación de DOT CSV el experimento no sale demasiado bien…

Una tecnología que debe pasar por un proceso de maduración

De ahí, que muchos expertos consideren que la Inteligencia Artificial agente es una tecnología que todavía precisa madurar, al requerirse sistemas con mayores capacidades de razonamiento, memoria persistente y contextualización. Según este planteamiento, asistentes como Copilot aún tendrían que recorrer bastante trecho para pasar de ayudar a hacer tareas a realizarlas por sí mismos de forma independiente, eficaz y secuencial.

Además, antes habría que resolver el enorme coste en computación que supondría tener sistemas ejecutando tareas complejas por su cuenta, corriendo por servidores de capacidad limitada, por mucho que se estén probando sistemas más eficientes en este aspecto, se traten de implementar chips de nueva generación o se estén desarrollando importantes inversiones en nuevos data centers, con las grandes tecnológicas a la cabeza.

La Inteligencia Artificial alojada de manera nativa en los dispositivos emerge como la solución más viable para que resulten factibles los agentes autónomos, en sintonía con las soluciones Edge AI que se ejecutan en local sin precisar nube que ha lanzado Apple Intelligence, y particularmente compañías como Lenovo, que está alumbrando toda una nueva generación de dispositivos de mesa preparados para esta integración, como pudimos comprobar en la última edición de Nexo 3.0, dedicada precisamente a la IA.

Retos que plantea la Inteligencia Artificial agente para la ciberseguridad

Precisamente la ejecución en local de los venideros agentes IA supondría también una importante salvaguarda de seguridad para los múltiples datos a los que tendrían acceso en su operativa, que así quedarían menos expuestos. Hay que pensar lo que implicaría comprometer a un agente, y vulnerar con ello credenciales que den acceso a sistemas críticos de empresas o a información sensible de usuarios. Máxime, si consideramos que estos sistemas al margen de los datos que recopilasen tendrían capacidad de inferir información adicional sin necesidad de acceder a ella.

También, un agente IA comprometido podría escalar sus permisos más allá de los privilegios iniciales, para obtener acceso a partes más críticas de los SI, generándose así vulnerabilidades de acceso persistentes, aprovechables por atacantes para realizar intrusiones ocultas en la sombra durante periodos prolongados sin ser detectados.

Asimismo, si atendemos a las auténticas virguerías de prompt injection que se han realizado ya con modelos IA precedentes, no se puede asegurar que los agentes autónomos dotados de mayores capacidades sean inmunes a engaños que se traduzcan en riesgos a la integridad de sistemas y datos sensibles. Hablamos de los conocidos como ataques de IA adversa o adversaria, que consistirían en manipular al sistema para que actúe de manera contraria a su programación inicial, con lo que ello acarrearía dados tanto el acceso que tendrían los agentes como la criticidad de las tareas que se les confiarían.

Igualmente, cabe valorar que también hay un importante desarrollo de la IA open source, que se erige en código abierto a deseo del creador, que puede no ya quitarle los raíles que hacen que vaya por un determinado camino o eliminarle cortapisas, sino incluso entrenarla directamente con datos venenosos. Una práctica cuyos riesgos potenciales han sido alertados nada menos que por la NSA y el NIST, y que de extenderse a los agentes autónomos tendría consecuencias negativas amplificadas, sin ir más lejos a la hora de crear máquinas capaces de orquestar por si solas ciberataques persistentes y masivos.

Además, aunque se trate de un agente autónomo no corrompido desde su origen, su mera existencia ya supondría una ampliación de la superficie de ataque, una extensión del perímetro tecnológico a proteger, con una nueva parte que tendría vulnerabilidades como las que hemos visto, que los ciberdelincuentes pueden tratar de explotar para su beneficio.

En definitiva, los agentes IA autónomos maduros pueden suponer una tecnología disruptiva de alto impacto en la productividad de las organizaciones, con capacidad incluso de redimensionar el propio concepto de trabajo. Pero también, su implementación plantea importantes retos de ciberseguridad, que hay que afrontar con el objetivo de no aumentar la vulnerabilidad ante los ataques ni amplificar su efecto si se dan.