868 300 513 / [email protected]

WE WORK

AS ONE

Contamos con los mejores

¿Es seguro Chat GPT para las empresas?

¿Es seguro Chat GPT para las empresas?

En un post anterior ya abordamos las amenazas a la ciberseguridad de los usuarios de a pie que podían suponer los chatbots de Inteligencia Artificial basados en modelos de lenguaje generativos.

Así, vimos toda la gama de riesgos potenciales que supone la irrupción de estos sistemas que han tenido una adopción masiva, como lo refleja que Chat GPT batiese todos los récords históricos de aplicaciones de la era de internet, al acumular más de 10 millones de usuarios en apenas 40 días tras su lanzamiento. Y lo que quizás sea más importante todavía a efectos de popularización: la integración de chatbots de IA en los buscadores de internet, algo que primero hizo Microsoft en su navegador con Bing Chat (basado precisamente en GPT-4 al haberse aliado con OpenAI), y más tarde replicó Google (en medio de una feroz competencia) lanzando Bard, desarrollado a partir de su modelo de lenguaje LaMDA.

En esta ocasión, vamos a desplazar el foco de los usuarios particulares a las empresas, para analizar los problemas en la seguridad de sus datos que implica utilizar sistemas de inteligencia artificial como Chat GPT para la realización de tareas de trabajo.

El conflicto radicaría en la exposición de información crítica de las organizaciones en esas interacciones del personal con las herramientas de Inteligencia Artificial. De hecho, un estudio realizado a finales de marzo afirmaba que del porcentaje total de datos que volcaban los empleados hasta un 11% eran de naturaleza confidencial.

Además, el problema tendría al menos tres vertientes:

1- Capacidad de OpenAI para salvaguardar los datos sensibles de sus usuarios

Volcar información de clientes o de aspectos operativos internos de la empresa entraña un primer riesgo derivado de la posible endeblez y porosidad de los sistemas TI de una compañía como Open AI, que de la noche a la mañana ha tenido que gestionar una cantidad ingente de datos pertenecientes a millones de usuarios.

De hecho, ya fueron detectadas brechas que dejaron expuestos historiales de preguntas de algunos usuarios, e incluso los propios datos personales y financieros de un1,2% de los suscriptores de ChatGPT Plus.

2- Uso de conversaciones para entrenamiento de los modelos

Como es sabido, estos modelos utilizan las interacciones con los usuarios para proseguir con su entrenamiento, con el objetivo tanto de corregir errores y subsanar deficiencias, como de aumentar sus capacidades de entender, procesar y generar lenguaje natural.

En realidad, la adopción por un número elevado de usuarios ha supuesto uno de los factores esenciales a la hora de determinar el éxito inicial de Chat GPT frente a otros sistemas como Bard, que no han gozado de un uso masivo hasta ahora.

Pero precisamente este uso de conversaciones que eventualmente pueden incluir datos sensibles de los usuarios colisiona con la estricta normativa europea RGPD, lo que explica que la herramienta haya sido prohibida en países como Italia, y esté bajo investigación en otros de la UE, entre los que se incluye España.

La dificultad de armonizar esta característica de los modelos con la legislación europea estaría detrás del retraso de la integración de herramientas IA en el buscador de Google, de acuerdo a muchos expertos, que sin ir más lejos se sorprendieron de que Bard estuviese en mayo disponible en idiomas como el coreano, y no contase con su versión en español hasta mediados de julio, pese a tratarse de un idioma hablado por centenares de millones de personas.

También la gira de Sam Altman, el CEO de Open AI, por distintos países europeos que culminó con la visita a la presidenta de la Comisión Ursula Von der Leyen, ha sido interpretada en clave de suavización de asperezas para evitar posibles prohibiciones, con la vista puesta asimismo en la definición de la próxima Ley de Inteligencia Artificial que regirá a nivel europeo.

En lo que afecta a las empresas, el hecho de que datos de sus clientes o información confidencial sobre su operativa pueda ser utilizada para entrenar a los modelos entraña graves riesgos de ciberseguridad, incumplimiento normativo y repercusiones reputacionales negativas.

Por ello, no es de extrañar que Open AI se haya apresurado a implementar funciones que permiten borrar el historial de conversaciones (si bien se mantendrían 30 días al menos en los servidores de la compañía), e incluso desactivar la opción de que los distintos modelos de Chat GPT puedan utilizar la interacción con los usuarios para seguir entrenándose.

3- Filtrado de información corporativa confidencial

El uso por parte del personal de las empresas de estos sistemas de IA todavía entraña más riegos que los de ciberseguridad e incumplimiento normativo, ya que también se corre el peligro de exponer a la competencia información crítica de nuevos proyectos, soluciones o productos que esté desarrollando la compañía.

Por ejemplo, se ha dado el caso de empleados de empresas tan a la vanguardia como Samsung que al tratar de aprovechar las potencialidades de GPT-4 para trabajar con lenguaje de programación, filtraron involuntariamente el código fuente de una aplicación propietaria o sus patrones para identificar chips defectuosos.

De ahí, que resulte lógico que la mayoría de compañías prohíban ya a su personal utilizar Chat GPT o cualquiera de estos modelos, comenzando por la propia Samsung tras lo sucedido, y siguiendo por Apple por aquello de las barbas del vecino…

Como esta tendencia se ha extendido por todo tipo de compañías, no supone una sorpresa que Open AI esté explorando soluciones para no perder clientes corporativos, y esté trabajando en la creación de ChatGPT Enterprise con políticas de privacidad más estrictas.

Con todo, no basta con que las compañías lo fíen todo a la idoneidad de las herramientas que utiliza su personal, entre otras cosas porque habría que verificar también que todos las plataformas y sistemas que se usen sean totalmente fiables… Por no hablar de recursos fuera del entorno de aplicaciones de la empresa, que pueden tener una apariencia tan inocente como los convertidores de formatos de documentos, a los que se puede acceder de manera fácil y rápida online para solventar una urgencia en un momento dado…

Como repetimos siempre, los pilares sobre los que se asienta todo el edificio de ciberseguridad de una organización son la concienciación y la formación, para educar a los empleados en buenas prácticas de ciberseguridad, y hacerles ser conscientes del riesgo que entraña volcar determinada información de la empresa o de sus clientes en plataformas en las que desconocemos qué va a pasar con esos datos alojados en sus servidores, por muy bombásticas que sean esas herramientas y muy presentes en la conversación que puedan estar ahora mismo.

Facebook
Twitter
LinkedIn
Pinterest
WhatsApp