La evolución de la inteligencia artificial (IA) ha superado la generación de contenido para adentrarse en la era de la IA agéntica. A diferencia de los modelos convencionales, estos sistemas tienen capacidad de planificación, acceso a herramientas externas y autonomía para ejecutar tareas en nombre de una organización. La acción delegada, sin embargo, introduce algunos vectores de riesgo que deben abordarse desde el diseño con una óptica de privacidad.
El despliegue de agentes autónomos es un salto técnico y una transformación en la forma en que los datos fluyen a través de la arquitectura empresarial. La interconectividad y la memoria de estos sistemas plantean interrogantes críticos sobre el cumplimiento normativo y la integridad de la información corporativa.
Uno de los puntos más críticos radica en la interacción con el entorno. La capacidad de los agentes para consumir datos internos y externos de forma masiva puede derivar en tratamientos inadecuados que ignoren las políticas de compartimentación de la compañía. Aquí, el principio de minimización de datos corre el riesgo de diluirse: si un agente tiene permiso para explorar con el fin de resolver un problema, podría terminar procesando información personal que no es estrictamente necesaria para ese fin específico.
A esto se suma la integración de servicios. La orquestación de múltiples herramientas, tanto locales como en la nube, genera una red de flujos de datos difícil de trazar. Dicha conexión constante con el exterior no solo abre la puerta a posibles brechas de seguridad. También compromete la exactitud de la información. Si el agente se nutre de fuentes externas inadecuadas o desactualizadas para ejecutar una acción, el resultado puede ser un proceso sesgado o inexacto, con el impacto reputacional y legal que ello conlleva.
La memoria agéntica añade una capa adicional de vulnerabilidad. Para ser eficaces, estos sistemas almacenan contextos y experiencias previas. Sin una política de “purga” o una arquitectura de silos clara, esta retención excesiva puede vulnerar el derecho al olvido o el principio de limitación de la finalidad. Un sistema que recuerda demasiado, por así decirlo, sin un control de acceso estricto, se convierte en un objetivo de alto valor para accesos no autorizados.
La capacidad de estos agentes para actuar en nombre del usuario representa un desafío sin precedentes en identidad y acceso. Al solicitar y utilizar credenciales humanas —como el acceso al correo electrónico o a bases de datos confidenciales—, el agente hereda los permisos del empleado.
En este sentido, es relevante una gobernanza robusta que limite y monitorice estas acciones. La línea entre la actividad humana legítima y la ejecución automatizada se diluye, lo que dificulta la trazabilidad de las operaciones.
El despliegue de sistemas multiagente introduce una cuestión operativa que la Agencia Española de Protección de Datos (AEPD) ya ha puesto bajo la lupa. En la planificación de tareas e interacción entre agentes, la descomposición de un objetivo complejo en subtareas, ejecutadas por distintos módulos, requiere una supervisión constante. Ante este hecho, es importante garantizar que cada eslabón de esa cadena de ejecución respete el orden lógico de tratamiento de datos y evalúe siempre el impacto que la orquestación de estas actividades tiene en los derechos de los interesados.
Por ello, la protección de los derechos personales bajo el Reglamento General de Protección de Datos (RGPD), tales como acceso, rectificación, supresión, limitación y oposición, debe estar integrada en el propio código del sistema. La autonomía de la IA agéntica puede, paradójicamente, opacar la transparencia. Si la toma de decisiones se vuelve una caja negra debido a la interacción entre agentes, la supervisión humana se vuelve ineficaz, lo que aumenta el riesgo de acciones irreversibles que afecten directamente la privacidad del individuo.
El ecosistema se enfrenta a amenazas específicas de nueva generación, que pueden atacar los cimientos del negocio. Aquí, algunas de las más destacadas:
La inyección de prompts es el equivalente digital del engaño o de la ingeniería social, pero dirigido a la máquina. Consiste en que un tercero introduce instrucciones maliciosas para que un agente de IA ignore sus órdenes originales y ejecute acciones no autorizadas. La Guía Inteligencia Artificial Agéntica desde la perspectiva de la protección de datos, publicada por la AEPD, divide esta amenaza en dos formas: directa e indirecta.
La inyección directa ocurre cuando el atacante introduce de manera explícita, en el propio mensaje al agente, una orden maliciosa que busca anular sus instrucciones iniciales. En cambio, la inyección indirecta se produce cuando esas instrucciones no se envían como un prompt visible, sino que se esconden en las fuentes de datos que el agente consulta. Pueden estar ocultas en un PDF, en un correo electrónico o en una página web y pasar inadvertidas para las personas, pero el modelo las interpreta como comandos legítimos o como información relevante para decidir. Esto puede derivar en exfiltración de datos, en saltarse controles de decisiones automatizadas o en generar inferencias incorrectas o sesgos.
Son fugas de datos hormiga. Significa que, en lugar de un gran robo detectable, el sistema extrae información crítica de forma lenta y constante, camuflándola entre el tráfico normal para no ser detectado. La Guía de la AEPD indica que la filtración puede ir desde datos, contexto interno, memoria, reglas o secretos, a través de interacciones aparentemente legítimas, consultas fragmentadas e inocuas y respuestas parciales del modelo. Cada respuesta del agente, vista por separado, parece segura, pero al combinar varias consultas y fragmentos es posible reconstruir datos confidenciales.
Si la pieza de software externa (librería o modelo) en la que se basa tu agente presenta un fallo de seguridad de origen, toda tu estructura hereda esa vulnerabilidad.
Se da cuando el atacante accede de forma remota al entorno en el que el agente toma decisiones, lo que le permite alterar procesos de negocio o manipular resultados desde dentro.
Los riesgos descritos muestran que la ausencia de una estructura sólida de gobernanza y de políticas maduras son un punto débil para cualquier organización. Bajo este escenario, ya no basta con cumplir con el RGPD. La nueva Ley de IA y el resto de la normativa conexa exigen un marco de control integral, mucho más estricto. La combinación de estas amenazas amplifica la exposición y convierte la protección de datos en uno de los pilares sobre los que debe sostenerse cualquier estrategia de adopción de IA agéntica.
Deja un comentario