Agentes de IA: qué son y cómo pueden transformar tu negocio

Pueden trabajar 24horas al día, 7 días a la semana de manera independiente, pueden tomar decisiones complejas y se adaptan en tiempo real a los cambios del entorno. Eso sí, nada de esto lo pueden hacer sin supervisión humana. Son los agentes de IA y no son ninguna promesa

agentes IA

Pueden trabajar 24horas al día, 7 días a la semana de manera independiente, pueden tomar decisiones complejas y se adaptan en tiempo real a los cambios del entorno, se definen como las nuevas plantillas digitales. Eso sí, nada de esto lo pueden hacer sin supervisión humana. Son los agentes de IA y no son ninguna promesa. De hecho, según datos del sondeo trimestral de KPMG sobre la adopción de la IA, correspondiente al segundo trimestre del año, la mayoría de las organizaciones (90 %) ya han superado la fase de experimentación. Y, de ellas, un 33 % ha logrado implementar, al menos, algunos agentes.

Y es que el tejido productivo mundial parece haberse puesto de acuerdo en algo: la transformación tecnológica, y más concretamente la carrera por la IA, es una carrera de fondo en la que nadie quiere quedarse el último. Y año a año, sigue ganando adeptos. Lo muestra el informe ‘Perspectivas España 2025: IA y Transformación’: mientras que en 2024 los empresarios españoles que ya habían invertido en IA eran el 17%, este porcentaje aumentó hasta el 44% en 2025.

agentes IA

Una decidida apuesta por la tecnología que está llamada a cambiarlo todo y que “no solo refleja una visión estratégica por parte de las compañías, sino también una comprensión profunda de que la tecnología es hoy una palanca imprescindible para el crecimiento, la eficiencia y la competitividad”, tal y como asegura David Sanz, socio responsable de IA, Análisis de Datos y Tecnologías Emergentes de KPMG en España.

Todo “empezaba” en 2022 con la llegada de la inteligencia artificial generativa, o más bien, de la democratización de su uso. Ello supuso una revolución en la forma de interactuar con ella del usuario, puso en marcha la maquinaria legislativa europea, que desembocó en la primera norma transversal que regula el uso de la IA, el Reglamento de Inteligencia Artificial (RIA) y, en definitiva, dio el pistoletazo de salida a una época en la que los avances y nuevas posibilidades de la inteligencia artificial no dejan de sucederse. Hoy hablamos de los agentes de IA, pero ¿de qué hablaremos mañana? Y, sobre todo, ¿está preparado nuestro tejido productivo?, ¿cómo lo está afrontando el propio sector público? 

Agentes de IA

Qué son los agentes de IA

Antes de poder responder a ninguna de esas cuestiones, debemos comprender a qué nos enfrentamos: los agentes de IA son una evolución de los chatbots, que a su vez fueron la primera expresión de la IA generativa. Es decir, representan una forma concreta de inteligencia artificial conversacional ya que utilizan técnicas como el procesamiento del lenguaje natural (NLP) para interpretar preguntas y generar respuestas automatizadas dentro de un contexto restringido.

Sin embargo, no es lo mismo hablar de agentes de IA que hablar de agentividad. Este último se trata de un entorno tecnológico más amplio, que abarca sistemas con distintos grados de autonomía, memoria a largo plazo y habilidades avanzadas para razonar, planificar dinámicamente y ejecutar tareas complejas.

No te quedes atrás

Para poder guiarse en la evolución de los sistemas de IA, el propio OpenAI plantea un marco ilustrativo sobre la evolución de la inteligencia artificial en cinco etapas, ilustrando tanto el avance cualitativo que ha alcanzado ya esta tecnología como el potencial que aún está por desarrollarse:

  • Nivel 1: Asistentes conversacionales: Responden a instrucciones básicas, sin capacidad de memoria ni razonamiento avanzado.
  • Nivel 2 – Asistentes con razonamiento: Son capaces de resolver tareas estructuradas utilizando enfoques como Chain of Thought.
  • Nivel 3 – Agentes autónomos: Pueden planificar, ejecutar acciones y adaptarse mediante el uso de herramientas, memoria y retroalimentación del entorno.
  • Nivel 4 – Agentes colaborativos: Se comunican y cooperan entre sí, combinando estrategias y habilidades especializadas.
  • Nivel 5 – Sistemas organizativos integrales: Reproducen el funcionamiento completo de una empresa o equipo, con su propia estructura y mecanismos de gestión.

Para que esta evolución sea posible y efectiva y los sistemas de IA colaborativos y escalables lleguen a ser una realidad, los protocolos de comunicación entre agentes son esenciales. “La evolución desde lenguajes como KQML y FIPA-ACL hacia protocolos más modernos como MCP, ACP y A2A refleja la necesidad de adaptarse a entornos más complejos y heterogéneos. Aunque existen desafíos en términos de interoperabilidad, seguridad y gobernanza, la colaboración entre actores clave y la adopción de estándares abiertos prometen un futuro en el que los agentes de IA puedan trabajar juntos de manera eficiente y segura, desbloqueando nuevas posibilidades en diversas industrias”, comenta Javier Morales, director de Inteligencia Artificial en Lighthouse de KPMG en España

Sin embargo, “hoy podríamos decir que nos encontramos en el nivel 3, en el que los agentes no es que aprendan como tal, sino que tienen memoria. Eso les permite, a partir de lo que ya tienen interiorizado del nivel 1 y 2, orquestar acciones de una manera estructurada y entender el contexto”, señala Alfredo Carrión, director de IA, Data y Analítica de KPMG en España, quien añade que “es importante subrayar que los niveles no son sustitutivos. Es decir: cuando el desarrollo tecnológico alcanza un nivel, no quiere decir que los anteriores dejan de ser válidos o que se dejen de emplear”.

Agentes de IA

Modelos de agentes de IA

A la hora de plantearse si incorporar agentes de IA en la compañía y cómo hacerlo, esta decisión se puede abordar teniendo en cuenta los dos modelos principales existentes en el mercado: Buy (comprar soluciones existentes) y Build (desarrollar soluciones a medida).

Mientras que la opción de compra (buy) se basa en soluciones COTS (Commercial Off-The-Shelf), como Microsoft Copilot, SAP Joule o Salesforce Agentforce, que integran IA progresivamente en sus plataformas y permiten crear agentes personalizados sin conocimientos técnicos, el modelo build implica desarrollar agentes de IA desde cero. Estos son, como su propio nombre indica, altamente personalizados, con capacidades avanzadas como integración con APIs internas, uso de memorias y planificación. Este modelo requiere, por tanto, una arquitectura modular y mayor inversión técnica, pero ofrece máxima flexibilidad y control.

agentes IA

Para Alfredo Carrión, la decisión entre un modelo u otro “estará determinada por el nivel de urgencia, la criticidad del caso y la capacidad tecnológica de la organización”. Sin embargo, “una alternativa ampliamente adoptada y con beneficios evidentes es la implementación de un modelo híbrido, porque permite capturar valor de manera ágil sin dejar de aprovechar el potencial de soluciones más complejas y personalizadas”, comenta Alfredo Carrión. Así lo corroboran los datos del AI Quarterly Pulse Survey: Q2 2025: cada vez más líderes planean desplegar una combinación de agentes preconstruidos e internos: un 51 %, frente al 27 % del trimestre anterior.

Agentes de IA

Cómo implementar los agentes de IA

Si los agentes de IA son sistemas capaces de operar con distintos niveles de autonomía, esto abre nuevas posibilidades para transformar modelos de negocio y replantear estructuras operativas desde una perspectiva que va más allá de la automatización. Pero ¿por dónde empezar?

Fase 1: Análisis. Lo primero es mirar hacia dentro. Es decir: hacer un análisis del estado y puntos de dolor de la propia compañía, para identificar dónde tendría más sentido y sería más necesario incorporar un agente de IA: desde tareas rutinarias hasta flujos de trabajo complejos.

Fase 2: Pilotos. Una vez hecho este análisis, es el momento de lanzar pilotos en aquellos entornos en los que puedan generar el mayor valor, priorizando aquellas áreas en las que los pilotos previos de GenAI hayan tenido buenos resultados y aquellas que sean repetitivas o de bajo riesgo.

Fase 3: Escalada: Es el momento de escalar la aplicación de esos agentes dentro de las funciones y flujos de trabajo clave identificados. Para ello, conviene desarrollar una estrategia integral para asegurar su éxito.

Fase 4: Gobernanza: No hay que olvidar la gobernanza de esta tecnología, para lo cual es imprescindible ampliar el marco de gobierno que hubiera implementado sobre IA en la organización, y acoger a los agentes creando un catálogo vivo de todos ellos para rastrear su propósito y métricas de desempeño, y establecer procesos sólidos para impulsar la mejora continua.

Agentes de IA

Casos de uso

Aunque hay desafíos persistentes en la adopción de agentes de IA: brechas en habilidades técnicas (59 %), resistencia al cambio por parte de la fuerza laboral (47 %) y complejidad de los sistemas (39 %), según el AI Quarterly Pulse Survey: Q2 2025, Estefanía Sanz, directora de Data Analytics & AI de KPMG en España, destaca algunas de las principales áreas en las que mejor se están adaptando los agentes de IA y en las que mejor rendimiento están registrando:

  • Atención al cliente y soporte: Es, sin duda, el área líder en su adopción. Los Chatbots y asistentes inteligentes ya gestionan millones de consultas diarias. Ahora, los agentes también pueden tomar decisiones de manera independiente, personalizando aún más la atención a cada cliente.
  • Marketing y Ventas: Por el grado de personalización que permiten y la generación de contenido automatizados. Pero, además, las plataformas de IA son capaces de cualificar leads analizando comportamientos.
  • Finanzas y contabilidad: Análisis de datos financieros, detección de fraudes, previsión de demanda. Los agentes de IA pueden revisar facturas, detectar inconsistencias contables o sugerir presupuestos. Con la IA generativa, se generan borradores de informes financieros y contratos más rápido (gracias a los copilotos de texto).
  • Recursos Humanos: Reclutamiento automatizado (desde la preselección de los candidatos, primea selección y primeras entrevistas) y, dentro de la organización, los agentes de IA hacen las funciones de asistentes para los empleados.
  • Investigación y Desarrollo (I+D): Los agentes de IA ayudan a analizar grandes volúmenes de datos de investigación, generar hipótesis y prototipos de forma autónoma.
  • Tecnología de la Información: Desarrollo de software con copilotos de código. Ya hay estudios que predicen que, en pocos años, los agentes avanzados podrían escribir la mayor parte del código, demandando que los ingenieros se enfoquen en tareas de alto nivel. Lo agentes también gestionan infraestructura (infraOps) y seguridad, extendiendo la capacidad de los equipos IT.
  • Legal: Cada vez es más común aplicar esta tecnología asociada a la mejor y más optimizada gestión legal y jurídica en las organizaciones, como asistentes de los abogados en ejercicio de sus funciones, pero también como soluciones para mejorar la simplificación, entendimiento e impacto de la legislación aplicable. De hecho, Noemí Brito, socia de Legal Digital, indica que “ya hay directrices europeas e internacionales en este ámbito para su correcto y confiable despliegue, además de proyectos piloto internacionales que usan agentes para fomentar la racionalización normativa desde el propio sector público”.
Agentes de IA

Impacto en las personas

Precisamente uno de los grandes impactos de la inteligencia artificial y, concretamente, de los agentes de IA está en el área de Personas de las organizaciones y, sobre todo, en la forma en la que estas se relacionan con el trabajo y con el resto de los integrantes de la compañía. Tanto que, según el AI Quarterly Pulse Survey: Q2 2025, durante los próximos 12 meses:

  • 80% señala que los agentes de IA impulsarán la creación de nuevos roles especializados en IA.
  • 82% afirma que los agentes de IA se convertirán en compañeros de trabajo valiosos y en contribuyentes clave.
  • El 87% de los líderes encuestados cree que los agentes de IA redefinirán las métricas de rendimiento.
  • El 86%de los líderes encuestados opina que los agentes de IA mejorarán la satisfacción laboral al ayudar a gestionar la carga de trabajo.

Y es que el interés y la apuesta por soluciones basadas en agentes inteligentes aplicados a los procesos de Recursos Humanos no deja de crecer. “Las organizaciones están explorando su uso en procesos de onboarding para nuevos empleados, en la resolución de consultas sobre beneficios como seguros médicos, o como canal permanente de atención al empleado operativo 24/7. Esta transformación plantea dos vertientes importantes: el impacto directo en los departamentos de gestión de personas, y la repercusión más amplia sobre el mercado laboral en su conjunto”, tal y como señala Cristina Hebrero, socia responsable de People & Change de KPMG en España.

Así, el modelo tradicional de interacción con el empleador evoluciona hacia una dinámica más autónoma y digital, donde el empleado se relaciona con su agente personal, que actúa como asesor, compañero o facilitador. Sin embargo, “en el ámbito de la planificación de la fuerza laboral, muchas organizaciones enfrentan dificultades para identificar por dónde comenzar o qué iniciativas priorizar, razón por la que se hace necesario contar con un compañero de viaje experto en transformaciones integrales de este tipo que contribuyan con soluciones estratégicas que permitan enfocar los esfuerzos en áreas de mayor retorno o impacto”, añade Cristina Hebrero.

Y, en este proceso, hay un factor clave: la confianza. Existen organizaciones que aún no se sienten totalmente cómodas con estos avances y, por ello, resulta esencial que la evolución tecnológica vaya acompañada de un proceso paralelo de construcción de confianza y desarrollo de competencias humanas. Por ello, “los líderes deben adaptar sus estilos de gestión para liderar equipos en este nuevo contexto híbrido, donde la colaboración entre humanos y agentes inteligentes será parte integral de la operación diaria. Esto implica desarrollar habilidades distintas a las tradicionales y asumir que ciertos roles han cambiado y seguirán cambiando sustancialmente en los próximos tres a cinco años”, apunta Cristina Hebrero.

Agentes de IA

Implicaciones legales

Todo ello viene acompañado o, más bien, liderado por una regulación y unas normas comunes a todos, a las que hay que ceñirse. De hecho, las tres principales áreas a las que las organizaciones destinarán presupuesto para inteligencia artificial generativa son la ciberseguridad y la seguridad de los datos (67 %), el riesgo y el cumplimiento normativo (52 %) y las operaciones (48 %), según el AI Quarterly Pulse Survey: Q2 2025

agentes IA

Los agentes de IA pueden caer bajo la definición legal de sistema de IA, de hecho, las Directrices de la Comisión Europea relativas a la definición legal de sistemas de IA los menciona expresamente planteando las disyuntivas de la existencia, además, de múltiples agentes y sus interacciones entre sí. De hecho, uno de los mayores desafíos en términos de gobernanza de los mismos alude a la necesidad de tener métodos apropiados de orquestación de los mismos, sin perjuicio del cumplimiento general de las obligaciones legales contenidas en el Reglamento General de IA, sobre todo, según el nivel de riesgo que puedan presentar estas, según lo dispuesto en este mismo reglamento.

La interacción de múltiples agentes, y la complejidad de sus relaciones dentro de una organización, exige una clara delimitación de responsabilidades y mecanismos efectivos de control. “La falta de una adecuada orquestación puede derivar en incumplimientos normativos, acceso no autorizado a información sensible o incluso en actuaciones autónomas no alineadas con los intereses o el marco ético de la organización”, subraya Noemí Brito.

Otro aspecto clave es la identificación de quién asume la responsabilidad ante un posible incidente legal o ético causado por un agente de IA. La normativa europea plantea la necesidad de una clara matriz de responsabilidades y modelos de control robustos, como los requeridos por la norma ISO/IEC 42001. Es también clave definir explícitamente los principios rectores que guían la actuación de los agentes, en línea con la cultura organizacional, la ética empresarial y la regulación aplicable.

En este sentido, se destaca que las autoridades competentes y supervisores están poniendo el foco en esta nueva realidad y, por ejemplo, entidades como la Agencia Española de Protección de Datos, entre otras, ya recuerdan que puedan actuar ante ciertos sistemas de IA que traten datos personales, siendo una de las entidades que con gran probabilidad sea identificada como autoridad de vigilancia del mercado a efectos del RIA en el ámbito de sus competencias.

Agentes de IA

Seguridad y privacidad en la IA agéntica

Al igual que cualquier sistema con acceso a recursos de la organización, los agentes de IA, capaces de ejecutar tareas de forma independiente, tomando decisiones basadas en sus objetivos y el entorno que perciben, también vienen acompañados de importantes retos en materia de ciberseguridad. Y es que, en palabras de Javier Aznar, socio de Technology Risk y Ciberseguridad de KPMG en España y líder global de Seguridad en IA, “no estamos ante un reto completamente nuevo en ciberseguridad, pero sí ante una nueva dimensión del problema, pues el nivel de autonomía, el acceso extendido y el papel operativo que pueden tener estos agentes hacen que asegurar su diseño, operación y mantenimiento sea una prioridad crítica para las organizaciones que los adopten”.

El primero de ellos es la gestión de identidades: para que los agentes puedan operar con eficacia, necesitan acceder a múltiples repositorios de datos, APIs o sistemas corporativos. Esto implica que deben autenticarse en esos sistemas, igual que lo haría un usuario humano y, por lo tanto, deben gestionarse identidades no humanas, con credenciales, permisos y niveles de acceso específicos. “Aquí el riesgo es evidente: si alguien obtiene acceso a la fuente de autenticación podría otorgar permisos indebidos a otros agentes o sistemas, con el consiguiente riesgo que ello supone, pues un agente, a diferencia de un chatbot, cuyo acceso está normalmente restringido, puede leer, escribir o ejecutar acciones en varios sistemas. Esto lo convierte en un objetivo muy atractivo para ataques como «prompt injection», que buscan manipular sus instrucciones”, comenta Javier Aznar.

Por todo ello, es crucial someter a los agentes a pruebas antes de desplegarlos. Pruebas que incluyan testeo en entornos controlados, pruebas de penetración, revisión de código y ejercicios de seguridad ofensiva (red teaming). Sin olvidar la revisión periódica y someterlos a auditorías regulares para poder así detectar posibles vulnerabilidades introducidas por cambios en el entorno o en las librerías que utilizan.

Agentes de IA

¿Hay que ponerle límites a la IA?

Los agentes de IA no son, ni mucho menos, el último desarrollo tecnológico en torno a la IA al que nos enfrentaremos como tejido productivo ni como sociedad. Por ello, lo que determinará el éxito o el fracaso en esta carrera de fondo es la actitud con la que uno aborde esta transformación: “más allá de perseguir constantemente “lo último” en innovación, es imprescindible reflexionar sobre el valor real que dichas herramientas aportan al negocio. Sin esta perspectiva crítica, las organizaciones corren el riesgo de caer en una dinámica reactiva que no necesariamente se traduce en beneficios tangibles”, señala Alfredo Carrión.

En paralelo, España ha adoptado recientemente la norma ISO/IEC 42001, orientada a la gobernanza de la inteligencia artificial. Para alcanzar esta certificación, las entidades deben contar con un modelo de control sólido, una matriz clara de responsabilidades y una definición transparente de sus principios rectores. Esta normativa se apoya en marcos como el presentado en la Guía de IA responsable, la cual establece diez principios clave, entre ellos la transparencia, la explicabilidad y la ética.

Estos principios operan como límites positivos: definen el perímetro dentro del cual cada organización debe desarrollar su estrategia de IA, en coherencia con su modelo de negocio, cultura ética y visión corporativa. En este sentido, las barreras no pueden entenderse únicamente como técnicas, de datos, de talento humano o normativas, sino como un conjunto interrelacionado de factores que, en última instancia, están subordinados al análisis del caso de negocio (business case).

Así, si la rentabilidad prevista de una iniciativa tecnológica es negativa, ese constituye un límite evidente. Pero si el retorno es claramente positivo, entonces los límites estarán definidos por lo que sea viable en términos de tecnología, datos, cumplimiento normativo y capacidad operativa.