¿Confían los españoles en la inteligencia artificial? Una lectura estratégica del pulso social y corporativo

Durante los últimos años, la inteligencia artificial ha pasado de ser una promesa tecnológica a una realidad funcional en buena parte del tejido empresarial. Compañías de todos los tamaños y sectores se han sumado a esta oleada, desarrollando pilotos, integrando esta tecnología en sus herramientas y procesos y promoviendo el avance en sus organizaciones. Y, en paralelo, la maquinaría normativa también se ha puesto en funcionamiento, principalmente en el continente europeo, el primero en desarrollar y aprobar una norma transversal basada en un enfoque de riesgo y con una mirada puesta en las personas, sus derechos, el impulso de la innovación y la competitividad empresarial.

Sin embargo, el avance de la IA no depende únicamente de la capacidad técnica o del desarrollo tecnológico. La clave está en otro factor más esquivo: la confianza. Tan difícil de construir, pero realmente fácil de perder. Y, complejo de medir. El último estudio global elaborado por la Universidad de Melbourne en colaboración con KPMG aborda precisamente esa dimensión. Bajo el título Trust, Attitudes and Use of AI – A Global Study”, el informe recoge datos de 17 países, incluida España, y permite una lectura valiosa sobre cómo percibimos, usamos y gobernamos la IA.

España: Optimismo vigilante

La fotografía general de España revela una ciudadanía receptiva, pero exigente. Un 72% de los españoles acepta o aprueba el uso de la IA, y un 88% espera que genere beneficios tangibles. Sin embargo, solo un 51% declara estar dispuesto a confiar en ella. Esta diferencia entre aceptación funcional y confianza emocional no es un matiz. Es una advertencia.

Lo que este dato refleja es una forma de adopción condicionada. Las personas usan la IA porque está disponible, porque es eficiente. Pero eso no significa que confíen en ella ni en quienes la desarrollan. Para cualquier organización, ese gap plantea un reto crítico: no basta con desplegar tecnología. Hay que construir legitimidad.

La legitimidad, en este caso, pasa por alinear el uso de la IA con las expectativas sociales. Y esas expectativas son muy claras en el estudio. El 85% de los encuestados se muestra preocupado por los posibles efectos negativos de la IA. Un 38% ha experimentado o presenciado consecuencias negativas directas, y un 34% considera que, en el balance general, los riesgos superan a los beneficios.

Estas cifras conviven con datos muy positivos en términos de impacto percibido. Un 84% afirma que la IA ha mejorado la eficiencia, y un 71% ha observado beneficios directos en su entorno. El problema no es, por tanto, la funcionalidad de la tecnología. El problema es su gobernanza.

En ese terreno, el estudio identifica un desajuste preocupante: el 82% de los españoles cree que es necesario regular la IA, pero solo un 8% conoce las leyes o políticas actuales sobre el tema. Es decir, la sociedad reclama marcos regulatorios, pero no percibe que existan ni que estén cumpliendo su función. Esta falta de visibilidad en la gobernanza erosiona la confianza, especialmente cuando hablamos de usos opacos o poco explicables de la IA en entornos críticos como la sanidad, el empleo o la administración pública.

Te ayudamos a utilizar soluciones de IA seguras, éticas, confiables y transparentes

Desde la empresa, esto exige una respuesta proactiva. Esperar a que los legisladores marquen el camino no es una opción. Las organizaciones que quieran liderar con legitimidad deben construir sus propios marcos de responsabilidad: comités éticos internos, auditorías algorítmicas, transparencia en el entrenamiento de modelos, trazabilidad de decisiones automatizadas.

Riesgos reales: desinformación, errores y uso complaciente

El estudio también entra en un terreno sensible: la desinformación generada por IA. El 72% de los españoles no está seguro de que los contenidos online sean fiables, por miedo a que estén generados por IA. Un 73% teme que la IA pueda manipular procesos democráticos, y un abrumador 87% reclama leyes para frenar esta amenaza. Estos datos no pueden ignorarse, especialmente por aquellas organizaciones que crean o distribuyen contenidos digitales. El riesgo reputacional no está solo en lo que hacemos, sino en lo que permitimos.

Pasemos ahora al lugar de trabajo. El informe revela una adopción soprendente en este ámbito: un 68% de los empleados afirma que su organización ya utiliza IA, y el mismo porcentaje dice emplearla directamente en su labor diaria. Esto indica una penetración muy significativa de la IA en procesos operativos, con un grado de normalización comparable al del correo electrónico o las hojas de cálculo.

Sin embargo, esa adopción no va acompañada de un dominio formativo suficiente. Solo un 46% de los encuestados piensa que tiene las herramientas y conocimientos necesarios para usar la IA de forma adecuada, y apenas un 40% ha recibido formación formal o informal en este campo. Aunque un 62% declara poder usar herramientas de IA eficazmente, la brecha entre uso percibido y comprensión real debe preocuparnos.

Más alarmante aún es el uso complaciente. Un 43% admite haber utilizado IA de manera inapropiada en el trabajo, un 53% ha cometido errores por culpa de la IA, y un 64% ha confiado en sus resultados sin validarlos. Además, un 49% ha presentado contenido generado por IA como propio. Estos datos no son solo un reflejo de falta de preparación. Son una alerta sobre la urgencia de establecer políticas internas claras, controles de calidad y formación ética continua.

En paralelo, los impactos positivos también son patentes. Más de un 47% de los trabajadores ha experimentado mejoras en la eficacia, calidad e innovación gracias a la IA, y un 31% reporta un aumento de la actividad generadora de ingresos. Pero el efecto no es neutro: un 17% declara haber sufrido más estrés o carga de trabajo como resultado de la IA, y un 30% considera que ha aumentado el riesgo de incumplimientos regulatorios o problemas de privacidad.

Es decir, la IA amplifica tanto lo que funciona como lo que no. Las organizaciones deben preguntarse si están realmente rediseñando sus procesos en torno a la IA o si simplemente la están insertando en estructuras que no han cambiado en décadas. La diferencia entre ambas estrategias es la que separa la transformación de la simple automatización.

¿Qué pueden hacer los C-level desde hoy?

A lo largo de todo el estudio aparece una constante: el uso masivo de IA ha llegado antes que la confianza, antes que la gobernanza y antes que la formación. En este contexto, los equipos directivos no pueden limitarse a la gestión tecnológica. Necesitan asumir una posición activa como garantes de la legitimidad del uso de la IA.

Eso implica establecer principios éticos claros, pero también construir estructuras que los hagan operativos. Implica auditar los modelos, pero también formar a los profesionales. Implica comunicar con transparencia, pero también escuchar con humildad. Porque la confianza no se construye desde el código. Se construye desde el criterio. Y ese criterio debe estar en el centro de cualquier agenda de transformación real.