La IA necesita inteligencia ética y jurídica

Es un asunto que concierne a todos: usuarios, abogados, tecnólogos y probablemente filósofos. La Inteligencia Artificial soluciona tantos problemas como abre interrogantes jurídicos y éticos. En la Unión Europea se espera para este año un reglamento específico que marcará un antes y un después, como lo hizo en 2016 la legislación sobre protección de datos.

Ingenieros y abogados se sentaron juntos en la jornada “IA Responsable y Gobernanza de Datos”, organizada por KPMG. Un foro necesario porque hoy en día la IA genera tantas expectativas como miedos e incertidumbre, como recordó Eva García San Luis, socia de Lighthouse de KPMG en España.

La deontología ya está sobre la mesa y muchas empresas tienen publicados y debatidos los principios que guían su actuación en esta materia, como se puso de manifiesto durante la sesión, pero la regulación no avanza al mismo ritmo que la ética y la propia tecnología. Actualmente se debate en el Parlamento Europeo el esperado reglamento sobre IA.

“La inteligencia Artificial está yendo más rápido que cualquier otra tecnología”
Eva García San Luis
Socia de Lighthouse de KPMG en España

Eva García San Luis planteó varias preguntas pendientes de resolver. ¿Cómo sabemos que estos modelos de IA no tienen ningún sesgo? ¿Cómo gobernar mis datos? Hablamos de modelos que “son como cajas negras”, dijo la socia de Lighthouse. La regulación es urgente, para que podamos confiar en la Inteligencia Artificial, pero también debe ser flexible para que explotemos sus posibilidades y Europa sea competitiva.

“El reglamento europeo de IA establece las bases legales que nos permitirán usar y reutilizar cada vez más los datos”
Noemí Brito
Directora y responsable del área de 'Legal Operations & Transformation Services' (LOTS) de KPMG Abogados

Según Noemí Brito, directora y responsable del área de ‘Legal Operations & Transformation Services’ (LOTS) de KPMG Abogados, la estrategia en materia de IA de la UE ha coincidido casi al mismo tiempo que la de datos porque ambas van muy de la mano. Unas normas que van a coincidir con las regulaciones españolas, como la reciente Carta de Derechos Digitales. Estamos viviendo, según la responsable de KPMG, un momento disruptivo desde el punto de vista jurídico y de negocio: usar la ley como herramienta competitiva.

“Hoy en día la economía y las empresas se basan en datos, y sobre esos datos pivota la información digital. La IA es capaz de desplegar tecnologías disruptivas y emergentes que permiten la gobernanza eficaz de los datos”
Alberto Estrelles
Socio Director de KPMG Abogados

“La piedra base para el desarrollo de cualquier solución de IA son los datos”, apuntó en el mismo encuentro la directora de Smart Forensic de KPMG en España, María Barcenilla. Las empresas deben ser proactivas para cumplir la normativa y los estándares éticos de la Inteligencia Artificial, tanto a nivel internacional como europea y española.

“Porque la IA -explicó Alberto Estrelles, socio director de KPMG Abogados- puede vulnerar los derechos fundamentales: es opaca, es compleja y también es autónoma. Es fundamental que las empresas, en el diseño de esa IA, tengan en cuenta los riesgos regulatorios para minimizarlos y, al mismo tiempo, aprovechar las oportunidades que presenta”.

“Uno de los objetivos confesos de la regulación europea de la IA, además de dar confort ético, es que seamos competitivos, quiere permitir la innovación. ¿Cómo llegamos a un equilibrio entre las dos cosas?”
Regina Ojea
Senior Legal Counsel Regulatory Affairs en Amadeus

Como dice Regina Ojea, Senior Legal Counsel Regulatory Affairs en Amadeus, vivimos aún hoy “en una especie de puzle. Cada empresa debe determinar cuáles son sus obligaciones y no es fácil”. La responsable de Amadeus trazó un paralelismo entre el reglamento de IA que preparan en Estrasburgo con el de Protección de Datos. Tienen bastantes cosas en común en cuanto a su alcance y es probable que, igual que lo hizo el RGPD, el europeo sea el estándar que se adopte en el resto del mundo. En particular, en aquellas regiones donde los patrones éticos no sean tan elevados.

Un punto de vista complementario vino de la mano de Pedro Hinojo, de la Comisión Nacional de los Mercados y la Competencia (CNMC). En el organismo regulador monitorizan la conducta de empresas con una base más digital, explicó el subdirector de Sociedad de la Información, cuando pueden dar lugar a problemas de competencia.

“Cuidado con los sesgos desde el punto de vista del derecho de la competencia. Una empresa en posición de dominio tiene una especial responsabilidad de comportarse respetando una competencia efectiva”
Pedro Hinojo
Subdirector de Sociedad de la Información de la CNMC

Cecilia Álvarez, EMEA Privacy Policy Director de Meta, apeló a no dejarse llevar por el miedo, el pesimismo o la resignación ni por parte de las empresas ni por los legisladores. Los períodos tan complicados que estamos viviendo impactan nuestro ánimo y expectativas (COVID-19, guerra de Ucrania, inflación, …). Sin embargo, “regular desde el miedo no es precisamente la mejor forma de enfrentarnos a retos complicados, que deben ser también ilusionantes”, subrayó.

“En la regulación de IA, debemos evitar que todo acabe siendo alto riesgo. Una de las enseñanzas del Reglamento europeo de protección de datos personales es precisamente la regulación por el riesgo. Es importante que tengamos criterios para identificar grados de impacto y de riesgo. No es tanto fijarse (o no solo) en la tecnología, sino en los casos de uso de dicha tecnología”
Cecilia Álvarez
EMEA Privacy Policy Director de Meta

Y defendió que, a la hora de legislar, no se trabaje en silos. Las propuestas de regulación en materia de IA, datos (personales y no personales), la propiedad intelectual o la responsabilidad de producto se están abordado de forma aislada, sin ser conscientes de sus interrelaciones. “Debemos ver la película completa”, dijo la responsable de Meta

La ética de la tecnología: los grandes retos son los imprevistos

En tecnología los principales retos éticos no son los obvios, los que nos imaginamos cuando iniciamos los procesos, sino los imprevistos. Salen al cabo de unos años: es como lo que acaba de ocurrir con los más de 100 colegios de Seattle (EEUU), que han demandado a las redes sociales por influir en el cerebro y el aprendizaje de los niños, como recordó Richard Benjamins, Chief AI & Data Strategist de Telefónica y asesor externo del Parlamento Europeo.

Uno de los problemas con los que nos enfrentamos es que no sabemos qué es la Inteligencia Artificial. Es un reto llegar a un consenso para definirla, e incluso en la UE, como dijo Richard Benjamins, “le están dando mil vueltas”. El segundo problema tiene que ver con la definición de lo que es la IA de alto riesgo, la regulación especial cuando afecta a áreas sensibles como el reconocimiento facial, la contratación o la biométrica.

En cualquier caso, los principios jurídicos y éticos deben extenderse a todos los momentos y todos los usos de la IA: “Cuando la desarrollamos, cuando la compramos, cuando la usamos y cuando la vendemos”, recordó el directivo de Telefónica. Sin olvidar una realidad que no podemos soslayar: hay muy poca experiencia publicada. No tenemos suficiente perspectiva para conocer todos los riesgos de su implementación.

No se trata de analizar tecnologías, sino casos de uso 

La clave de un buen protocolo ético y jurídico en las empresas está en empezar de manera temprana, cuando se inician los procesos. No esperar a que la herramienta empiece a dar sus frutos. Y abordar la IA y la gobernanza de los datos desde un punto de vista multidisciplinar, con “total colaboración entre las áreas jurídica y de tecnología. Es un esfuerzo compartido. A todos les incumbe qué datos se están gestionando”. Es lo que destacó en su intervención Pilar de Vicente Rodríguez, Head of Data & Analytics de FCC.

Tampoco se puede abordar la IA como algo genérico. “Cada vez que se desarrolla una tecnología es necesario aterrizar ese caso. Cada caso de uso merece un análisis diferenciado e intervienen en primera instancia todas las personas que están involucradas”, explicó. Un acercamiento jurídico y ético a los casos de uso, más que a la esencia de la tecnología, en donde coincidió con la visión de la responsable europea de Meta.

“Vemos el dato como un activo que se contextualiza en todo su ciclo de vida. En cada una de las etapas: extracción, almacenamiento o consumo final”
Pilar de Vicente Rodríguez
Head of Data & Analytics de FCC

Pilar de Vicente defendió también “velar por el principio de minimización de los datos. Tienen que ser pertinentes, ajustados y limitados a los que necesitamos estrictamente”.

Los usuarios deben saber quién está al otro lado: una persona o un robot

Son los propios diseñadores de los algoritmos y los científicos de datos los primeros interesados en un uso ético de su tecnología, subrayó Elena Alfaro, Global Head of Data & Advanced Analytics, Client Solutions, de BBVA.

“La preocupación por los efectos no deseados de la IA y la necesidad de regular sus riesgos es algo que nace desde la comunidad científica”
Elena Alfaro
Global Head of Data & Advanced Analytics, Client Solutions, de BBVA

Pasa lo mismo con las empresas que manejan inmensas bases de datos y con un alto nivel de confidencialidad, como las entidades bancarias. El debate celebrado en KPMG sirvió precisamente para contrastar las guías elaboradas por las principales compañías españolas. En todas ellas se repiten conceptos como la transparencia, la sostenibilidad, la humanización o la insistencia en no sesgar el manejo de los datos para provocar situaciones que afecten a la igualdad y la equidad.

Los usuarios deben saber si hay una persona o es un robot quien elabora una predicción, contesta a un chat o calcula un resultado, como advirtió Elena Alfaro, que pidió además rigor y prudencia. “La responsabilidad recae en personas, no en sistemas”, subrayó la representante de BBVA.

Tener unos principios claros es lo que se plantearon en Telefónica en 2018, con sus primeras guías sobre IA: “Una inteligencia artificial responsable desde el diseño, igual que la privacidad y confidencialidad también desde el diseño”. Y saber graduar la estimación del riesgo: tener claro qué es lo grave y qué es lo importante, según Richard Benjamins.

“No es lo mismo equivocarse en la recomendación de una película que en un diagnóstico médico. Si la escala aplica a 10, 1.000 personas o a un continente. Y también la probabilidad. Hay algoritmos con una precisión del 80%, otros del 90%, y otros del 99%”
Richard Benjamins
Chief AI & Data Strategist de Telefónica

En Microsoft proporcionan servicios de IA donde han excluido el tratamiento de información que afecta a temas sensibles, como el género o la ideología. Alberto Pinedo, National Technology Officer, observa dos retos en materia de IA. En primer lugar, la formación, no solo de los usuarios y de quienes diseñan los datos y la IA, sino también de los clientes empresariales que contratan esos servicios. El segundo reto tiene que ver con la gobernanza del dato. La lista de principios de Microsoft coincide con los expuestos durante la sesión: seguridad, inclusión, equidad, responsabilidad, seguridad o confiabilidad.

“Hemos excluido directamente algunas soluciones consideradas de alto riesgo, como la detección de sentimiento, género, raza o pertenencia política que puedan tener un impacto negativo en la sociedad”
Alberto Pinedo
National Technology Officer de Microsoft

“Lo difícil no es elaborar una lista de principios, lo importante es cómo los pones en práctica, qué herramientas uso, si son o no de pago. La democratización de la IA debería estar en el discurso. La tecnología tiene que ser accesible para todos”, sostuvo Alberto Pinedo. Y tener en cuenta que lo que hoy regulas pronto puede quedarse obsoleto o con derivadas no previstas, como sostenía Richard Bejamins de Telefónica. “Esto evoluciona muy rápido, cada seis meses cambia todo”

Las Pymes necesitan ayuda: la democratización de la Inteligencia Artificial

Nuria Ávalos, directora General de IndesIA y directora de Consorcios Digitales en Repsol, puso el acento en la diferente percepción que se tienen en las grandes compañías y en las Pymes. En estas últimas se percibe más la IA con miedo y con desconocimiento, como apuntaba Cecilia Álvarez. Las barreras limitan el acceso a la IA y a su aplicación práctica.

“En IA hay que invertir en talento y también en infraestructuras, que no son baratas, y eso es una barrera para las Pymes”
Nuria Ávalos
Directora general de IndesIA y directora de Consorcios Digitales en Repsol

Una de estas barreras tiene que ver con la capacitación. Hoy es muy difícil encontrar profesionales preparados incluso para las grandes compañías, más aún para las pequeñas y medianas, según Nuria Ávalos. También necesitan orientación: ahí es donde se crea en 2021 IndesIA, la Asociación Industrial para el Impulso de la Economía del Dato y de la Inteligencia Artificial.

Se trata de “ayudar desde las grandes con mecanismos, metodologías, herramientas. Hemos hecho una plataforma para que esas empresas puedan probar modelos, gobierno de datos, casos de uso. Lo que hemos probado las grandes empresas y que ha dado resultado: así tu curva de aprendizaje es más rápida”, explicó la directora general de IndesIA.

“Hay demasiado miedo. Hay que saber diferenciar bien dónde están los riesgos reales. No todo puede ser IA de alto riesgo”
José Ángel Alonso
Socio de Lighthouse de KPMG en España

José Ángel Alonso, socio de Lighthouse de KPMG, fue el encargado de cerrar la sesión. Como resumen, unas ideas clave:

  • Atención al componente humano de los algoritmos: no los hacen robots sino personas.
  • Hay que actuar urgentemente. La IA está en las empresas y el momento es ahora.
  • Aún está en discusión qué es realmente la IA
  • Las empresas necesitan un modelo de gobierno desde etapas tempranas y muy enfocada en casos de uso.
  • La normativa en IA no es restrictiva: anima a utilizar los datos.
  • Vendrán retos que ni siquiera habíamos pensado.
  • La regulación es una especie de puzle. Implica un reto de adaptación y autoevaluación que no es menor.