Nadie quiere quedarse atrás: líderes empresariales, entidades públicas e individuos están inmersos en la revolución de la inteligencia artificial. Aprovechar todo su potencial es el objetivo común. Y con razón: esta tecnología puede impulsar la economía, la eficiencia de costes y, en definitiva, mejorar nuestra calidad de vida. Sin embargo, cabe preguntarse si estamos prestando suficiente atención a los riesgos asociados.
“Hablamos de los riesgos éticos y legales que acompañan a una tecnología que ha revolucionado todos los ámbitos de nuestra vida (y sigue haciéndolo). Y aquí los equipos legales tienen una gran responsabilidad. Porque la confianza en la IA no es solo un tema de cumplimiento: los clientes exigen cada vez más transparencia sobre cómo las empresas están utilizando esta tecnología y que la misma resulte también plenamente explicable”, apunta Noemí Brito, socia en el área Mercantil. Responsable del área de Propiedad Intelectual y Nuevas Tecnologías de KPMG Abogados.
Es por ello que los departamentos legales deben adoptar una actitud proactiva e ir más allá del cumplimiento de la norma. Solo así podrán posicionar su organización e inspirar confianza en el mercado.
Lo primero a lo que se enfrentan los equipos legales es a un panorama regulatorio en torno a la IA que sigue evolucionando rápidamente a medida que las jurisdicciones lidian con los avances de la tecnología. La foto varía mucho entre regiones y países, con nuevas iniciativas políticas que se desarrollan e introducen de manera continua.
Si nos centramos en la Unión Europa (UE), el Reglamento de Inteligencia Artificial (RIA), que entró en vigor en agosto de 2024, define y establece requisitos específicos para los sistemas de IA de alto riesgo, incluidos la alfabetización de la IA, la gestión de riesgos, la documentación técnica, la supervisión humana, las evaluaciones de impacto, la gobernanza de datos o las medidas de ciberseguridad.
En Reino Unido, sin embargo, aún no se ha aprobado ninguna legislación y se está enfatizando un “enfoque pro-innovación para la regulación de IA”. Esto quiere decir que se está aprovechando la experiencia de los reguladores sectoriales para crear reglas específicas para cada industria basadas en la seguridad, la transparencia y la explicabilidad, entre otros.
En paralelo, también hay propuestas para introducir leyes sobre la mejora del acceso a datos de entrenamiento y el apoyo al crecimiento en el sector de la IA para impulsar aún más su adopción. En este sentido, el Instituto de Seguridad de la IA desempeñará un papel crítico en garantizar la seguridad y confiabilidad de los modelos de IA, con consultas sobre la regulación de la seguridad esta tecnología, esperadas para finales de este año.
“No hay duda de que la velocidad a la que avanza cualquier tipo de tecnología siempre va a superar a la velocidad a la que puede responder la ley. Ante este escenario, todos tenemos una parte de responsabilidad: los reguladores y legisladores deben garantizar que el uso de la inteligencia artificial es apropiado y que se toman las medidas correspondientes ante prácticas inapropiadas, poco o nada éticas o ilegales. Y, por su parte, las empresas deben garantizar una supervisión continua de sus regímenes legales para garantizar que no incurren en ningún incumplimiento, así como que el uso de la IA es ético”, subrayó Noemí Brito.
Pero no solo hay que atender a los aspectos puramente formales. Las consideraciones éticas siguen estando al frente del desarrollo de la IA: persisten cuestiones como hasta qué punto es apropiado el uso la IA, particularmente en aquellos casos en los que los desplegadores de esta tecnología tienen un conocimiento o comprensión limitado de lo que hace y cómo utiliza los datos disponibles. Aspectos como la transparencia, su explicabilidad, la calidad de los datos y la equidad, el sesgo, la discriminación y la toma de decisiones automatizadas deben abordarse en medio de la desconfianza que sobrevuela siempre a un nuevo desarrollo tecnológico.
Como consecuencia, las empresas ya están creando juntas de ética para asegurarse de que los desplegadores consideren estos problemas y posean las habilidades adecuadas para adoptar la IA de manera segura
Otra de las consecuencias de la incorporación de la IA a los negocios es su inclusión en la oferta de los proveedores de servicios, por lo que las empresas deberán evaluar y mitigar los riesgos por sí mismas, pero también hacer una evaluación de cómo los proveedores clave están utilizando la tecnología.
Y es que los departamentos legales también suelen utilizar terceros para proporcionar sistemas de TI, y será necesario que se realice la debida diligencia y se blinde con una protección contractual adecuada.
La protección de datos y la privacidad también son cuestiones críticas en el panorama de la IA. Incluso en ausencia de una regulación específica, el uso de datos personales debe cumplir con las leyes de protección de datos relevantes cuando se utilizan junto con servicios o productos de IA.
En Europa, el Reglamento General de Protección de Datos (en adelante, RGPD) establece varios principios que los responsables y encargados del tratamiento de datos deben seguir en el manejo de datos personales. En términos generales, estos principios establecen que todas las actividades de tratamiento deben estar claramente definidas, ser transparentes y justas.
Esto requiere una comprensión detallada del uso de datos personales por parte de la IA, sus resultados y dónde se están tomando decisiones sobre ellos Así, “las empresas deben asegurar que el uso de datos personales sea compatible con el propósito original para el cual se obtuvieron, y deben ser capaces de establecer una base legal adecuada, cumpliendo con todos los principios y requerimientos de la normativa de protección de datos aplicable”, añade Noemí Brito.
Y, por otro lado, las empresas también deben considerar hasta qué punto los productos de IA proporcionan una seguridad adecuada para proteger los datos personales compartidos, así como anticiparse y preparar cuál sería su respuesta si algún sujeto se opone a que sus datos sean utilizados por o para entrenar IA.
En el caso concreto de Europa, realizar una evaluación de impacto de protección de datos (DPIA) será un paso imprescindible. Esta evaluación ayuda a garantizar el cumplimiento de las leyes de protección de datos antes de que se procese cualquier dato personal junto con o por el producto de IA. Asimismo, la DPIA también buscará formas de mitigar el impacto en los sujetos de datos y reducir el riesgo.
Las tensiones entre la innovación de la IA y la industria creativa ha sido la causa de mucho debate entre líderes corporativos y empresariales.
En este sentido, los departamentos legales deben considerar hasta qué punto tienen derecho a usar consejos, contratos, documentación y datos personales recopilados en el transcurso de apoyar a clientes o gestionar el negocio para entrenar IA. Los beneficios de usar IA generativa para acelerar el proceso de redacción deben tener en cuenta quién posee la información y si las firmas de abogados tienen el derecho de usarla para estos fines.
En cualquier caso, “los equipos legales y de cumplimiento deben adoptar un enfoque de protección aumentada, teniendo en cuenta la ley y los criterios éticos asociados con la función legal. De hecho, muchas asociaciones de abogados han emitido directrices claras con respecto al uso de IA generativa en el campo legal”, recuerda Noemí Brito.
Los avances tecnológicos en la IA continúan impulsando la innovación y remodelando las industrias. El desarrollo de modelos de IA de propósito general (GPAI) ha planteado nuevos desafíos y oportunidades. Estos modelos son capaces de realizar un amplio abanico de tareas y requieren una gestión de riesgos y documentación técnica robusta para garantizar un despliegue seguro y efectivo. Las disposiciones del Reglamento europeo de IA para modelos de GPAI destacan la necesidad de resúmenes detallados de los datos de entrenamiento y la supervisión continua para mantener la precisión y la fiabilidad.
Un desafío entre los departamentos que buscan aprovechar al máximo los modelos de GPAI es la necesidad de asegurar que los datos ingresados en la IA estén debidamente digitalizados, limpios y curados para maximizar la calidad de los resultados, lo que puede llevar tiempo, dinero y habilidad. Aquellos que utilizan modelos de terceros deben considerar si los modelos que extraen datos de Internet son adecuadamente confiables y no producen resultados sesgados o engañosos.
Pero ¿qué ocurre dentro de los departamentos legales? Aquí también se está produciendo una penetración de esta tecnología y la IA generativa ya se está aplicando a muchos casos de uso. Entre ellos, en la redacción legal, la gestión de contratos y la supervisión, el control de riesgos legales y de cumplimiento y la supervisión regulatoria, entre otros.
No obstante, incorporar la rendición de cuentas probablemente requerirá que los equipos internos desarrollen nuevas habilidades no solo para entender y aprovechar al máximo las capacidades de la IA, sino también para identificar y evaluarlos riesgos asociados. El futuro verá los roles de los profesionales legales internos ampliados por la IA, y es probable que algunas tareas las acabe haciendo la propia tecnología.
Sin duda, es un buen momento para redefinir el rol de los equipos legales y de la función legal en general, y para establecer cómo aprovecharán al máximo el potencial de la IA. Los equipos legales deben participar activamente en la definición de las estrategias de transformación digital e innovación de sus organizaciones. También deben reimplantar sus modelos operativos y de gestión para optimizar los procesos, así como para proporcionar un mayor valor estratégico corporativo.
Deja un comentario