Interpretar (y comprender) la Inteligencia Artificial

¿Por qué es importante comprender y ser capaces de interpretar las decisiones tomadas por los modelos de analítica avanzada que utilizan Inteligencia Artificial (Machine Learning)?

En nuestro día a día utilizamos y confiamos a ciegas en una gran cantidad de tecnología de la que apenas podemos intuir sus bases de funcionamiento. Entonces, ¿qué tienen de diferente los modelos de inteligencia artificial para que sea tan importante entender y explicar su funcionamiento interno?.

En 2015 el prestigioso hospital Monte Sinaí de Nueva York desarrolló un modelo de inteligencia artificial llamado Deep Patient que, aprendiendo de los datos de un millón de pacientes, era capaz de predecir enfermedades. En concreto, resultó ser casi infalible en la detección de la esquizofrenia, aunque nunca se utilizó con este objetivo.

Si funcionaba tan bien ¿cuál era el problema? La esquizofrenia es una enfermedad cuyas causas son especialmente difíciles de explicar por la ciencia médica y nadie fue capaz de entender cómo Deep Patient realizaba sus predicciones. De este modo, los médicos no podían ofrecer argumentos a sus pacientes que explicasen esta conclusión y recetarles el tratamiento adecuado. En resumen, sin entender las predicciones no confiaban en el modelo.

Lo más sencillo sería responsabilizar a los prejuicios humanos de no utilizar un gran avance de tecnología médica, pero antes de emitir este juicio deberíamos ponernos en situación. Si en una revisión médica un algoritmo recomienda que tu hijo sea operado de corazón para evitar un grave problema indetectable, pero nadie puede explicarte cómo ha llegado un algoritmo a esta conclusión, ¿aceptaríais operar a tu hijo sin una explicación de un médico cualificado?.

Con el crecimiento imparable de la analítica avanzada, se hace cada vez más patente la necesidad de disponer de modelos de IA comprensibles y explicables, que permitan mejorar la confianza en el empleo de esta tecnología. El objetivo sería evitar ejemplos como algunos modelos de selección de personal con inexplicables sesgos de género o etnia, modelos de predicción de fraude con falsos positivos aleatorios, o modelos de detección de vídeos violentos en internet que no diferencian acciones de terrorismo real de escenas de videojuegos de guerra.

Comprender las redes neuronales

El debate ha adquirido tal relevancia que el departamento de Defensa de EEUU ha lanzado un gran programa de proyectos en colaboración con las principales universidades y centros de investigación del país, entre ellas el MIT, para dotar de explicabilidad a los modelos Machine Learning que posteriormente se emplearán en los vehículos autónomos y sistemas de inteligencia militar. Adicionalmente, la Unión Europea estudia regular la obligatoriedad de que las empresas sean capaces de explicar a sus clientes las decisiones tomadas por todos sus sistemas basados en IA.

Entendida la importancia, ¿por qué estos modelos son tan difíciles de interpretar? Básicamente, porque la mayoría se basan en modelos deep learning, principal responsable de la explosión de la IA. Estos modelos utilizan las ya famosas redes neuronales, que son un conjunto de miles y miles de neuronas simuladas interconectadas entre sí en capas. Cada neurona toma una pequeña decisión y pasa el resultado a otras neuronas adyacentes para que a su vez tomen su decisión y la pasen a las siguientes en un procedimiento de aprendizaje iterativo que produce un resultado global. Este mecanismo hace prácticamente imposible observar una red neuronal de gran tamaño en funcionamiento y comprender qué ha ocurrido dentro.

Pero no nos desanimemos: al igual que no es necesario conocer en detalle lo que ha ocurrido en el cerebro de una persona para comprender los motivos de su decisión de comprarse un coche nuevo, se está trabajando con buenos resultados en obtener argumentos para explicar de forma sencilla la complejidad de estas redes neuronales.

De hecho, desde KPMG apostamos por el Trusted Analytics, entendido como un conjunto de metodologías, técnicas y herramientas que ayudan a nuestros clientes a interpretar sus modelos analíticos y explicarlos a sus áreas de negocio, evitando que sean “cajas negras”. Este proceso es lo que denominamos “Unboxing de Modelos”.