A medida que aumenta el uso y el potencial del Big Data, crece el debate sobre la ética de los datos. La tecnología no es el problema, sino cómo la instruimos y para qué la utilizamos.

Imagine que todo lo que hace cada día está monitorizado. Qué compra en Internet. Qué y con quién habla en las redes sociales. Qué fotos ha hecho. Qué vídeos o series ve. En qué sitio está en ese momento (geolocalización móvil y reconocimiento facial). Qué libros lee. Qué facturas tiene y si es buen pagador o no… Todo. Y ahora imagine que toda esa información conjunta se utiliza para asignar un rating a cada ciudadano. Una calificación que influirá en su posibilidad de obtener un crédito con ciertas condiciones y, quizá en el futuro, también en su posibilidad de conseguir o no ciertos empleos, ir a determinada universidad o acceder a una vivienda concreta.  ¿Ciencia ficción? No. Sobre esto se trabaja en China para –dicen– valorar la confianza y credibilidad de sus 1.300 millones de ciudadanos: el sistema Social Credit System se está desarrollando en fase piloto con voluntarios para, de momento, operaciones financieras. Se implantará totalmente en 2020.

La iniciativa, que recuerda la novela 1984 de G. Orwell, ilustra, en grado extremo, el actual y creciente debate en torno a la ética de los datos. ¿Dónde está la línea que separa un buen de un mal uso o abuso del poder de los datos y los algoritmos?, se pregunta Rachel Botsman, madre filosófica de la economía colaborativa, en su último libro Who can you trust?  How technology brought us together and why it might drive us apart.  Y todo esto antes de que saltara el escándalo Facebook por el uso de los datos de sus usuarios para, supuestamente, influir en campañas políticas.

Las técnicas de Big Data se están aplicando a muchos desarrollo.
La ética del data

Empecemos por el principio. El problema no es la tecnología. El Big Data o Data Analytics y las técnicas de Inteligencia Artificial que lo refuerzan, tienen múltiples usos que, sin duda alguna, contribuyen al desarrollo de la sociedad. Ya se utilizan para investigar enfermedades hoy incurables como el cáncer, para anticipar epidemias y enfermedades, para organizar ayudas humanitarias a gran escala, para controles de inmigración en las fronteras, para diseñar ciudades, edificios u hogares inteligentes, para prevenir el fraude, para reforzar la seguridad en los servicios públicos… Además de muchas otras posibilidades que permiten mejorar la eficiencia de las empresas y su atención a clientes.

La ética debe estar presente en todo el ciclo de vida del dato: captación, gestión, privacidad y uso

Antes de entrar en el debate, conviene aclarar que ni los datos hacen únicamente referencia a datos personales. Ni el concepto de ética del dato se refiere solo a dos momentos concretos: recabar la autorización de los consumidores y proteger su privacidad. Si así fuera, todo sería bastante sencillo.

La ética debe estar implícita en todo el ciclo de vida del Big Data. Empezando por su recolección: por ejemplo, ¿son válidos los datos oficiales de una población si deliberadamente se ha excluido cierta etnia?  Siguiendo por lo más complejo, el algoritmo utilizado: ¿Puede una simple traducción automatizada pecar de machista? ¿Qué validez tendría un juicio apoyado en la alta probabilidad de volver a delinquir que apunta el rating criminal de ese individuo  [sistema muy utilizado en Estados Unidos] según unos datos sesgados? Estos ejemplos ilustran que es un error pensar que, frente a la subjetividad humana, los datos, el Big Data, son siempre acertados y objetivos. Y no necesariamente. Los datos pueden estar sesgados, mal combinados, manipulados o, simplemente, mal interpretados porque se basaron en algoritmos que resultan erróneos.

Pero vayamos al último eslabón de la cadena, el más sutil y poco evidente, el propósito de los datos. ¿Cómo califican el uso de datos personales en redes sociales para influir en campañas políticas? ¿Y cambiar los algoritmos para influir en las emociones de las personas, como reveló este experimento que difundió Facebook en 2014?

Las organizaciones que actúen con ética y transparencia en el uso del Big Data serán bien vistas por la sociedad

“Las organizaciones que actúen con ética y transparencia en el uso de los datos tendrán una valoración positiva de la sociedad. Y al contrario, quienes no se rijan por esos parámetros sufrirán una enorme pérdida en su reputación”, señala Eva García San Luis, socia responsable de Data & Analytics de KPMG. Y subraya que, “en la era digital, la confianza en una organización no se mide solo por su marca, líderes, valores o empleados. También, y cada vez más, por su forma de gobernar y gestionar los datos, los algoritmos, las máquinas…”.

Las empresas son cada día más conscientes –especialmente tras el escándalo de Facebook- de que la gestión de los datos puede tener un impacto en la imagen de la organización. Según una reciente encuesta de KPMG entre 2.190 directivos de diferentes partes del mundo, el 92% se muestra preocupado por el impacto que puede tener en la reputación corporativa la falta de confianza en la gestión que hace de los datos.

Las organizaciones deben actuar con integridad y transparencia.

Los pilares sobre los que debe articularse esa confianza son calidad y precisión de los datos, seguridad y protección de los mismos e integridad en su uso. Sólo algunos de estos aspectos están regulados en el  Reglamento Europeo de Protección de Datos (RGPD), que entra en vigor en mayo y que regula, sobre todo, los dos primeros eslabones de la cadena: recolección (con autorización), gestión (con protección) y uso (con autorización acotada y pasa usos lícitos). Pero quedan sin resolver aspectos difusos que tendrá que atajar las compañías con un buen gobierno de los datos.  “Las organizaciones van tener que ir más allá del cumplimiento normativo para ganarse la confianza de unos consumidores que, por algunos casos de abusos y según qué tipo de información (datos), se muestran todavía recelosos. La clave es comunicación, honestidad y transparencia; explicarles cómo y para qué se utilizan sus datos y las ventajas que les reportan a ellos”, reflexiona Eva García San Luis.

De momento, las empresas no parecen estar poniendo mucho foco en la cuestión ética. La citada encuesta global de KPMG entre directivos de Data Analytics mostraba que solo el 13% de las compañías se declaraba excelente en términos de privacidad y ética en el uso de los datos, aunque en otros aspectos relacionados, como cumplimiento normativo, sacaban mejor nota. En el futuro, es probable que las compañías empiecen a crear comités o subcomités que traten la gestión ética de los datos. Los ciudadanos y el resto de stakeholders acabará imponiéndolo.

No hay un estándar sobre lo que los consumidores consideran un uso aceptable de los datos; varía por culturas y tipo de información

La complejidad no solo radica en resolver preguntas nada sencillas  – ¿Qué es un uso ético y lícito? ¿Y el bien común? ¿O los intereses legítimos?– , sino también en el hecho de que la casuística sobre lo que podríamos considerar un uso adecuado o aceptable de los datos varía mucho según culturas, tipología de los consumidores y de los datos (información) que se esté tratando, según refleja una reciente encuesta de KPMG a más de 7.000 consumidores en 24 países. Un ejemplo: en India, el 78% de los consumidores ve bien que los taxis utilicen datos de geolocalización para proponer rutas a los clientes, algo que en Dinamarca no gusta al mismo porcentaje.

La Inteligencia Artificial aumenta el potencial del Big Data
La Inteligencia Artificial aumenta el potencial del Big Data

 

Ya sea por motivos regulatorios, por el impacto mediático y social que tiene el saltarse la ética, por motivos reputacionales o por convicción, las compañías van tomando nota de la imperiosa necesidad de actuar con transparencia e integridad en un mundo gobernado por los datos. Obviar esta cuestión tiene un alto coste. ¿Cuánto? Solo un dato: 50.000 millones de dólares es lo que perdió Facebook en bolsa en los días que mediaron entre las primeras noticias del escándalo Facebook y su fundador, Mark Zuckerberg, reconociera que la compañía había cometido errores y generado una brecha de confianza con sus usuarios.

¿Cómo hacemos buenas a las máquinas?

El debate sobre la ética del dato se acrecienta a medida que avanzamos del Big Data al siguiente estadio tecnológico, la Inteligencia Artificial. En realidad, ambas vienen de la mano, porque no se entiende Inteligencia Artificial sin Big Data, que es la que alimenta a la primera. Pensemos por ejemplo en el coche autónomo, un claro ejemplo de Inteligencia Artificial que no podría funcionar si el vehículo no recibiera miles de millones de datos en tiempo real para “ver y analizar” todo lo que sucede en la carretera y tomar decisiones al respecto.

En lo relativo a la Inteligencia Artificial, el debate en torno a la ética es mucho más amplio y profundo. Porque hoy las decisiones las toman las personas. Pero en el futuro serán las máquinas, que actuarán teniendo en cuenta los datos, los algoritmos programados  y su propio aprendizaje (Machine Learning). Y para que tomen buenas decisiones, tendrán que estar bien instruidas. De ahí que algunos expertos del MIT sugieran hablar de Machine Teaching en lugar de Machine Learning poniendo así el foco no en las máquinas, sino en las personas que les enseñan.

TEST¿Qué haría usted si condujera un coche autónomo y tuviera que enfrentarse a estas delicadas situaciones?

En torno a la Inteligencia Artificial, el debate es cómo lograr que las máquinas inteligentes estén guiadas por la ética y orientadas hacia el bien común. El tema sobre si los robots acabarán sustituyendo a las personas en muchos trabajos o tareas no deja de ser colateral, aunque surja con frecuencia. La cuestión de fondo es más profunda y lo apuntó hace ya unos años el científico recientemente fallecido Stephen Hawking, el primero que alertó sobre el riesgo para la propia existencia de la raza humana que podría suponer el desarrollo sin control de la Inteligencia Artificial. Hay más voces que se han unido a esta inquietud tanto desde el ámbito empresarial – Elon Musk, CEO de Tesla y SpaceX– como del político: el ex presidente de Estados Unidos, Barack Obama, fue el primero que alertó sobre ello e incluso llegó a diseñar una estrategia nacional de Inteligencia Artificial para el bien común. Hoy varios países en el mundo han alzado también esa bandera, aunque de momento solo de forma académica.

El debate sobre la ética es mucho más profundo en lo que respecta a la Inteligencia Artificial.

 

De momento, el debate sobre la ética en la Inteligencia Artificial no se ha traducido en leyes, pese a que varios países como China, Estados Unidos, Reino Unido y Emiratos Árabes se han propuesto liderar este campo en el horizonte de 2030. Emiratos incluso tiene un ministro de Inteligencia Artificial.

Sí que existen algunos códigos de buenas prácticas a nivel internacional e incluso de ciertas organizaciones. Pero de momento, el debate sigue siendo liderado por prestigiosas universidades y organizaciones de todo el mundo. Varios ejemplos interesantes: Ethics and Governance of Artificial Intelligence Fund, una asociación pilotada por la Universidad de Harward y el MIT; Partnership on AI to benefit people and society, fundada por Amazon, Apple, Facebook, Google, IBM y Microsoft; OpenIA, una organización sin ánimo de lucro en la que participan compañías como Amazon, Microsoft e Infosys. La universidad de Stanford, con la participación de expertos,  está liderando el proyecto One hundred year study on artificial intelligence, con el compromiso de estudiar y anticipar durante cien años los efectos de las tecnologías cognitivas en la sociedad y con este primer informe como resultado.

En España, recientemente, a iniciativa de la Secretaría de Estado de la Sociedad de la Información y la Agenda Digital, se ha puesto en marcha un ‘comité de sabios’ encargado de analizar las implicaciones sociales, jurídicas y éticas de la Inteligencia Artificial y el Big Data. El objetivo es crear un Libro Blanco con recomendaciones al respecto y un Código Ético tanto para el sector público y como el privado sobre cómo utilizar estas tecnologías para el bien común, de la sociedad. Se espera que se publique antes del verano. Recomendaciones que, aplicando el sentido común, estarán probablemente en línea con las  señaladas hace unas semanas por un grupo de 26 investigadores de  universidades como Oxford, Cambridge y Stanford en el que, para evitar usos maliciosos de la Inteligencia Artificial, reclaman que los gobiernos se involucren y colaboren estrechamente con los investigadores; se desarrollen marcos normativos y éticos; que el debate se amplíe a más expertos e incluso inversores; que los científicos identifiquen las mejores prácticas y solo compartan sus hallazgos cuando éstos estén controlados. En definitiva, que todo el mundo tome conciencia de lo que nos estamos jugando con un buen o mal desarrollo de la Inteligencia Artificial. Actuar con cautela pero sin frenar el desarrollo tecnológico. Por ahí debe ir el camino.