¿Es posible controlar la Inteligencia Artificial Generativa?

¿Existe alguna forma de imponer control a los sistemas de IA generativa sin limitar su potencial y beneficios? Si bien es realmente sorprendente la capacidad de las herramientas basadas en Inteligencia Artificial Generativa para responder a cualquier pregunta que se les plantee y generar todo tipo de contenido, desde líneas de código informático hasta acuerdos legales con solo unas pocas indicaciones por parte del usuario final, estas también plantean un gran reto en cuanto a que la Inteligencia Artificial Generativa es capaz de inventar cosas. En los círculos de IA, este problema se conoce como “alucinación“.

Las alucinaciones ocurren cuando la IA, en su afán por encontrar una respuesta agradable y que suene convincente, simplemente inventa hechos y ejemplos. Dado que estas IA están entrenadas para predecir el texto más probable que siga lo que el usuario ha escrito, no dirá que no sabe la respuesta, por lo que el usuario final debe adivinar si acaba de recibir una respuesta brillante o ciencia ficción.

Eso podría ser una ligera molestia o incluso algo divertido en un entorno de consumo particular, pero en el ámbito profesional, esa confusión entre verdad y ficción es imposible de asumir en un entorno productivo, sin mencionar una enorme responsabilidad potencial para la organización.

Las empresas deben cumplir con las regulaciones relevantes para sus respectivas industrias (por ejemplo, sectores de salud, legal, energía, etc), y existe un campo minado de implicaciones legales, financieras y éticas si el contenido generado es inexacto, inaccesible u ofensivo. Por ejemplo, el riesgo de sufrir daños cuando un chatbot de IA generativa da instrucciones incorrectas para cocinar una receta es mucho menor que cuando le da instrucciones a un trabajador para reparar una pieza de un motor de avión. Si no se diseña y se implementa con pautas responsables y éticas claras, la IA generativa puede tener consecuencias no deseadas y potencialmente causar daños reales.

Aplicación de la Inteligencia Artificial Generativa en las organizaciones

En los negocios, la IA generativa tiene el potencial de transformar la forma en que las empresas interactúan con los clientes, sus empleados e impulsar el crecimiento empresarial.Una encuesta reciente realizada por KPMG US a 300 ejecutivos Senior y C-level (KPMG Generative AI Survey) muestra que el 65% de los líderes empresariales cree que la IA generativa tendrá un impacto alto o extremadamente alto en su organización en los próximos 3 a 5 años, siendo optimistas sobre las oportunidades para aumentar la productividad (72%), cambiar la forma de trabajar (65%) y fomentar la innovación (66%).. Las empresas están explorando cómo podría afectar a cada parte del negocio, incluidas las ventas, el servicio al cliente, el marketing, TI, el ámbito jurídico, los recursos humanos y otros.

Sin embargo, los líderes de las áreas TI / Digital necesitan una forma confiable y segura para que sus usuarios utilicen estas tecnologías. El 45% de los líderes empresariales piensan que puede tener un impacto negativo en la confianza de sus organizaciones si no se implementan las herramientas adecuadas de gestión de riesgos.

Aprovechar la Inteligencia Artificial Generativa, pero de manera controlada y supervisada

¿Significa esto que la IA generativa es una tecnología aparentemente prometedora que pronto estará destinada al montón de chatarra de la historia debido a su incapacidad para ser controlada eficazmente y puesta en práctica? En una palabra: No.

¿Quieres saber cómo puedes integrar la IA pero de manera segura y confiable?

Necesitamos encontrar formas de hacer un uso positivo de la IA generativa sin estar limitados por aspectos negativos como las alucinaciones. La pregunta es: ¿cómo? ¿Cuáles son las mejores prácticas y salvaguardas que hacen que sea seguro para las organizaciones sumergirse en las aguas generativas de la IA?

Comprender cómo funciona la IA generativa es crucial para comprender cómo se puede controlar y obtener el máximo beneficio productivo. Los modelos de IA generativa de lenguaje natural, como ChatGPT y Bard, se basan en la llamada tecnología “transformer” en “Modelos de Lenguaje Grande” (Large Language Models en inglés). Durante la fase de entrenamiento, reciben grandes cantidades de texto con la misión de predecir palabras que quedaron en blanco. Para ayudar a “llenar los espacios en blanco”, estos modelos construyen una “visión del mundo” a partir del texto que han visto.

Una visión del mundo así no es necesariamente “correcta” ni está alineada con nuestra forma de pensar. Y si esa visión del mundo es incorrecta, es probable que la IA generativa responda las preguntas de manera incorrecta. Para hacer las cosas aún más desafiantes, modificar un modelo de lenguaje grande no es una tarea tan sencilla como modificar un algoritmo de aprendizaje automático más clásico, como el que se usa para la clasificación de documentos, por ejemplo.

Mientras que guiar el “proceso de pensamiento” de un modelo clásico de aprendizaje automático es bastante sencillo (se ajustan los datos que se le suministran), el funcionamiento interno de un modelo de lenguaje grande y la forma en que toma decisiones son bastante complejos. Esto hace que sea muy difícil dirigir la IA generativa en una dirección particular como se puede hacer con otros modelos de aprendizaje automático.

Dado que en este momento no existe una manera accesible y efectiva de modificar la visión del mundo de la IA generativa, la mejor manera de controlarla es asegurarse de que cualquier respuesta que brinde se base en recursos de información confiables y de calidad, a través de un enfoque llamado “conexión a tierra“.

Este enfoque de “conexión a tierra” se basa en circunscribir la respuesta de la IA generativa sobre recursos de datos confiables (internos o externos) evitando su tendencia a alucinar, lo que convierte a la IA generativa en un asistente que puede realizar tareas de investigación y recopilar información de manera rápida y eficiente.

Por ejemplo, un abogado podría utilizar una interfaz tipo ChatGPT que se conecte a recursos internos y externos confiables para investigar una pregunta sobre la ley de aduanas en Brasil. La IA generativa fundamentada, a su vez, proporcionaría no sólo las respuestas, sino también referencias al material que se utilizó para generar esa respuesta.

En otras palabras, en lugar de pedirle a la IA generativa que encuentre la respuesta por sí misma, la conexión a tierra divide la tarea en dos: dejar que la IA generativa encuentre la documentación de referencia para responder la pregunta y luego formule una respuesta basada en lo que encontró exclusivamente en el documento. Es decir: “domar” la IA generativa de esta manera es la única manera de aprovechar verdaderamente su potencial y es un paso crucial para las organizaciones con visión de futuro que desean desbloquear sus beneficios.

Las empresas deben revisar todos los conjuntos de datos y documentos que se utilizarán para entrenar estos modelos y eliminar elementos sesgados, obsoletos o erróneos. Este proceso de depuración es clave para los principios de seguridad y precisión de la IA generativa.

Medidas adicionales para el control y explotación responsables de la IA Generativa

Aparte de este enfoque, las organizaciones necesitan un marco claro y viable sobre cómo utilizar la IA generativa, alineado con sus objetivos de negocio, anticipando y controlando cómo la IA generativa impactará y transformará los procesos de negocio y corporativos.

Aquí es fundamental el enfoque de situar a las “personas en el centro” (“human in the loop” en inglés). Las herramientas de IA generativa no siempre son capaces de comprender el contexto personal o empresarial. Los expertos en cada negocio y contenido deben participar en un ciclo de pruebas exhaustivas para revisar la precisión de los resultados, detectar sesgos y garantizar que los modelos funcionen según lo previsto.

Escuchar a los empleados, a los asesores de confianza y a las comunidades de expertos es clave para identificar riesgos y orientar el desarrollo y uso de la IA generativa. Algunas organizaciones han formado consejos asesores de IA (compuestos por empleados de toda la empresa, expertos externos o una combinación de ambos) para orientar el desarrollo de la IA.

La IA generativa está evolucionando rápidamente, por lo que los pasos que las empresas deben dar también evolucionarán con el tiempo. Sin embargo, apegarse a un marco ético firme, “conectado a tierra”, con el negocio y las personas en el centro, ayudará a las organizaciones a navegar este período de rápida transformación.