La explicabilidad de la IA y cómo las personas, empresas y organizaciones pueden implementarla de manera efectiva es un tema poco difundido, pero imprescindible de entender, visibilizar y ejercitar. En este artículo abordaremos el concepto explicabilidad de la IA y cómo comenzar a implementarla en las organizaciones.
Introducción
Si bien es reciente la disponibilidad de la IA multimodal para su empleo masivo, muchas son las organizaciones que confían cada vez más en estos sistemas para tomar decisiones que pueden afectar significativamente los derechos individuales, la seguridad humana y las operaciones comerciales críticas.
Surge así la necesidad de comprender cómo estos modelos llegan a sus conclusiones, qué datos utilizan y si se puede confiar en sus resultados.
Muchas empresas y organizaciones han comenzado a adoptar herramientas básicas para comprender cómo y por qué los modelos de IA generan su entendimiento de las cosas y deciden, pero para aprovechar al máximo el valor de la IA se requiere una estrategia integral.
¿Qué es la explicabilidad de la IA y porqué es tan necesaria?
En el documento “Recomendaciones para una inteligencia artificial fiable” emitido por la Subsecretaría de Tecnologías de la Información de Jefatura de Gabinete de Ministros de argentina (Disposición 2/2023) se define la explicabilidad como la condición que “implica proporcionar información fácil de entender a las personas afectadas por el resultado de un sistema de IA que les permita cuestionar el resultado en particular, en la medida de lo posible, los factores y la lógica que condujeron a un resultado”.
En el documento se dan además, una serie de recomendaciones con el objetivo de hacer el mejor uso posible de la IA, respetar los derechos de la persona humana y generar confianza en la sociedad.
Otra fuente consultada es el artículo “Por qué las empresas necesitan una IA explicable y cómo ofrecerla” (Grennan, Kremer, Singla, Zipparo. 2022). Dice que las empresas que obtienen mayores beneficios de la IA atribuyen a su uso al menos el 20% de sus ganancias brutas (EBIT: ganancias antes de intereses e impuestos) y que tienden a seguir las mejores prácticas que permiten una buena explicabilidad. También, se nos advierte que: “A pesar de que la explicabilidad gana importancia, se está volviendo significativamente más difícil” de alcanzar.
Esto es así porque las técnicas de modelado que impulsan muchas aplicaciones de IA, como el aprendizaje profundo y las redes neuronales, son inherentemente difíciles de entender por los humanos. Esto se agudiza ya que los motores avanzados de aprendizaje automático a menudo siguen siendo una “caja negra”, aún para quienes los desarrollan.
La solución no consiste simplemente en encontrar mejores formas de comunicar cómo funciona un sistema de IA, sino en crear herramientas y procesos que ayuden incluso a las y los expertos a comprender el resultado y explicarlo a los demás.
La importancia de dominar los fundamentos de la explicabilidad de la IA es para satisfacer las necesidades de las personas -clientes, empleados, reguladores, etc-, y requiere establecer un marco de gobernanza, implementar las prácticas adecuadas e invertir en las herramientas necesarias.
Beneficios de explicar la IA en las organizaciones
Cinco son las formas en las que la IA explicable puede beneficiar a las organizaciones en diferentes áreas :


Área de las tecnologías en la organización
- Monitorear, mantener y mejorar de manera más eficiente los sistemas de IA

Área de la razón de ser o negocio de la organización
- Confiar en los resultados de la IA, para adoptar y que los clientes adopten cada vez más las herramientas de la IA
- Aplicar reconocimiento sobre el porqué de las predicciones o recomendaciones de una IA para identificar intervenciones efectivas
- Evaluar si las aplicaciones de IA cumplen con los objetivos comerciales

Área del derecho y los riesgos de la organización
- Ver si la tecnología y el flujo de trabajo asociado cumplen con las regulaciones aplicables y están en línea con las expectativas del cliente
Para hacer que la IA sea explicable, se recomienda a las empresas y organizaciones:
- Incluir la explicabilidad como uno de los principios clave en sus directrices de IA responsable
- También se sugiere establecer un comité de gobernanza de IA para establecer estándares y orientación
- Procurar contar con el talento de los RRHH
- Invertir en la tecnología adecuada, la investigación y la capacitación necesaria
Conclusiones
Por todo lo que está en juego es importante contratar, y/o disponer en el propio equipo, de personas capacitadas en IA, en aspectos legales y en los éticos de esta tecnología, e invertir en tecnología de explicabilidad, llevar a cabo investigaciones continuas y proporcionar capacitación actualizada.
La explicabilidad de la IA es esencial para generar confianza e inclusión de todas las personas, cuidar sus derechos, aprovechar al máximo la IA y cumplir con las regulaciones y expectativas.

Las fuentes de este artículo y de los demás contenidos del sitio están listadas en esta Bibliografía.
La redacción del texto se ha realizado en diálogo con herramientas de inteligencia artificial.