La Inteligencia Artificial se vuelve más transparente y confiable

La Inteligencia Artificial está cada vez más presente en los servicios financieros.

Tecnología
Tamaño Letra
  • Smaller Small Medium Big Bigger


En vez de llegar a conclusiones por medios que permanecen ocultos, la nueva tecnología de la Inteligencia Artificial Explicable describe al usuario las razones por las cuales llega a un resultado.
La denominada Inteligencia Artificial (IA) Explicable representa un área de creciente interés en el campo de la inteligencia artificial y el aprendizaje automático, según los expertos.
Mientras que las tecnologías de IA tradicionales pueden tomar decisiones automáticamente a partir de los datos, la IA Explicable proporciona además razones individuales para estas decisiones.

Esto ayuda a evitar el llamado fenómeno de la "caja negra", en el que la IA llega a conclusiones a través de medios poco claros y potencialmente problemáticos, según la compañía tecnológica japonesa Fujitsu, que desarrolla un nuevo sistema basado en este principio con la Universidad de Hokkaido.

Sistema de Gestión y automatización de centros de datos empresarial
Sistema de Gestión y automatización de centros de datos empresarial

Este nuevo sistema de Fujitsu y Hokkaido, explica a los usuarios las decisiones de la IA, y también les presenta automáticamente los pasos concretos necesarios que tendrían que dar para conseguir un determinado resultado deseado y para obtener hipotéticas mejoras, basándose en los datos que procesa la IA sobre las revisiones médicas, por ejemplo.

Por ejemplo, si una IA que emite juicios sobre el estado de salud de una persona determina que ésta no es saludable, la nueva tecnología de IA Explicable puede utilizarse para explicar la razón del resultado a partir de los datos de exámenes médicos como la altura, el peso y la presión arterial.

Para, después, ofrecer al usuario sugerencias específicas sobre la mejor manera de recuperar la salud, analizando un gran número de datos de los exámenes médicos, teniendo en cuenta su viabilidad y dificultad para ponerlos en práctica.

Basándose en los datos de las revisiones médicas, esta IA Explicable presenta al usuario los atributos (peso corporal, masa muscular y presión arterial) que tiene cambiar para reducir el riesgo de sufrir una determinada enfermedad y, además, le explica cuáles de ellos se pueden cambiar con el menor esfuerzo posible y con riesgos bajos para la salud.

Esta nueva tecnología ofrece la posibilidad de mejorar la transparencia y la fiabilidad de las decisiones tomadas por la IA, lo que permitirá a más personas en el futuro interactuar con las tecnologías que la utilizan, ofreciendo una sensación de confianza y tranquilidad, según Fujitsu.

Programas informáticos que aprenden

“Un algoritmo de IA es un programa de ordenador que necesita tener un entrenamiento antes de poder ser de alguna utilidad”, explica a Efe, Carlos Cordero, director de Tecnología (Chief Technology Officer o CTO) de Fujitsu.

Señala que “el entrenamiento de una IA que nos ayude en la determinación de anomalías en mamografías, consiste en hacer “leer” a dicho programa miles de imágenes de mamografías”.

“Cada una de dichas imágenes ha sido “etiquetada” por expertos para indicarle al programa cuales son normales y cuales son anormales y donde radican dichas anomalías”, explica.
“Una IA entrenada de este modo no necesita de más atención y puede ponerse en producción para dar soporte a los expertos e indicarles en que imágenes ve o no ve anomalías”, según Cordero.

El experto señala que la gran mayoría de las IAs siguen este proceso de entrenamiento y puesta en producción, pero todas tienen dos importantes problemas.

Servidor de Inteligencia Artificial Fujitsu Server BS2000 SE710.
Servidor de Inteligencia Artificial Fujitsu Server BS2000 SE710.

“Por un lado, no explican los resultados que reportan – en el caso anterior si la imagen es anómala o no – y el experto no tiene manera de saber porque la IA ha dicho que es normal o anormal. Tiene que hacer un acto de fe y, en ciertos sectores como el médico, esto es un gran problema”, puntualiza.

“Por otro lado, los resultados que reportan tienen una dependencia total y absoluta de la fase de entrenamiento y de los medios (las imágenes) que se le han dado para poder aprender. Si ese conjunto de imágenes no es lo suficientemente amplio se va a generar una IA mal entrenada, que puede dar resultados poco claros y potencialmente problemáticos”, resalta.

Inteligencia artificial más transparente

“La “IA Explicable” es una nueva tecnología que ofrece la posibilidad de mejorar la fiabilidad de las decisiones tomadas por la Inteligencia Artificial, ya que no lo hace de manera automática, sino que añade razones en función de las decisiones generadas. Explica el porqué de la decisión”, según Cordero.

“Además facilita la posibilidad de ofrecer a los usuarios los pasos concretos que ha seguido para lograr los resultados, para que puedan llegar a entender cómo ha llegado a esa conclusión e incluso ayudarle a entender resultados erróneos y la necesidad de un reentrenamiento”, según el CTO de Fujitsu.

Este experto destaca que las decisiones de IA son más precisas que las de las personas, pero las personas demandan a la IA una justificación de sus conclusiones y así lo afirma un 60% de los consultados por Fujitsu.

Cordero considera que “se debe evitar el fenómeno “caja negra” y proporcionar razones a los datos de IA, para que las decisiones que se toman sean más precisas, ofrezcan una confianza plena y ayuden a tomar medidas perfectas”.

“Un médico no puede fiarse del resultado de una IA que no sea capaz de explicarle cómo ha llegado a un diagnóstico, lo mismo que un inversor puede poner en duda el resultado de una IA que le indique que tiene que cambiar su cesta de inversiones, sin explicarle los motivos que le llevan a sugerir dicho cambio”, concluye Cordero. EFE/REPORTAJES