Diario de León

INTELIGENCIA ARTIFICIAL EXPLICABLE

CONFIANZA. En vez de llegar a conclusiones por medios que permanecen ocultos, la Inteligencia Artificial Explicable describe las razones por las cuales llega a un resultado y le propone sugerencias para mejorar la situación

Los algoritmos de la Inteligencia Artifcial emulan al intelecto humano. fujitsu

Los algoritmos de la Inteligencia Artifcial emulan al intelecto humano. fujitsu

Publicado por
León

Creado:

Actualizado:

La denominada Inteligencia Artificial (IA) Explicable representa un área de creciente interés en el campo de la inteligencia artificial y el aprendizaje automático, según los expertos.

Mientras que las tecnologías de IA tradicionales pueden tomar decisiones automáticamente a partir de los datos, la IA Explicable proporciona además razones individuales para estas decisiones.

Esto ayuda a evitar el llamado fenómeno de la «caja negra», en el que la IA llega a conclusiones a través de medios poco claros y potencialmente problemáticos, según la compañía tecnológica japonesa Fujitsu (www.fujitsu.com) , que desarrolla un nuevo sistema basado en este principio con la Universidad de Hokkaido (www.global.hokudai.ac.jp).

Este nuevo sistema de Fujitsu y Hokkaido, explica a los usuarios las decisiones de la IA, y también les presenta automáticamente los pasos concretos necesarios que tendrían que dar para conseguir un determinado resultado deseado y para obtener hipotéticas mejoras, basándose en los datos que procesa la IA sobre las revisiones médicas, por ejemplo.

Por ejemplo, si una IA que emite juicios sobre el estado de salud de una persona determina que ésta no es saludable, la nueva tecnología de IA Explicable puede utilizarse para explicar la razón del resultado a partir de los datos de exámenes médicos como la altura, el peso y la presión arterial.

Para, después, ofrecer al usuario sugerencias específicas sobre la mejor manera de recuperar la salud, analizando un gran número de datos de los exámenes médicos, teniendo en cuenta su viabilidad y dificultad para ponerlos en práctica.

Basándose en los datos de las revisiones médicas, esta IA Explicable presenta al usuario los atributos (peso corporal, masa muscular y presión arterial) que tiene cambiar para reducir el riesgo de sufrir una determinada enfermedad y, además, le explica cuáles de ellos se pueden cambiar con el menor esfuerzo posible y con riesgos bajos para la salud.

Esta nueva tecnología ofrece la posibilidad de mejorar la transparencia y la fiabilidad de las decisiones tomadas por la IA, lo que permitirá a más personas en el futuro interactuar con las tecnologías que la utilizan, ofreciendo una sensación de confianza y tranquilidad, según Fujitsu.

Programas que aprenden

«Un algoritmo de IA es un programa de ordenador que necesita tener un entrenamiento antes de poder ser de alguna utilidad», explica a Efe, Carlos Cordero, director de Tecnología (Chief Technology Officer o CTO) de Fujitsu. Señala que «el entrenamiento de una IA que nos ayude en la determinación de anomalías en mamografías, consiste en hacer «leer» a dicho programa miles de imágenes de mamografías».

«Cada una de dichas imágenes ha sido «etiquetada» por expertos para indicarle al programa cuales son normales y cuales son anormales y donde radican dichas anomalías», explica. «Una IA entrenada de este modo no necesita de más atención y puede ponerse en producción para dar soporte a los expertos e indicarles en que imágenes ve o no ve anomalías», según Cordero.

El experto señala que la gran mayoría de las IAs siguen este proceso de entrenamiento y puesta en producción, pero todas tienen dos importantes problemas.

«Por un lado, no explican los resultados que reportan – en el caso anterior si la imagen es anómala o no – y el experto no tiene manera de saber porque la IA ha dicho que es normal o anormal. Tiene que hacer un acto de fe y, en ciertos sectores como el médico, esto es un gran problema», puntualiza.

tracking