Diario de León

El sistema robótico leonés con IA que puede salvar vidas

La investigadora leonesa Virginia Riego crea un sistema de vigilancia basado en robótica social y visión artificial capaz de reconocer de forma automática y en tiempo real la señal manual de auxilio para situaciones de violencia doméstica

Virginia Riego junto a dos compañeros del Grupo de Robótica de la Universidad de León realizan la señal de socorro.

Virginia Riego junto a dos compañeros del Grupo de Robótica de la Universidad de León realizan la señal de socorro.Virginia Moran

Clara Barrio
Publicado por

Creado:

Actualizado:

Integrar la Inteligencia Artificial (IA) en el día a día no solo supone una ayuda en las tareas, sino que también puede salvar vidas y la pieza clave son los robots. Aunque la incorporación de un autómata en un hogar o espacios sociales suena a ciencia ficción, en poco tiempo estas máquinas se han convertido en un integrante más. Conscientes de ello investigadores de la Universidad de León han diseñado un sistema para robots que gracias a la IA es capaz de detectar señales de auxilio.

«El sistema de vigilancia está basado en robótica social y visión artificial y es capaz de reconocer de forma automática y en tiempo real la señal manual de auxilio desarrollada por la Canadian Womens Foundation para situaciones de violencia doméstica o peligro donde la víctima no puede alertar directamente al agresor», explica Virginia Riego, investigadora principal del proyecto.

El estudio presenta un módulo de percepción basado en la librería MediaPipe para detectar y calcular las posiciones de las manos y sus articulaciones (‘landmarks’). Este sistema de clasificación neuronal identifica distintos gestos manuales, con un modelo optimizado para reconocer de manera precisa la secuencia específica que representa la señal de auxilio o ‘Signal for Help’. Este módulo se integra en una arquitectura cognitiva híbrida llamada MERLIN, que gestiona los comportamientos del robot para que pueda reaccionar adecuadamente en entornos sociales y mantenga la discreción para no alertar al agresor.

Para el desarrollo del sistema, los científicos pidieron a voluntarios colocarse delante de un robot en el laboratorio y realizar con sus manos varios gestos. El objetivo era que el sistema fuera capaz de detectar varios signos a distintas distancias y no solo el de socorro. Con estas imágenes, los científicos crearon un ‘dataset’ específico para entrenar y validar el modelo de reconocimiento con una precisión del 96%.

«El sistema detecta primero las manos y, a continuación, los ‘keypoints’ (o puntos característicos que hacen la estructura de la mano) y con ello entrenamos una red neuronal capaz de detectar signos variados. En todo momento, nosotros somos capaces de saber qué signo hace la persona. Todos ellos son signos estáticos y la señal de socorro está compuesta de varios signos. Para completar el estudio pusimos al robot del artículo junto a cámaras de vigilancia en un punto alto de la sala para determinar si era capaz de reconocer la señal. En una primera parte, nosotros hicimos la descripción de los gestos y los puntos principales de la mano. A partir de ellos fuimos capaces de sacar ese patrón en el tiempo. Este es un proceso estadístico y cuantos menos parámetros tenga, será más fácil de explicar», relata.

Como señala Riego, el sistema ha sido probado con «éxito» para detectar la señal de auxilio en vídeos capturados por el propio robot. La integración de esta solución dentro de la arquitectura cognitiva MERLIN permite que el robot no solo detecte el gesto, sino que también interprete el contexto y tome decisiones basadas en el reconocimiento, lo que ejemplifica un sistema explícito y explicable de inteligencia artificial aplicada.

El artículo fue parte del proyecto EDMAR, ya finalizado, pero que continúa con EXPLICIT, donde buscan seguir analizando cómo funcionan los modelos y la toma de decisiones y también determinar aspectos de ciberseguridad.

Virginia Riego junto al catedrático Vicente Matellán y un miembro del Grupo de Robótica de la Universidad de León.

Virginia Riego junto al catedrático Vicente Matellán y un miembro del Grupo de Robótica de la Universidad de León.Virginia Moran

Próximos pasos

Aunque el proyecto ideado por los ingenieros se centra en la detección de señales, la siguiente parte deberá adaptar el sistema a las necesidades del entorno en el que vaya a ser colocado el robot para determinar a quién se envía la alarma y qué tipo de información se facilita: una foto de la persona, una descripción, la ubicación… «Esto dependerá del dispositivo y el lugar donde se ubique el modelo», detalla la ingeniera.

Como cuenta la investigadora, las cámaras del robot incluido en estos experimentos están colocadas a la altura promedio de una persona, ya que estos autómatas son considerados robots sociales que se encuentran en centros comerciales, residencias u hogares. No obstante, el sistema se podría trasladar a otro tipo de robots.

«Este robot concreto solo puede estar en entornos de interior debido a su ‘hardware’, en concreto por la colocación de las ruedas y otras características que no lo hacen apto para entornos cambiantes como la calle. La idea de escoger este punto de vista es poder simular a una persona, ya que cada vez están más presentes en centros públicos», relata la científica.

Uno de los robots del laboratorio de Robótica de la ULE.

Uno de los robots del laboratorio de Robótica de la ULE.Virginia Moran

Estudios "más transparentes"

La trazabilidad y la explicabilidad son dos pilares fundamentales en el estudio. La ingeniera detalla que las soluciones basadas en sistemas de IA «se topan a menudo con la normativa y la realidad es que nadie quiere poner un sistema de IA sin entender cómo funciona». «Gran parte de lo que ha ocurrido con las Inteligencias Artificiales generativas es que las Administraciones, especialmente en Europa, quieren limitar su uso al público general, si no se conoce cómo es el tratamiento de los datos o su funcionamiento. Los modelos pueden estar condicionados por sesgos como el color de piel o el género de la persona. Por ello, son importantes los conceptos de explicabilidad y trazabilidad», apunta.

La explicabilidad se refiere a la capacidad de comprender y explicar por qué un modelo de IA tomó una determinada decisión o produjo un resultado específico. Su objetivo es hacer transparente el razonamiento del algoritmo para permitir que los usuarios comprendan la lógica detrás de las decisiones, incluso sin conocer todos los detalles técnicos internos. La trazabilidad consiste en la capacidad de rastrear y documentar todo el proceso, componentes y pasos que ha seguido el sistema de IA desde los datos de entrada hasta el resultado final. Implica tener un seguimiento del ciclo de vida completo del modelo. «Mientras que la trazabilidad se centra en el «cómo» y el «qué» del proceso completo (el camino que siguió el sistema), la explicabilidad se enfoca en el «por qué» de una decisión específica (la justificación del resultado). La trazabilidad proporciona la infraestructura de documentación y registro necesaria, mientras que la explicabilidad interpreta y comunica esos procesos de forma comprensible para los usuarios», recalca Riego.

En IA, la explicabilidad consiste en «crear algún tipo mecanismo que nos permita definir cuáles han sido los pasos de nuestro modelo para tomar unas decisiones determinadas». En este caso, el objetivo es detectar un gesto de socorro. «Esos modelos de Inteligencia Artificial existen, pero son muy complejos de explicar. Nosotros hemos trabajado en este caso en el sistema SOS. Durante la pandemia surgió este gesto de socorro para que aquellas mujeres que estuvieran en peligro pudieran hacerlo de forma discreta y sin ser detectado por otra persona. Esta señal se empezó a utilizar en videollamadas o, incluso, en la calle para poder hacer esa llamada de auxilio», relata la científica.

En este estudio, el uso de ‘landmarks’ y secuencias reconocibles facilita la trazabilidad y comprensión del proceso de decisión del robot, por lo que mejora la explicabilidad de las acciones automatizadas en escenarios críticos. Como recalca la investigadora, esta explicabilidad es «crucial en robótica social, ya que el robot debe actuar de manera transparente y previsible para generar confianza en los usuarios humanos y facilitar la supervisión por parte de operadores».

«Este tipo de proyectos permite conocer cómo funcionan las cosas y abre la puerta a introducir robots en nuestro día a día. A nivel normativo también es clave para poner en marcha sistemas destinados al público general. La Ley Europea de IA es la primera normativa del mundo que regula cómo se puede usar la inteligencia artificial. Su objetivo principal es proteger a los ciudadanos frente a los posibles riesgos de la IA, garantizando que esta tecnología sea segura, transparente y respetuosa con nuestros derechos fundamentales, al mismo tiempo que se impulsa la innovación y el desarrollo empresarial. La ley funciona mediante un sistema de clasificación basado en el nivel de riesgo. En España, la normativa ya está en marcha y obliga a las empresas y administraciones públicas que desarrollan o usan inteligencia artificial a cumplir estas reglas, con sanciones que pueden llegar hasta 35 millones de euros en casos graves», concluye Virginia Riego.

tracking