domingo. 14.08.2022
                      DL25P28F1-21-18-27-6.jpg
DL25P28F1-21-18-27-6.jpg

Las brechas sociales del mundo analógico también se digitalizan de la mano de la inteligencia artificial (IA), dado que esta tecnología, a menudo, opera con datos sesgados en cuestiones de género, y la solución para depurarlos pasa, según expertas consultadas por EFE, por mejorar el funcionamiento de la propia IA y hacerlo, incluso, vía imperativo legal.

La investigadora de la Universidad de Harvard Aleksandra Przegalinska se muestra convencida de que, una vez indaguen a fondo sobre la inteligencia artificial, los poderes públicos «verán inmediatamente que tal vez junto a su potencial puede venir un cierto abuso de poder».

En este sentido, celebra la ley pionera que ha propuesto la Comisión Europea, ya que «contempla la IA desde la perspectiva del riesgo», según dijo la profesora tras participar en la Escuela de Liderazgo Femenino que organiza la compañía tecnológica china Huawei, y que reunió esta semana en Praga a jóvenes talentos de toda Europa.

«Hay esperanza asociada a la IA, y eso deberíamos destacarlo. Pero también hay un riesgo asociado a la inteligencia artificial, o más bien al mal uso de la inteligencia artificial. Y creo que es bueno que tengamos esta regulación», asegura.

La normativa que prepara Bruselas contempla desde los usos de la IA que conllevan un riesgo ‘bajo’ hasta los que llevan implícito un riesgo ‘alto’, un criterio que, según Przegalinska, varía en función del «impacto en la vida humana» que tenga esta tecnología.

«Pensemos en un área como la previsión del tiempo. No es algo que vaya a perjudicar a alguien si simplemente le dices que va a llover. Es un problema menor comparado con una situación en la que un algoritmo sesgado afirma que tienes una enfermedad que en realidad no tienes, o donde un algoritmo muy complejo te dice que no puedes obtener un préstamo y no sabes por qué», plantea.

las mujeres, más perjudicadas

En estas situaciones que expone Przegalinska, las mujeres son, con frecuencia, las más afectadas, dado que sus parámetros están infrarrepresentados en las bases de datos con las que operan los algoritmos y que son, pues, una correa de transmisión de las discriminaciones reales que la mujer sufre en el mundo analógico.

«La tecnología no es el problema; sino la gente. Hay un dicho en el mundo de la IA que dice: ‘basura fuera, basura dentro’. Entonces, si los datos están sesgados, por supuesto que habrá también un sesgo en el sistema», asevera la jefa del área de ciencias cognitivas de la Universidad de Tillburg, Maria Postma, que también habló con Efe.

La profesora recuerda que la IA es un intento de «crear una versión artificial de la inteligencia humana» para usarse, por ejemplo, en la traducción simultánea de idiomas o la conducción autónoma de vehículos, de modo que la idea de base fue, según ella, «crear una especie de simulación de cerebro humano».

Cerco a los algoritmos machistas
Comentarios