miércoles. 10.08.2022

Inteligencia artificial con ética

LÍMITES. La Comisión Europea comienza a trazar las líneas maestras que permitan el desarrollo tecnológico que respete los derechos existentes, desde la privacidad a los ataques. La confianza es la base de la tecnología del futuro.
Garantizar las ventajas de la inteligencia artificial y prevenir sus peligros es el objetivo de las propuestas normativas.

La Comisión Europea (CE) presentó hace unos días sus líneas maestras para desarrollar la inteligencia artificial en la Unión Europea (UE), garantizando el objetivo de conseguir beneficios para toda la sociedad, respetando la privacidad de los datos y protegiéndose frente a previsibles errores y ataques.

«La dimensión ética de la inteligencia artificial no es una característica de lujo o un añadido: tiene que ser parte integral de su desarrollo», señalan en sus conclusiones la «comunicación» sobre la materia presentada por la Comisión Europea, que consiste en un documento orientativo con vinculaciones legales y elaborado a partir del trabajo de un grupo interdisciplinar de expertos en la materia.

El primer desafío ético de esa nueva tecnología, apunta el documento, pasa por ganar confianza entre los ciudadanos y para ello el sector y los agentes políticos llamados a regularlo deben fijarse como meta «incrementar el bienestar», observando valores de la Unión Europea como «el respeto a la dignidad humana, la democracia, la igualdad, el Estado de derecho y los derechos humanos».

A partir de ahí, los expertos consultados por el Ejecutivo comunitario han identificado una serie de requerimientos clave para el desarrollo de la inteligencia artificial, en función del contexto: no es lo mismo una herramienta que falle al recomendar un libro a un lector que una aplicación que diagnostica erróneamente un cáncer, subraya la Comisión Europea.

Por eso, por ejemplo desde el área clave de la ética de los robots, se señala que debe de ser supervisada por seres humanos, con las «apropiadas medidas de contingencia». Además los sistemas deben de ser «resistentes» y «resilientes» ante eventuales intentos de manipulaciones o de pirateo y dotarse de planes de contingencia.

Por otra parte los expertos consideran que se debe de garantizar la privacidad de los datos de los ciudadanos en todo el ciclo vital de la inteligencia artificial.

Además la inteligencia artificial debe de ser transparente, lo que supone poder reconstruir cómo y por qué se comporta de una determinada manera y quienes interactúen con esos sistemas deben de saber que se trata de inteligencia artificial así como qué personas son sus responsables.

A mayores, la inteligencia artificial debe de tener en cuenta la diversidad social desde su desarrollo para garantizar que los algoritmos en que se base no tengan sesgos discriminatorios directos o indirectos.

Por otro lado, se tiene en cuenta que el desarrollo tecnológico debe de tener en cuenta su impacto social y medioambiental de forma que sea sostenible y ecológicamente responsable.

En último término, la inteligencia artificial y sus resultados deben de rendir cuentas ante auditores externos e internos.

Esta es sólo una parte del diagnóstico realizado hasta el momento por los expertos consultados por la Comisión Europea. Pero el camino no termina en este punto. Quedan por determinar los próximos pasos.

Ahora la Comisión Europea presentará estas guías éticas a los Estados miembros de la UE y a los distintos actores del sector y, a partir de junio, diseñará una fase piloto para obtener retroalimentación de quienes están implicados en el salto tecnológico que suponen las máquinas capaces de aprender y decidir por sí mismas. A partir de esa información, se actualizarán las guías sobre ética robótica a inicios de 2020 de la Comisión Europea, que planea destinar 1.000 millones de euros anuales a partir de 2020 y espera que en total se movilicen 200.000 millones en la próxima década

Inteligencia artificial con ética
Comentarios