viernes 21/1/22

ROBOTS PARA DELINQUIR

EL ESCENARIO. A medida que los ordenadores hacen el papel de personas, se generaliza el uso de la inteligencia artificial y crece la interacción entre usuarios y máquinas, pero puede llegar el momento en que nuestros sistemas sean pirateados por robots.
                      Tableta electrónica operada por un robot con inteligencia artificial o IA. UOC
Tableta electrónica operada por un robot con inteligencia artificial o IA. UOC

¿Podría llegar el momento en que quienes jaqueen nuestros sistemas informáticos, ordenadores y dispositivos no sean seres humanos de carne y hueso sino máquinas inteligentes? ¿Los robots podrían convertirse en los nuevos piratas informáticos que acecharán nuestros datos y amenazarán nuestra privacidad?.

El hecho de que los ‘robots hackers’ se sumen al conjunto de piratas informáticos que ya existen es un escenario que no descartan Jordi Serra y Josep Curto, profesores de los Estudios de Informática, Multimedia y Telecomunicación, en la Universitat Oberta de Catalunya (UOC), en Barcelona (España).

Se muestran de acuerdo con gurús de la seguridad digital como Bruce Schneier, quien en su informe The Coming AI Hackers, afirma que en la interacción entre los sistemas humanos e informáticos hay riesgos inherentes cuando los ordenadores comienzan a hacer el papel de las personas. Hasta el punto de que puede llegar el momento en que quienes pirateen nuestros sistemas sean «hackers» no humanos.

En el apartado ‘Robots Hacking Us’ (Robots hackeándonos) de ese informe (www.belfercenter.org) Schneier afirma que los robots antropomórficos son una tecnología emocionalmente persuasiva y que la IA amplificará su atractivo.

«A medida que la IA imite a los humanos, o incluso a los animales, secuestrará todos los mecanismos que los humanos usan para piratearse unos a otros», advierte.

«Cuando los robots hacen contacto visual, reconocen rostros, reflejan gestos humanos, `presionan nuestros botones darwinianos´, exhibiendo el tipo de comportamiento que asociamos con la sensibilidad, las intenciones y las emociones», según Schneier.

«Debido a que los humanos somos propensos a cometer el error de tratar a los robots como criaturas vivientes con sentimientos e intenciones, somos propensos a ser manipulados por ellos. Los robots podrían persuadirnos o asustarnos para hacer cosas que, de otro modo, no haríamos», apunta.

«La IA de los robots eventualmente superará a las personas en capacidades que les permitirá manipularnos con mayor precisión», según este experto en ciberseguridad del Centro Belfer de la Facultad Kennedy, de la Universidad de Harvard, en EE. UU.

«A medida que las IA y los robots autónomos asuman más tareas del mundo real, la confianza humana en los sistemas autónomos se verá jaqueada con resultados peligrosos y costosos», señala.

«Aunque no hay que olvidar que los piratas informáticos de IA, serán diseñados, pagados y controlados por piratas informáticos humanos, que quieren que los robots nos manipulen de una manera particular para un propósito particular», según Schneier.

El profesor Curto explica que «la IA, que emplea algoritmos informáticos, modelos matemáticos y una gran capacidad de procesar datos, busca automatizar tareas de toda índole, desde la asignación de un crédito hasta la selección de personal».

Pero advierte que el uso de algoritmos (instrucciones definidas para resolver un problema o realizar una tarea) «no está libre de errores, fallos, omisiones, propósitos específicos y sesgos de todo tipo. Esto puede provocar problemas», afirma.

El profesor Serra señala, por su parte, que «mientras los seres humanos vemos datos y obtenemos esos datos de diferentes fuentes dándoles contexto, entendiéndolos y valorándolos, los sistemas de IA buscan relaciones entre esos datos, más allá de lo que pueda significar cada uno de ellos».

«Al ser más rápidas, las máquinas con IA pueden encontrar relaciones entre los datos en las que los humanos no pensamos, porque tenemos un conocimiento previo que nos hace pensar en que, a lo mejor, dos datos no están relacionados entre sí», advierte.

«Es decir, que mientras los humanos tenemos una manera de pensar predeterminada a partir de nuestra experiencia y conocimiento previo, las máquinas no», enfatiza Serra.

En la misma línea se manifiesta Curto, quien reconoce que los mecanismos que siguen algunos sistemas de IA «pueden no tener en cuenta el contexto o la regulación de los datos que manejan, o incluir sesgos que pueden conducir a decisiones no éticas».

En opinión de Serra la IA es cada vez más opaca, «ya que continuamente salen algoritmos más potentes, más rápidos, aunque al final solo son cajas en las que se introducen los datos y tienen una salida. ¿Cómo lo hacen? Solo los expertos que crean los algoritmos de las IA lo saben…», apunta.

Para el profesor Curto «quizá se está infravalorando la protección de la seguridad en lo relacionado con la IA».

«Muchas organizaciones no tienen claro cómo funcionan los sistemas de IA ni cómo gobernarlos de forma adecuada, ni tampoco el impacto social, por lo que no se toman en cuenta medidas de protección adecuadas en todo el ciclo del sistema», asegura.

«A medida que digitalizamos todos los procesos de negocio, muchas empresas van a apostar por IA para extraer valor de es os activos», señala Curto. «Sin principios éticos, identificación de sesgos, comprensión de cómo funcionan los algoritmos o sus límites, será natural caer - por omisión o con premeditación-, en escenarios como el de Cambridge Analytica, compañía involucrada en un caso de uso indebido de millones de datos de usuarios de una gran red social para influir en los votantes en América», vaticina.

Curto explica a Efe que cuando él y Serra hablan de robots convertidos en piratas informáticos se refieren tanto a máquinas como a programas de Inteligencia Artificial.

Señala que «los robots con IA podrían utilizarse para crear ‘malware’ (programas maliciosos) o estrategias automatizadas de ingeniería social (manipulación de usuarios para obtener información), por ejemplo mediante el ‘phishing’ , el envío masivo de correos electrónicos o mensajes en los que se imita o suplanta la identidad de una persona u organización de confianza».

Explica que otro caso hipotético de ciberataque o jaqueo mediante estos sistemas podría consistir «en burlar las defensas automatizadas de ciberseguridad, basadas en un tipo de IA denominado aprendizaje automático ML, saturando un sistema de falsos positivos de ataques para forzar a recalibrar el sistema y atacarlo, una vez que ya no detecta los casos reales de ataques, en lo que se conoce como ‘crear una puerta falsa’».

Según explica, los robots con IA también podrían utilizarse «para burlar los sistemas CAPTCHA, que son pruebas en línea de pregunta-respuesta utilizadas para determinar si un usuario es un humano o un programa informático automatizado, que intenta acceder a una cuenta protegida con contraseña».

«Esta tecnología podría servir también para generar datos erróneos que permitan crear distintos tipos de ‘puertas falsas’ en los sistemas informáticos que se quiere atacar y, a veces, incluirían la participación de ‘bots’, es decir, programas ‘robot’ que recorren Internet llevando a cabo tareas concretas, sobre todo creando índices de los contenidos de los sitios», concluye Curto.

ROBOTS PARA DELINQUIR
Comentarios