Diario de León

ENTREVISTA

Francisco José Ausín: «Tenemos que dejar de ser súbditos digitales»

Francisco José Ausín Díez hablará hoy en León de ética e inteligencia artificial. dl

Carmen Tapia
León

Creado:

Actualizado:

Francisco José Ausín Díez Txetxu, director del Grupo de Ética Aplicada en el Instituto de Filosofía del Consejo Superior de Investigaciones Científicas, aborda hoy la Ética para convivir en las nubes con la Inteligencia Artificial, en el XVII Ciclo de Actualidad Científica y Cultural de la ULE a las 19..30 horas.

—¿Cómo se puede vivir éticamente en un sistema que no se sabe por quién está controlado?

—La Inteligencia Artificial (IA) puede parecer algo lejano, pero en realidad ya estamos conviviendo con ella en distintos ámbitos de nuestra vida en la administración, en los seguros, en la banca, en la medicina, la educación. Lo importante no es solo pensar lo que está bien o lo que está mal, sino cómo transforman nuestra vida y nuestra forma de desarrollarnos como sociedad. Los artefactos no son neutrales, incorporan formas de poder y autoridad y transforman no solo el entorno sino los hábitos, costumbres y relaciones. Las relaciones afectivas se han transformado a través del desarrollo de las tecnologías digitales. Y, por otro lado, hay una profunda asimetría porque el control de esta tecnología está muy lejos de la ciudadanía, está en manos de los Estados y grandes corporaciones.

—¿Cuál es el marco ético de principios mínimos necesarios para establecer una relación con valores?

—Esos mínimos se reducen a cinco. El primero y más gráfico es que en nuestra relación con los sistemas no tenemos que percibir un daño, es lo que se llama la no maledicencia. Que la tecnología no provoque un daño físico o psicológico. A partir de ahí hay un segundo principio en el que los beneficios deben superar a los riesgos, es lo que se llama principio de proporcionalidad, teniendo en cuenta elementos como el daño al medio ambiente porque el impacto es muy grande por el consumo de electricidad, de agua, extracción de minerales críticos y la generación de residuos. Un tercer principio sería la privacidad a la autonomía de las personas, que no sean invasivos con respecto a la capacidad de las personas a tomar decisiones libres El cuerpo principio sería de justicia y es que la inteligencia artificial, como ocurre con las tecnologías, no debe agrandar la brecha de desigualdad de las personas y debe desarrollarse de forma inclusiva. Y el quinto principio es que deben ser sistemas explicables, que tenemos que entender cómo funcionan y cómo operan y que sepamos identificar a las personas y los pasos que se dan en todo un sistema de IA para que se puedan rendir cuentas. Hay sistemas de IA que son cajas negras, muy opacos, se sabe o que se mete, los datos, lo que se saca, los resultados, pero no se sabe cómo ha sido el proceso y esto es muy grave cuando los sistemas se utilizan en ámbitos sensibles y donde hay que dar razones motivadas, como puede ser el ámbito judicial, la medicina o la administración y gestión pública.

—Esta tecnología está concentrada en media docena de multinacionales que dominan el poder en el mundo.

—Efectivamente. La reflexión ética parte de la idea de que lo mismo que en el siglo XVIII los ciudadanos nos emancipamos en la Ilustración para ser sujetos activos, ciudadanos y no súbditos respecto al poder político, deberíamos hacer una especie de una nueva Ilustración digital para dejar de ser súbditos de las grandes corporaciones tecnológicas. Estamos sometidos a la tiranía del acepto o no acepto, pero no tenemos ningún control político o judicial con respecto a este nuevo espacio que desarrolla nuestra vida. No hay un poder legislativo ni judicial ni ejecutivo más allá del poder propio de estas grandes corporaciones.

—¿Cómo se puede iniciar ese movimiento intelectual para esa Ilustración digital?

—Se inicia tomando conciencia de esta vida nueva que tenemos en la que establecemos todas nuestras relaciones educativas, laborales, afectivas, etc. Lo primero es tomar conciencia y darnos cuenta de que no es algo indiferente. En segundo lugar, exigir, a través de principios éticos, el desarrollo de normativas que establezcan una regulación del uso de estos sistemas. De hecho, la UE ha sido pionera en este sentido y acaba de aprobar el primer reglamento a nivel mundial que regula la IA, con todas sus dificultades y limitaciones.

—¿Hay que establecer un marco jurídico independiente con el bioderecho?

—Es muy importante reflexionar primero sobre cuáles son los principios y valores que debería regir nuestra relación con estos sistemas de IA y a partir de ahí cómo regularlos. En el ámbito del bioderechos se hace mucho hincapié en los neuroderechos humanos, la idea de incorporar a las legislaciones, como se ha hecho ya en Chile, una nueva categoría de derechos humanos que buscan preservar nuestra privacidad mental, autodeterminación cognitiva, para que la combinación de IA con nuevas tecnologías no se utilicen para manipular y condicionar directamente ya el último reducto de nuestra consciencia, que es la identidad mental o psicológica. Ahora mismo, si combinamos neuropsicología con sistemas de IA corre un riesgo claro de intervenciones no consentidas. El neurocientífico español Rafael Yuste es uno de los principales promotores de este cambio legislativo para los nuevos neuroderechos humanos.

—¿Podrá igualar la IA a la menta humana?

—No creo. Nuestra inteligencia está relacionada con nuestro cuerpo, con el modo en que nos percibimos y nos relacionamos con el mundo. Es nuestra mente extendida a través del cuerpo y la relación con el entorno. Otra cosa es que haya sistemas muy precisos y que superen las nuevas tareas que hacemos los seres humanos. La IA nos ha superado ya en juegos como el ajedrez. La inteligencia humana es más compleja y está relacionada con nuestra propia corporalidad.

—¿Cómo tenemos que afrontar esta relación con los sistemas de IA?

—De una manera adulta y proactiva. Nos pueden ofrecer muchas ventajas que tenemos que aprovechar, pero tenemos que conocerlas. Tanto el miedo excesivo como la confianza excesiva no sirven. Tenemos que ser responsables con respecto a nuestra relación con la tecnología.

—¿Cómo podemos ser responsables si desconocemos quién está detrás de esta inteligencia?

—Tenemos un deber de alfabetización digital porque ahora somos usuarios sin cabeza. Necesitamos recibir información, que las instituciones públicas hagan una publicidad activa del uso de estas tecnologías, cómo se usan y que se desarrollen los sistemas siguiendo unos patrones de transparencia y de inclusividad porque ahora mismo todo se desarrolla en el ámbito privado y con mucha opacidad. No sabemos de dónde toma los datos el Chat GPT, por ejemplo. Tenemos que estar dispuestos a exigir que se nos dé información de este mundo porque al final toda nuestra vida está ahí.

—Ahora mismo es imposible salirse del sistema, no se puede hacer ninguna operación sin entrar a través de las nuevas tecnologías.

—Un principio ético es que no se puede excluir a las personas que sea no están dentro de esta red digital.

tracking