Mario Yáñez señala el riesgo “invisible” que hay tras la Inteligencia Artificial: "Lo peor es lo que no se ve"

El divulgador tecnológico explica en La Linterna el futuro negro de la IA, pero también todo lo bueno que puede hacer por el mundo, si se usa bien

Redacción digital

Madrid - Publicado el - Actualizado

4 min lectura

La embajadora de Estados Unidos ante la ONU, Linda Thomas-Greenfield decía hace unos días ante la asamblea que "hoy nos encontramos en un punto de inflexión: La inteligencia artificial plantea retos universales existenciales". Así, tras varios meses de negociaciones, la ONU ha emitido una resolución en la que solicita que se establezcan normas, que garanticen que los sistemas de inteligencia artificial son seguros y fiables, y excluye el uso militar de la misma.

¿Qué se entiende por ética en el mundo digital? ¿Realmente está tan mal internet? ¿Qué podemos hacer nosotros por una tecnología más ética?

ctv-bpr-imgenes-web---2024-04-11t215247072

El texto de la ONU reconoce que, sin "salvaguardias", la IA corre el riesgo de socavar los derechos humanos, reforzar los prejuicios y la discriminación y poner en peligro la protección de los datos personales y la privacidad de las personas. “Ya se viene hablando desde hace tiempo de los problemas de la tecnología en general: las redes sociales o los móviles, lo que pasa es que, con estas nuevas tecnologías, el panorama parece mucho más negro y el problema siempre apunta al mismo sitio: La Ética”, apuntaba el colaborador de La Linterna y experto en tecnología, Mario Yáñez.

Prohibir el uso militar de la IA, ¿ciencia ficción?

“La ONU siempre dice lo que hay que decir, pero es cierto que muchas veces tiene muy poca capacidad de hacer”, aclara. En este caso, apunta Yáñez que parece que llega tarde y da la sensación de que estamos ante algo parecido a lo que paso con el desarrollo de las armas nucleares, la guerra fría y el posterior desarme.

ctv-mt0-imgenes-web---2024-04-11t215210174

“Creo que se va a abrir un debate fuerte en este tema, pero en cualquier caso y en el corto plazo, la IA ya está en la defensa porque las ciberamenazas, la ciberguerra y el ciberdestrucción ya está ahí y tampoco podemos obviar eso”, añade. Pero, ¿cuáles son los riesgos de que se utilice la tecnología de una forma inmoral? Para el divulgador tecnológico hay un problema mucho más grave que puede llegar a minar incluso lo más básico: la declaración universal de los derechos humanos.

El riesgo “invisible” de la IA

Así, más allá de ciberataques y ciberseguridad o contraseñas, para Yáñez hay un peligro “invisible” detrás de la IA, y tiene que ver con el algoritmo. “Si dejamos a un chatbot que aprenda de lo que interactúa con el resto de los humanos al final de forma involuntaria o voluntaria, se sesga la forma de razonar y de decidir del robot”, explica. Así, y a base de “escuchar” las respuestas o mensajes de miles, o millones de usuarios, estos se han vuelto machistas o racistas recalcitrantes, “pero lo peor es el sesgo que no se ve”, advierte.

Mario Yañez, divulgdor tecnológico y colaborador de La Linterna

Mario Yañez, divulgdor tecnológico y colaborador de La Linterna

Para entrenar una IA hacen falta muchos datos, apunta. Así, esos datos que le suministramos son recopilados y pueden llevar sesgos debido a su propia naturaleza. “Esto puede pasar inadvertido al principio y ser muy peligroso por eso mismo, aunque los creadores sean ecuánimes”. Para explicarlo, pone un ejemplo: en unas islas un algoritmo ha sido entrenado para ayudar a encontrar trabajo pero, como la población es baja y hay muchas mujeres que trabajan como autónomas en el ramo de la belleza, el algoritmo recomienda a todas las mujeres que se hagan peluqueras, pero a ningún hombre. “Es un sesgo debido a la estadística y la falta de calibración de los modelos”.

El uso positivo de la IA

No obstante, la Inteligencia Artificial tiene también usos positivos. Podemos usarla tecnología blockchain para fabricar bitcoins y gastar mucho en energía, ordenadores y chips de forma insostenible y sin sentido, o facilitar a cooperantes y voluntarios que reciban de forma segura ese dinero de los donantes que salva vidas. Además, señala Yáñez que podemos “detectar antes a un niño con desnutrición y hacer que llegue a tiempo al centro de saludo”.

También se han creado soluciones basadas en cosas tan sencillas como un SMS, como un proyecto llamado SAVIA que, en países como Guatemala o Perú, se utiliza el envío de información sobre climatología a agricultores para ayudarles a prevenir tormentas, huracanes, sequías, etc. Pero también a en temas de salud materno-infantil o nutricional.

ctv-cpd-imgenes-web---2024-04-11t215227933

“Gracias a los móviles más simples y a los mensajes cortos las organizaciones se comunican con las personas impactadas. Se ayuda a más de 9.000 personas (el 65% mujeres) y se han enviado casi 9 millones de mensajes con información y ayuda”, explica.

Temas relacionados