¿Estamos sometidos a híper vigilancia?: Así se usa la Inteligencia Artificial en las llamadas de la Policía

Como todos los martes, tecnología en 'La Linterna' de mano de Mario Yañez

00:00

¿Estamos sometidos a híper vigilancia?: Así se usa la Inteligencia Artificial en las llamadas de la Policía

Redacción La Linterna

Publicado el - Actualizado

3 min lectura

Hace una semana, A Coruña se ratificó como sede de la Agencia Española de Supervisión de Inteligencia Artificial (AESIA). Con esta determinación de la sede, España será el primer país de la Unión Europea con un organismo que vigile y controle el uso y los riesgos de la inteligencia artificial.

Como todos los martes, en 'La Linterna' se habla de tecnología, y de la mano del consultor de cabecera Mario Yañez.

Ha explicado que esta agencia se ha creado con el motivo de que la UE ha decidido que los países miembros tengan un organismo independiente para asegurar el cumplimiento de la regulación europea sobre inteligencia artificial y supervisar la correcta interpretación de la misma. Además, pretende concienciar sobre el impacto de esta tecnología en la sociedad y minimizar los riesgos que puede traer en campos como la seguridad, la privacidad o la salud de las personas, por ejemplo.

Por otro lado, ha explicado que la inteligencia artificial, por muy futurista que sea, la usamos mucho más de lo que imaginamos: "Todos los días interactuamos con algún algoritmo y muchas veces sin darnos cuenta. Las llamadas al centro de atención a clientes que atienden robots, los procesos de recomendación de música, series, películas o compras que nos hacen en plataformas, incluso en procesos de selección de personal en una empresa, en los procesos de contratación de servicios, en servicios bancarios o de salud e incluso en materia policial y de seguridad".

Hipervigilancia gubernamental, más cerca de lo que creemos

Aunque, el uso de algoritmos también tiene sus riesgos: "Algunos pueden provocar desinformación alimentaria, discriminación por razón de género, raza o edad, incluso hipervigilancia gubernamental. Hay que ponerle coto a la innovación sin control. Por ejemplo, hay un algoritmo que etiqueta alimentos en función de si son más o menos saludables, y los analistas han detectado que puede generar desinformación y discriminación socioeconómica a algunos usuarios. La red profesional más utilizada usa un algoritmo para mostrarte ofertas de trabajo que puedan adecuarse a tus intereses y currículum, pero también fomenta otro tipo de discriminación, en este caso por razón de género".

De hecho, hay hipervigilancia gubernamental más cerca de lo que creemos. Hay un modelo de inteligencia artificial que utilizan varios países europeos, entre ellos España, en el que confían para prevenir actividades terroristas, pero que puede suponer una amenaza a la privacidad de los ciudadanos.

Hay otro que atiende o escucha las llamadas realizadas a la policía para analizar el tono de tu voz y ver si lo que dices es verdad o mentira, o sea, que alguien que hable mal español o con otro acento y que esté intentando llamar a la policía podría no ser atendido si el algoritmo se equivoca.

De todos modos, el uso de esta tecnología es primordial para protegernos: "Se está utilizando para atacarnos en el ciberespacio o con grandes corporaciones industriales, que no tienen demasiados escrúpulos en usar IA para alcanzar sus objetivos comerciales. Es una tecnología necesaria pero peligrosa si se usa mal. De ahí la importancia de que sea un terreno regulado y supervisado de forma independiente".

Tres retos por resolver

Con la 'formación' adecuada de los algoritmos, podríamos evitar este tipo de situaciones: "El algoritmo cuando se pone en marcha no sabe nada. Hay que alimentarle con muchos datos para que aprenda lo que tiene que hacer, discernir o sobre lo que tomar decisiones".

Para garantizar la honestidad y la ética de las inteligencias artificiales Mario Yañez incide en tres retos a resolver: confianza, equidad y transparencia. Aunque de ellos probablemente el más importante sea el de la transparencia.

Que las empresas desarrolladoras de algoritmos informen detalladamente a estas nuevas agencias de supervisión, explicando qué hacen y cómo lo hacen para que cualquier ciudadano sepamos si estamos interactuando con una IA y cómo nos afecta. Por otro lado, la supervisión de la operación: no dejar sola a la máquina y que, sobre todo al principio, la decisión sea supervisada por un humano y por último, el debido cumplimiento de las normativas de derechos fundamentales o de protección de datos. Sobre todo, si en un futuro vamos a poner en manos de estos sistemas cuestiones muy delicadas como nuestra defensa o la sanidad.

Programas

LOS ÚLTIMOS AUDIOS

Último boletín

13:00H | 8 FEB 2025 | BOLETÍN