Una experta alerta que no formarse en IA nos hará caer en “manipulaciones comerciales o ideológicas"
'ECCLESIA al día' ha conocido el borrador de la UE que regula el uso de la Inteligencia Artificial, una de las demandas del Papa Francisco en la Jornada Mundial por la Paz
Publicado el - Actualizado
3 min lectura
Los expertos llevan desde hace un tiempo advirtiendo de que nuestros móviles saben lo que pensamos, incluso cuando están apagados. Una vez lo han recordado en el Encuentro Internacional celebrado en la Universidad de la Rioja, que ha reunido a 68 expertos de hasta quince países para abordar el impacto ético y social de las tecnologías de la información y comunicación.
La Unión Europea está tratando de regular el acceso a las diferentes tecnologías y a la Inteligencia Artificial (IA). El Parlamento Europeo ha aprobado el primer borrador que se aplicarán en todos los estados miembros, que podría ser aprobada en dos meses. De esta manera, se cumple al menos parcialmente con la petición del Papa Francisco, que sostiene que la inteligencia artificial y las nuevas tecnologías suponen un agravamiento “de las desigualdades y los conflictos, no pueden considerarse verdadero progreso”.
¿Es necesaria una regulación europea de la IA?
'ECCLESIA al día' ha conocido más de cerca en qué consistirá esta regulación de la IA con la presidenta del Área de Ética y Responsabilidad de 'OdiseIA', Idoia Salazar, quien ha recalcado la importancia de poner coto a su uso.
“¿Os imagináis un mundo sin que tengamos regulado el tráfico? Cuando se inventaron los coches para no chocarnos hubo que poner orden, y ahora es necesario también poner reglas sobre el mercado de la IA. Europa lo ha hecho de manera adecuada, porque en EEUU nos llevan la delantera en materia tecnológica y en Europa hemos hecho un esfuerzo en esta regulación. Hay críticas en que nos centramos demasiado en poner límites y no en los avances tecnológicos, pero se hace bien regulándolo en base al riesgo”, ha aseverado.
Actualmente existe un debate en el panorama internacional sobre si frenar el desarrollo de la IA o favorecer la expansión. En este sentido, Idoia Salazar alerta que su uso “tiene ciertos problemas que puede afectar a nuestros derechos fundamentales”, siendo el motivo por el que la responsable de 'OdiseIA' defiende esta regulación: “Lo que quieren las instituciones europeas es conseguir la confianza en el mercado y se cuiden estas cuestiones que tienen un mayor riesgo”.
Salazar ha puntualizado además que este borrador europeo ha visto la luz contando no solo con las instituciones europeas, sino con empresas de países como Francia, España o Alemania.
¿Cómo se protege la propiedad intelectual en la nueva regulación?
La propiedad intelectual de imágenes, por ejemplo, es otra cuestión que incluye el borrador: “Los derechos de autor están regulados por otro tipo de legislaciones como la ley de Protección de Datos que ya lo tiene regulado. En derechos de e autor a nivel de esta ley, obliga a aquellos modelos como ChatGPT a documentar las fuentes usadas”, ha explicado en 'ECCLESIA al día'.
Cuestionada sobre la posibilidad de crear una policía específica para supervisar el uso de la IA similar a la ciberpolicía que surgió con el auge de Internet, Idoia Salazar prevé instaurar una ciberpolicía específica que trabaje en los modelos de Inteligencia Artificial para combatir posibles delitos: “Se ha creado en Europa una agencia que va a supervisar los malos usos de alto riesgo. En España se ha creado la Agencia de Supervisión de Algoritmos, dependiente de la agencia europea”, ha recordado.
¿Por qué es necesaria una formación en la IA?
Pero sin duda lo que más preocupa a la presidenta de 'OdiseIA' sobre el uso de la IA es la manipulación a la sociedad si no hay una buena formación: “Si los riesgos de su uso recae en la sociedad y no está bien formada para poder admitir este impacto que tendrá en nosotros, tenderemos a dejarnos a guiar por estos modelos de IA que son propiedad de empresas y modelos, y habrá alta probabilidad de manipulación en la sociedad tanto a nivel comercial e ideológica, y eso es preocupante”, ha advertido.