Por qué China vota en 2024 en contra de supervisar la IA en los ejércitos si el año pasado votó a favor

Mario Yáñez explica en La Linterna el cambio de opinión del país asiático en materia de Inteligencia Artificial de 2023 a 2024

Paco Delgado

Madrid - Publicado el

3 min lectura

      
      
             
      

Seúl ha sido la ciudad elegida para celebrar la cumbre sobre Inteligencia Artificial Responsable en el Dominio Militar. Allí se ha tratado de empezar a definir las líneas rojas del uso de la tecnología en materia militar; algo que parece obvio: que la IA no controle el botón rojo sin supervisión humana. Una cumbre que ha terminado con la firma de todos los asistentes menos uno: China.

¿Deberían las máquinas tomar decisiones sobre el uso de armas nucleares? ¿Es inevitable una escalada tecnológica-militar? ¿Dónde está quedando Europa en esta carrera?

EFE

El presidente de Corea del Sur, Yoon Suk Yeol, durante la ceremonia de lanzamiento del comité sobre Inteligencia Artificial de Seúl

¿Qué es la cumbre de IA de Corea del Sur?

Se trata de la segunda cumbre que se celebra como continuación de la que tuvo lugar en La Haya el año pasado. En aquella ocasión, unos 60 países, incluida China y Ucrania, respaldaron un modesto llamamiento al uso responsable de la IA en el ámbito militar. “La tecnología cada vez tiene más impacto en la geoestrategia”, explica en La Linterna Mario Yáñez, consultor tecnológico en varias empresas como Kyndryl. “Lo hemos visto estos días con las explosiones de buscas en el Líbano o con los drones controlados por IA usados en la guerra de Ucrania. Esta vez han intentado cerrar un acuerdo al respecto”, ponía como ejemplo.

Además, este 2024 se ha debatido la necesidad de impedir que la IA sea utilizada para la proliferación de armas de destrucción masiva por parte de actores como los grupos terroristas, y la importancia de mantener el control humano y la participación en el empleo de armas nucleares. “Esto incluye establecer evaluaciones de riesgo, y condiciones importantes como el control humano y de cooperación internacional”, añade Yáñez en COPE.

Por qué sólo se bloquea IA a los grupos terroristas

Con la Inteligencia Artificial y la tecnología avanzada está pasando, asegura el colaborador de La Linterna, “algo parecido a lo ocurrido con las armas nucleares”. “Los buenos son los buenos hasta que dejan de serlo y, además, quien ya tiene esa tecnología no va a renunciar a ella”, comenta en relación a que no se bloquee el uso a las grandes potencias. “Va a ser muy difícil poner de acuerdo a todos los que luchan por esa supremacía tecnológica y militar”.

China vota 'no'

Después de dos días de conversaciones, más de un centenar de países entre los que estaban Estados Unidos, China, Reino Unido, Países Bajos o Ucrania, han desarrollado un documento que no es jurídicamente vinculante y que constata que los humanos, no la inteligencia artificial, deberían tomar las decisiones clave sobre el uso de armas nucleares, y que las capacidades de IA en el ámbito militar deben aplicarse de conformidad con el derecho nacional e internacional y que deben ser éticas y centradas en el ser humano. Un acuerdo que han firmado todos menos China, y Rusia que estaba vetada en la cumbre.

      
             
      

¿La IA artificial para reducir listas de espera?

Por qué China no se suma al acuerdo

La respuesta de China, explica Yáñez, es un síntoma de las tensiones geopolíticas que se viven en la actualidad. “Por primera vez China puede arrebatar la superioridad en tecnología militar”, asegura el colaborador de COPE. Y es que, según un informe publicado en agosto por el Instituto Australiano de Política Estratégica, China ha ampliado su liderazgo como la nación líder en investigación en categorías como el análisis avanzado de datos, algoritmos de IA, o aprendizaje automático e IA adversaria.

Además, ya hay empresas chinas como Tencent Holdings, Alibaba y Huawei Technologies que están entre las 10 principales firmas que realizan investigación en IA a nivel mundial.