Inteligencia artificial, sistemas militares y derechos humanos

Pere Brunet, Centro Delàs de Estudios para la Paz

Los sistemas de inteligencia artificial (IA en lo que sigue) han experimentado un auge espectacular en los últimos años, con aplicaciones que van desde el diagnóstico precoz en medicina hasta la robótica moderna, pasando por campos tan diversos como el de la traducción automática, los juegos por ordenador o la previsión del impacto del cambio climático. Los vemos también en la mejora automática de las fotos que realizamos en nuestros móviles, en los sistemas publicitarios que nos sugieren otras posibles compras, en los anuncios que nos proponen viajes y hoteles y en sistemas de combate. Pero, aunque cubiertas de un manto de panacea, no son lo que parecen.

La inteligencia artificial: luces y sombras

La hablar de IA nos referimos a aplicaciones informáticas diseñadas con el fin de actuar de manera similar a las personas humanas en ámbitos específicos. Observemos que se trata de actuar, no de pensar o razonar, y de hacerlo en ámbitos muy concretos. Una IA diseñada para mejorar fotos no sirve en traducción, ni viceversa. Es por tanto mucho más limitada que la inteligencia humana, y es dudoso que la “I” sea un término adecuado a lo que nos está llegando.

Tras un auge inicial de los algoritmos de IA basados en conocimiento y reglas, durante las últimas décadas la inteligencia artificial se ha ido materializando básicamente en nuevos sistemas denominados de aprendizaje profundo o IA basada en datos, que son los que trataremos en adelante. En otras palabras, hemos pasado de algoritmos y reglas que alguien programaba y entendía, a sistemas automáticos de IA que se auto configuran en base a un volumen ingente de datos, el llamado “Big Data”.

Esta IA basada en datos trabaja en dos fases: la primera de aprendizaje o entrenamiento y la segunda, de uso (en algunos casos, ambas fases interaccionan de manera que los sistemas continúan aprendiendo durante su uso). La primera es altamente costosa y laboriosa y requiere gran potencia de cálculo, mientras que la segunda puede ejecutarse en ordenadores personales o teléfonos móviles y es eficiente y rápida. La fase de aprendizaje es invisible, lenta y desconocida, mientras que la de uso parece casi trivial si olvidamos el volumen de trabajo preparatorio de entrenamiento. Podríamos compararlas al proceso de aprendizaje de los bebés y al momento en que empiezan ya a hablar.

Uno de los desarrollos sorprendentes de la IA basada en datos, que le dieron el empuje definitivo, nos llegó de la mano de los traductores automáticos. El investigador Franz Josef Och fue pionero en diseñar los primeros algoritmos en 2003, y luego Google los incorporó entre los años 2005 y 2007. Estos nuevos traductores funcionan tras aprender de ingentes cantidades de datos y funcionan razonablemente bien.

En este momento vemos una fuerte ola de entusiasmo con la IA en muchas áreas de la actividad humana. Pero estos sistemas carecen de conocimientos de sentido común y los sensores que puedan tener ni “perciben” la realidad ni pueden interactuar con ella. No pueden gestionar situaciones imprevistas ni aprender a partir de la experiencia. Durante los primeros años de vida, el cerebro de los niños va madurando en base a la interacción constante con el entorno y las personas. Los sistemas de IA, en cambio, se nutren de información congelada en el tiempo, fría y descontextualizada. Los niños observan por ejemplo que los pájaros cantan a la salida del sol. Un sistema de IA puede perfectamente “deducir”, en cambio, que el canto de los pájaros es el que desencadena la salida del sol.

Por otra parte,

  • El aprendizaje en los sistemas de IA es imperfecto y sesgado, ya que es imposible disponer de conjuntos de datos totalmente imparciales.
  • Los sistemas de IA se equivocan. El porcentaje de error depende del tipo de problema, de la calidad de los datos de aprendizaje, de la estructura de la red neuronal y de la calidad del proceso de entrenamiento, pero nunca es nulo.
  • Los resultados de la IA no son explicables, ni por parte de los expertos. Al no serlo, la rendición de cuentas se hace casi imposible.
  • El entrenamiento de los sistemas de IA es muy costoso en términos ecológicos y de energía, como veremos.

Encontramos IA en los sistemas generativos que crean texto e imagen, en el diagnóstico médico, en informaciones falsas que nos llegan, en mensajes electorales hechos a medida, en sistemas de control social, en sistemas de armamento e incluso en armas autónomas que pueden matar sin intervención humana. En algunos de estos casos, sus posibles errores son poco preocupantes y fáciles de corregir. En otros pueden afectar a personas concretas en situaciones críticas con efectos graves o letales y sin rendición alguna de cuentas.

¿Derechos humanos o negocio?

Como hemos visto, los sistemas de IA actuales no son realmente inteligentes, sino que simplemente nos pueden ayudar en la realización de tareas muy concretas. Por otra parte, sus errores son inevitables: son sistemas que se equivocan y que por tanto requieren que comprobemos y supervisemos sus resultados. Sus fallos (también llamados alucinaciones) pueden ser disparatados y en todo caso imposibles de explicar incluso por parte de los expertos. Y, finalmente, su entrenamiento requiere cantidades ingentes de datos y de energía.

En este contexto, ¿tiene sentido usar aplicaciones basadas en IA? ¿en qué casos deberíamos denunciarlas? ¿son compatibles la IA y los derechos humanos? ¿la IA nos va a controlar?

No debemos olvidar que los sistemas de IA son herramientas, que deberíamos poder decidir si usamos o no y en qué casos las utilizamos. De la misma manera que no vamos por la calle con las tijeras de la cocina colgadas del cuello, debemos defender nuestro derecho a utilizar únicamente la IA cuándo queramos y la consideremos necesaria. Deberíamos usar internet, los móviles y la IA de la misma manera que utilizamos el abrelatas o el peine.

En algunos casos, como el de la traducción automática o el de la mejora de fotos, la IA puede sernos ciertamente útil. Pero tenemos derecho a ser informados de que estamos usando una aplicación basada en IA (así lo indica por ejemplo la ley europea de regulación de la inteligencia artificial) y nunca debemos pasar por alto la supervisión de sus resultados. El hábito de revisar los resultados de las traducciones deberíamos extenderlo a todos los ámbitos que incorporan sistemas de aprendizaje máquina.

Y el uso cotidiano de la IA, cada vez más inevitable, no debe detener la denuncia. Porque la IA es un gran negocio, basado en el uso ilícito de cantidades ingentes de datos de la nube y redes sociales, que ignora los derechos de privacidad de las personas utilizando su información sin darles ni tan solo una modesta compensación económica. Porque los sistemas de aprendizaje y los centros de datos suponen un dispendio enorme de energía y agua, en una espiral que requeriría una reflexión urgente a nivel global para ver cómo pasamos de la actual IA ecocida a nuevos esquemas más humanos y ecológicos. ¿Tiene algún sentido mantener el crecimiento imparable de la IA actual, cuando vemos su escandalosa ineficiencia? ¿Sería posible diseñar otra IA, más eficiente, respetuosa y humana? ¿Cómo es que los servicios de las aplicaciones basadas en esta IA ecocida son gratuitos? ¿No será que nos están comprando a nosotros?

Los expertos en IA reconocen y estudian sus logros, pero también advierten de sus limitaciones (sesgos, errores, falta de explicabilidad) y entienden que estamos en una fase histórica inicial que será superada con la llegada de nuevos paradigmas que la hagan más “I” y menos “A”. Con nuevos sistemas que dejen atrás los actuales métodos de fuerza bruta, acercándose más a nuestra estructura cerebral. Porque nuestro cerebro es eficiente energética y ecológicamente, aprende con un monto mucho más reducido de datos y va moldeándose plásticamente en base a la información de los sentidos y a nuestra interacción con el entorno. Y es que, a pesar de lo que nos dicen y de la fascinación social, la IA se encuentra en la edad de piedra.

El problema, en todo caso, es que estas opiniones matizadas de los expertos no llegan a la sociedad. Y es que no interesan. La IA actual no incluye los derechos humanos como objetivo porque se basa en el negocio y no en las personas. Las empresas dominan y los gobiernos se doblegan a los intereses del mercado. La regulación europea de la IA que aprobó el Parlamento Europeo, fue recortada convenientemente por la influencia de los lobbies empresariales hasta llegar a la versión final que aprobó el Consejo. Y las voces que nos llegan son las de los tecnotraficantes, que, desconocedores tanto de la tecnología como de las limitaciones tecnológicas de la IA, nos venden cuentos de hadas sobre sus virtudes. La regulación y los derechos humanos no interesan porque limitarían el negocio.

La inteligencia artificial en sistemas militares y de combate

Hasta ahora, en los conflictos bélicos, se suponía que existía una deliberación en relación a los objetivos, por parte de personas responsables, antes de iniciar cualquier ataque. Pero con la entrada de los sistemas de IA, aparecen dos nuevos escenarios. O bien vemos sistemas automáticos que escogen los objetivo a atacar, objetivos que determinadas personas deberán aprobar antes de que se proceda al ataque, o bien nos encontramos con sistemas autónomos de combate que escogen objetivos a atacar y proceden a atacarlos sin intervención humana alguna. Los dos casos son objetables, aunque en distinto grado. En el primer caso debido al sesgo de automatización, que es la tendencia humana a dar por bueno aquello que nos proponen las máquinas. En el segundo, porque implica que las decisiones letales las toman entes no humanos, en este caso basados en IA.

Los sistemas de IA aprenden, captan y actúan. Pero pueden ser imprevisibles y no siempre lo hacen de la manera esperada. En este sentido, la escalada hacia los sistemas armados autónomos con IA es ética y jurídicamente inaceptable, porque delegar en una máquina las decisiones de matar va en contra de la dignidad humana y de los derechos de las personas. Se pretende argumentar diciendo que estos sistemas tienen la capacidad de reducir el número de tropas combatientes, que reducen las bajas propias, que permiten hacer guerras de bajo coste. Pero todo ello nos lleva a cuestionar si evitar el riesgo para la vida de los combatientes está por encima de la vida de las victimas civiles. En definitiva, si hay vidas que tienen más valor que otras.

Los sistemas de combate basados en IA desconocen emociones tan singulares como la empatía, la piedad o la culpa. Lo mismo podemos decir sobre la

capacidad para distinguir y evaluar entre ordenes lícitas o ilícitas o la capacidad

para interpretar un contexto y evaluarlo en cálculos basados en valores. Sus errores, inevitables, son vidas humanas. La supervisión humana es baja o inexistente, y tanto su operación como los daños generados quedan bajo secreto militar. No existe explicación posible de los desastres que producen sus errores, y la rendición de cuentas es inexistente.

Por todo ello, tanto la campaña Stop Killer Robots como el mismo Secretario General de Naciones Unidas defienden que atentan contra la dignidad de las personas y que deben ser prohibidos por la legislación internacional.

De la dominación a la vida

La futura IA no será como los primitivos sistemas actuales, pero siempre será diferente de la humana. Porque el desarrollo mental humano se nutre de las interacciones con el entorno. Una corporeidad perceptiva y motora y una intencionalidad que no existe en las inteligencias artificiales no corpóreas.

El gran debate pendiente en el campo de la IA incluye la huella ecológica, sus objetivos concretos y todos los aspectos éticos asociados. ¿Seremos capaces, desde la ciudadanía, de exigir una nueva IA ética que deje atrás la dominación y el control, que surja de las necesidades y derechos concretos de las personas y que a la vez sea ecológicamente respetuosa? ¿Llegaremos a hablar de una IA feminista, post-capitalista y ecologista?

Debemos tener en cuenta que quien nos puede dominar son personas, no máquinas. Y que el futuro requiere grandes dosis de regulación global, ética,educación y conciencia crítica.

Bibliografía

Pere Brunet, Tica Font y Joaquín Rodríguez (2021), “Robots Asesinos: 18 preguntas y respuestas”, Centro Delàs de Estudios para la Paz:

Ramón López de Mántaras y Pere Brunet (2024), “Qué es la inteligencia artificial”, Revista Papeles, núm. 164 (págs. 1-9).

Pere Brunet (2024), “Regulación de la inteligencia artificial” Revista Papeles, núm. 164 (págs. 45-54):

Este artículo se publicó en Libre Pensamiento nº 118. Verano 2024.