Actualidad

Armas letales inteligentes: un desafío ético para el siglo XXI

La tecnología, explica Joaquín Rodríguez Álvarez, tiene dos caras: una promete futuros de progreso y confort y la otra nos aterroriza con escenarios distópicos. Y hoy en día, cuando la inteligencia artificial se alza como nueva frontera tecnológica, urge abordar un debate ético y jurídico sobre su potencialmente devastadora aplicación al armamento.

Armas letales inteligentes: un desafío ético para el siglo XXI

/por Joaquín Rodríguez Álvarez/

Vivimos inmersos en una época de transición entre modernidades, asediados por retos que no pueden ser afrontados desde el viejo paradigma de los Estados-nación o nociones estrechas de soberanía, ya que requieren de esfuerzos globales encaminados a generar nuevos marcos de acción y de conciencia. Urge una nueva noción de multilateralismo que permita adquirir consensos globales alrededor de aquellos temas que suponen una amenaza real para el futuro de nuestra especie y donde la sociedad civil organizada se erija como un actor con voz propia, más allá de intereses estatales o corporativos.

La crisis climática, por ejemplo, ha puesto de manifiesto la obsolescencia de un modelo de desarrollo basado en el consumo de combustibles fósiles que ha conducido a uno de los mayores episodios de extinciones masivas en nuestra historia, acompañado de otro tipo de fenómenos (episodios severos de sequía, aumento de los desastres naturales, nuevos patrones de migraciones climáticas…) que han puesto de manifiesto la fragilidad de los equilibrios ecológicos. Urge abordar una transición energética que será global o no será y para la que acuerdos como el de París, aunque insuficientes, representan avances clave en lo relativo a la construcción de espacios políticos de dialogo y trabajo.

Este problema, al igual que muchos otros, posee una fuerte vinculación con los marcos tecnológicos: en ellos podemos encontrar tanto el origen como posibles soluciones al problema. La tecnología, al igual que el dios Jano, tiene dos caras: una de ellas nos promete futuros de progreso y confort mientras que la otra nos aterroriza con escenarios distópicos, ya que no deja de ser un mero amplificador de la voluntad humana; voluntad que no siempre hace prevalecer los intereses del colectivo sobre los del Estado o la corporación.

Es por ello necesario y urgente establecer códigos deontológicos y limitaciones legales, así como una nueva conciencia acerca de los usos potenciales de la tecnología, poniendo en cuarentena las promesas que, desde ciertos sectores, se realizan a modo de cantos de sirena y de forma recurrente, que nos presentan la inteligencia artificial como salvadora al caos que nosotros mismos hemos creado. Son las mismas voces que nos prometían que la energía nuclear se erigiría como portadora de progreso social y paz, o aquellas que afirmaban que la industria transgénica sería capaz de alimentar al planeta; tecnologías estas, que innegable como es su aplicabilidad a la hora de solventar numerosos problemas (la medicina nuclear es un claro ejemplo de ello), también han supuesto nuevos riesgos y amenazas. Así, podemos observar el proyecto Manhattan como paradigma de la conversión militar de una tecnología, o la creación del gen Terminator de Monsanto como ejemplificación de la cristalización de los intereses económicos (corporativos) por encima de los sociales.

Hoy en día la inteligencia artificial parece alzarse como nuestra nueva frontera, al igual que en los años sesenta y setenta fue la exploración espacial o en los noventa y dos mil la decodificación del genoma humano. Tenemos ante nosotros una nueva tierra de oportunidades, promesas y riesgos que debe comenzar a ser analizada no como una mera tabla de salvación a la que abrazarnos en pos de solventar urgencias sin abrir debates de fondo, sino como una tecnología que está llamada a transformar la propia noción de lo humano y, que al igual que las anteriormente mencionadas, no se encuentra ausente de riesgos, muchos de los cuales van ligados a su aplicación militar y el surgimiento de lo que se ha dado en conocer como sistemas letales autónomos: sistemas de armamento capaces de seleccionar y eliminar objetivos sin control humano significativo, y que han sido calificados por muchos como la cuarta revolución de la guerra, tras la de la pólvora, la nuclear y la bacteriológica.

Es por este motivo que el pasado jueves 4 día de octubre tuvo lugar la presentación de la campaña Stop Killer Robots en el marco de la Jornada Inteligencia Artificial y Armas Letales Autónomas, celebrada el Aula Magna de la Facultad de Derecho de la Universitat Autònoma de Barcelona. En ella se pretendía poner de manifiesto los riesgos asociados a la militarización de la inteligencia artificial, así como la urgente necesidad de establecer mecanismos legales vinculantes con el objetivo de detener la proliferación de unos sistemas que podrían desencadenar una nueva carrera armamentística.

La jornada contó con la participación del ICRAC (Comité Internacional para la Regulación de las Armas Robóticas), el Centro Delàs de Estudios por la Paz y Fundipau, además de periodistas y académicos que cuestionaron la delegación de capacidades letales a entes no humanos. La jornada fue presentada por la doctora Montserrat Iglesias, directora de la Escuela de Prevención y Seguridad Integral de la UAB, y comenzó con la presentación del libro: Inteligencia artificial y armas letales autónomas: un nuevo reto para Naciones Unidas (Trea, 2018), a cargo de Fàtima Llambrich.

Los autores del libro —la doctora Roser Martinez Quirante y yo mismo (ambos somos miembros de ICRAC)— abordamos los riesgos asociados al surgimiento de este tipo de armamento y subrayamos la necesidad urgente de abrir un debate más profundo sobre la aplicabilidad de la tecnología y sus usos y limitaciones atendiendo a criterios éticos, sociales y jurídicos. La inteligencia artificial ya no es ciencia ficción, sino que se trata de un sistema que ha evolucionado durante más de cincuenta años, incluso más si reconocemos que su origen se remonta a la década de 1930, cuando Alan Turing describió el primer sistema de inteligencia artificial. Es decir, nos encontramos ante un sistema tecnológico que presenta una relativa madurez, y cuyas aplicaciones a día de hoy son prácticamente innumerables.

Así, por ejemplo, un artículo publicado por The Atlantic titulado «Cómo los algoritmos pueden reducir los puntajes crediticios de las minorías» revela cómo el uso masivo de los algoritmos de inteligencia artificial por parte de las entidades financieras puede cristalizar en dinámicas de marginación sobre las minorías, por lo que es necesario incluir controladores humanos que puedan corregir estos sesgos. Del mismo modo, The Guardian advirtió sobre la aparición de «prejuicios» relacionados con el género y la raza en inteligencias artificiales debido al procesamiento del lenguaje natural en fuentes abiertas, que altera la neutralidad teórica de la inteligencia artificial, algo que ha sido reconocido por empresas como Facebook, que prometieron aumentar las fases bajo control humano. Todo ello acrecienta las dudas y el temor hacia la proliferación de armas que no cuenten con controladores humanos en todo su ciclo.

Quien esto escribe, que ya se había cuestionado el uso de las tecnologías en La civilización ausente: tecnología y sociedad en la era de la incertidumbre, presentó el caso de los sistemas de armamento autónomo, así como el debate internacional que se ha suscitado al respecto, alertando de numerosos riesgos que este tipo de armamento supone en lo que podría ser la configuración de una nueva carrera armamentística entre diferentes países que —como Rusia, Estados Unidos, el Reino Unido, Corea del Sur o Israel— ya se han embarcado en el desarrollo de este tipo de sistemas. Los avances tecnológicos en este tipo de armamento por parte de algunas naciones —expuse— «están pasando desapercibidos» entre la sociedad, que junto con la comunidad académica debería anticiparse a la proliferación de las armas letales.

Por su parte, Roser Martínez también afirmó que, si la investigación en estos países continua avanzando en esta línea, pueden existir tanques, drones y armas con la capacidad de matar «sin dignidad» a las personas: «una muerte decidida con un algoritmo». Esta decisión, según la experta en armamento, «no se puede delegar a una máquina que carece de capacidades como empatía, neutralidad o completa fiabilidad».

En la segunda parte de la jornada, a la que asistieron alrededor de unas doscientas personas entre académicos, estudiantes expertos y periodistas, tuvo lugar la presentación oficial de la campaña Stop Killer Robots, una coalición internacional cuyo objetivo es la prohibición los sistemas de armamento autónomo a través de la redacción de un tratado Internacional vinculante.

En la presentación de la campaña también intervinieron Pere Brunet, experto en desarme e Inteligencia Artificial del Centro Delàs de Estudios por la Paz, y Jordi Armadans, politólogo y director de Fundipau. Las dos organizaciones están vinculadas con la campaña en España juntamente con el ICRAC y realizaron una aproximación más técnica a los retos que supone la inteligencia artificial (Pere Brunet) y una breve aproximación a la historia del movimiento internacional por el desarme (Jordi Armadans). Los representantes de las dos organizaciones coincidieron en afirmar que la campaña Stop Killer Robots representa  una muestra de la «madurez» del movimiento, ya que es la primera vez que se consigue estructurar una campaña con carácter preventivo.

Es el momento de comenzar a tejer complicidades dentro de la sociedad civil con el fin de ejercer presión sobre los decisores políticos a fin de evitar la aplicación armamentística de la inteligencia artificial, antes de que sea demasiado tarde.


Joaquín Rodríguez Álvarez es máster en relaciones internacionales, doctor por la UAB en el programa de derecho público global y profesor en la EPSI, donde imparte docencia en diferentes materias entre las que destaca «Análisis de riesgos y tecnología de la seguridad». Es además profesor asociado en el Departamento de Derecho Administrativo de la misma Universidad. Su principal área de investigación es la relación entre sociedad y tecnología. Es coordinador de Leading Cities en España y miembro del International Committee for Robots Armas Control (ICRAC). Entre sus publicaciones destacan: Jeder für sich oder alle gemeinsam in Europa? Die Debatte über Identität, Wohlstand und die institutionellen Grundlagen der Union (Nomos Verlag, 2013), Cities in crisis: socio-spatial impacts of the economic crisis in Southern European cities (Routledge, 2015) y La civilización ausente: tecnología y sociedad en la era de la incertidumbre (Trea, 2016).

0 comments on “Armas letales inteligentes: un desafío ético para el siglo XXI

Responder

Por favor, inicia sesión con uno de estos métodos para publicar tu comentario:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión /  Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión /  Cambiar )

Conectando a %s

A %d blogueros les gusta esto: