Slaughterbots, robots asesinos

|


La página autonomousweapons.org, de la organización Lethal AWS, se encarga de informar, advertir y buscar soluciones a los nuevos robots y drones que funcionan con Inteligencia Artificial, y debido a su alta letalidad, quieren que sean considerados eso: armas de destrucción masiva similares a las nucleares. Uno de los videos mostrados por Lethal AWS – autonomosweapons para ilustrar los peligros de estas armas, va así. El presentador dice: “¿Lo mueve un piloto? No. Esta habilidad es de la Inteligencia Artificial. El aparato se pilota a sí mismo. Su procesador puede reaccionar 100 veces más rápido que un humano”. Entonces se ve un dron cuyo tamaño hace que quepa en la palma de la mano del presentador: “Este es el nuevo arma autónomo que acaba de presentar una marca puntera de material militar. Su movimiento aleatorio es una defensa anti-francotiradores”. Se ve al dron moviéndose como una avispa de forma aleatoria: “Al igual que cualquier dispositivo móvil actual, el robot tiene cámaras y sensores, y al igual que vuestros móviles y aplicaciones de redes sociales tienen reconocimiento facial, también el robot las tiene. Dentro lleva tres gramos de carga explosiva”. Y para mostrar cómo funciona, la tira al aire desde su mano, y el arma se dirige por reconocimiento facial a un maniquí, reconoce la cara del maniquí, se le acerca y le pega un tiro que atraviesa el cerebro por su parte frontal: “¿Lo habéis visto? Este pequeño bang es suficiente para penetrar en el cráneo y destruir su contenido. Este es el poder de una unidad, pero se trata de un arma pensada para actuar en grupo”. Entonces se ve cómo llegan varios de esos mini-drones o mini-robots y atacan a un coche con varias personas y las destruyen a todas, como insectos asesinos. El presentador sigue: “Esto es un ataque de precisión quirúrgica, es uno de nuestros múltiples productos, que usados en grupo pueden penetrar edificios, casas, trenes… esquivar gente, balas, prácticamente esquivar cualquier contraataque. No pueden ser detenidos. Pero ya os he dicho que esto era más grande ¿Por qué? Porque estamos pensando en grande. Mirad”. Entonces se ve un avión de carga, y se ve que se abren unas compuertas, de las cuáles salen miríadas de mini-drones letales, como un enjambre, que se dirigen a algún sitio, y sigue: “Con un pedido de 25 millones de dólares, se puede adquirir esto, suficiente como para destruir a media ciudad, suficiente para matar a media ciudad, a la mitad mala; las armas nucleares están obsoletas, ya que con estas nuevas eliminas completamente a tu enemigo, prácticamente sin ningún riesgo, solo has de describirlo”, y aparece entonces un panel para el director del enjambre de drones, donde se muestra el target: edad, sexo, fitness, uniforme, etnicidad. Se oye: “solo describe al enemigo, libera el enjambre y descansa tranquilo”. Y el final de la presentación: “¿Lo mueve un gran piloto? No. Esta habilidad es todo Inteligencia Artificial”. 



Robots asesinos

Presentación de Stuart Russell, con el avión nodriza arrojando miles de robots asesinos. 2017. Convención en ONU



La Organización advierte de que la era en la que los algoritmos deciden quién vive y quién muere ya está sobre nosotros, aconseja que debemos actuar ahora para prohibir estas armas letales y masivas, pues son peligrosamente impredecibles en su comportamiento: “Las interacciones entre algoritmos basados en el aprendizaje automático y un contexto operativo dinámico hacen que sea extremadamente difícil predecir el comportamiento de estas armas en entornos del mundo real. Además, los sistemas de armas son impredecibles por diseño; están programados para comportarse de manera impredecible con el fin de permanecer un paso por delante de los sistemas enemigos”. 


Esto fue en 2017, y el presentador era el investigador de inteligencia artificial Stuart Russell, quien presentó el cortometraje "Slaughterbots" en una reunión de la Convención de las Naciones Unidas sobre Armas.


Zachary Kallenborn, Consultor Senior en ABS Group, especializado en sistemas no tripulados de robots-enjambres, terrorismo y guerra de armas de destrucción masiva, autor de “Are Drone Swarms Weapons of Mass Destruction?", el 28 de mayo de 2020, advertía: “Aunque los robots asesinos son ficción, numerosos estados están desarrollando tanto tecnología de enjambre de drones como armas autónomas. Cada pata del ejército de los Estados Unidos está desarrollando enjambres de drones… Rusia, China, Corea del Sur, el Reino Unido y otros también están desarrollando enjambres”. La ONU reconoció, en 2020, que ya estas armas letales autónomas han sido probadas en Libia. 


Hagamos un poco de prospectiva, por ejemplo, con los sistemas de control erróneamente atribuidos a Pfizer, según indica Newtral. El 3 noviembre 2021 se mostró como bulo una patente licenciada en Estados Unidos sobre un sistema de identificación de poblaciones mediante dispositivos electrónicos, atribuyéndosele a Pfizer para el rastreo de los vacunados, a través del grafeno que supuestamente contienen las vacunas contra la Covid-19. Newtral habló con Gal Ehrlich, autor e inventor israelí de dicha patente. La patente se ha viralizado en Facebook y Twitter, y en el servicio especializado “Google Patents” aparece con el número “US 11.107.588 B2” y se titula “Métodos y sistemas para priorizar tratamientos, vacunación, pruebas o actividades mientras se protege la privacidad de las personas”. La patente fue concedida el 31 de agosto de 2021 a sus autores, Gal Ehrlich y Maier Fenster. 


Ehrlich comunica a Newtral que su patente no tiene ningún vínculo con la vacuna contra la Covid-19 de Pfizer y BioNTech, y se trata de un sistema que, a través de dispositivos electrónicos, permite determinar qué grupos poblacionales son prioritarios a la hora de recibir una vacuna o un fármaco contra una enfermedad infecciosa en función de sus interacciones sociales: “Nuestro sistema parte de la idea de que las medidas preventivas (incluyendo las vacunas) contra una enfermedad infecciosa que puede transmitirse por gotículas o por vía aérea tendrían un mejor rendimiento epidemiológico si se aplican primero a aquellas personas que tienen más interacciones sociales”. Y sigue: “La aplicación de este enfoque se puede hacer a través del seguimiento de las interacciones por bluetooth entre los teléfonos móviles de los individuos que interactúan socialmente”. 


Sin embargo, esto sí da idea de lo que se puede conseguir para construir un target, ya sea por la condición étnica, por la condición social, por la situación económica, etcétera, si aplicamos el método de Ehrlich. Por ejemplo, si hubiera un sistema que recopilara los datos de todas las personas que sean ciudadanos vacunados, como ocurre con el pasaporte vacunal europeo, los drones pueden tanto acudir a matar (o, en el delicado lenguaje de Macromn, "emmerder") a quienes tengan el pasaporte, como a quienes no lo tengan. La población ya está marcada.


El filósofo Max Tegmark, uno de los sabios mundiales sobre la Inteligencia Artificial, advirtió contra estas armas letales inteligentes y autónomas, en una entrevista de Alexander Armbruster en el “Frankfurter Allgemeine”, el 29 de noviembre de 2021, y Tegmark explotaba: “¡Prohíban las armas autónomas letales!”. 


Pero ya es tarde. El target ya está contabilizado, el grupo a exterminar o "emmerder" ya está listado, por acción o por omisión. Están los vacunados y los no vacunados. Solo hay que aprobar presupuestos y señalar desde los gobiernos a quién le toca morir o, en expresión de Macron, “emmerder”.


Las armas son altamente escalables, es decir, una vez producidas y disponibles en el arsenal, basta con pocos pilotos para manejarlas. En la guerra clásica a más armas se necesitaban más soldados, pero ya no es así con la IA, pues una vez puestos en marcha los enjambres de “Slaughterbots”, se disparan solos. 


Lethal AWS advierte de que la selección de individuos a exterminar basándose únicamente en los datos de los sensores, especialmente a través del reconocimiento facial u otra información biométrica, o la que hemos dicho de vacunados/no vacunados, introduce riesgos sustanciales para la selección de grupos basada en la edad, el género, la raza, la etnia, la vestimenta religiosa o los datos de salud: “Si esto se combina con el riesgo de proliferación, las armas autónomas podrían aumentar en gran medida el riesgo de violencia selectiva contra clases específicas de individuos, incluyendo incluso la limpieza étnica y el genocidio”. 


La nueva coalición alemana, de Verdes y Socialistas del SPD, que había prometido electoralmente acabar con estas armas de destrucción masiva autónomas (en especial Kevin Kühnert, vicepresidente del SPD), se ha limitado a rechazarlas después de ser elegidos, no a prohibirlas. Casi simultáneamente, un mes después, abogan por la vacunación obligatoria.



Sin comentarios

Escribe tu comentario




No está permitido verter comentarios contrarios a la ley o injuriantes. Nos reservamos el derecho a eliminar los comentarios que consideremos fuera de tema.