Artículo de Middle East Eye con traducción de PEAPI Ecuador.
Israel pone a prueba la inteligencia artificial en su guerra contra los palestinos
El autor, Richard Silverstein escribe el blog Tikun Olam, dedicado a denunciar los excesos del Estado de seguridad nacional israelí.
Sus trabajos han aparecido en Haaretz, Forward, Seattle Times y Los Angeles Times. Ha contribuido a la colección de ensayos dedicada a la guerra del Líbano de 2006, A Time to Speak Out (Verso) y tiene otro ensayo en la colección, Israel and Palestine: Alternate Perspectives on Statehood (Rowman & Littlefield) Foto de RS por: (Erika Schultz/Seattle Times)
Un dron israelí de reconocimiento vuela durante un show aéreo en Tel Aviv el 26 de abril del 2023 (AFP)
A medida que Israel estrecha su red de control, los palestinos se han convertido en los primeros objetivos de una tecnología monstruosa y letal.
El ejército israelí lanzó el año pasado una nueva estrategia para integrar armas y tecnología de IA en todas las ramas militares siendo la transformación estratégica más radical en décadas. El mes pasado el Ministerio de Defensa israelí se jactó de que el ejército pretende convertirse en una "superpotencia" de la IA en el campo de la guerra autónoma.
"Hay quienes ven la IA como la próxima revolución que cambiará la faz de la guerra en el campo de batalla", declaró el general retirado del ejército Eyal Zamir en la Conferencia de Herzliya, un foro anual sobre seguridad. Las aplicaciones militares podrían incluir "la capacidad de las plataformas para atacar en enjambres, o de los sistemas de combate para operar de forma independiente... y de asistencia en la toma rápida de decisiones, a una escala mayor de la que hemos visto nunca".
La industria de defensa israelí está produciendo una amplia gama de buques y vehículos militares autónomos, incluido un "vehículo robótico armado" descrito como una plataforma "robusta" y "letal" dotada de "reconocimiento automático de objetivos". Un submarino autónomo para la "recopilación encubierta de inteligencia", apodado BlueWhale, ha estado en pruebas de ensayo.
Si todo esto le asusta, ¡asústese mas! . Israel está creando no sólo un monstruo Frankenstein sino enjambres enteros de monstruos capaces de causar estragos en sus objetivos palestinos y en cualquier parte del mundo.
Las personas palestinas son el campo de test para tales tecnologías sirviendo como "pruebas de concepto" para los compradores globales. Los clientes más probables de Israel son los países en guerra. Aunque las armas pueden ofrecer una ventaja en el campo de batalla, al final seguramente aumentarán el nivel general de sufrimiento y sangre derramada entre todos los participantes. Podrán matar en mayor número y con mayor letalidad. Por eso son monstruosas.
Otra nueva tecnología israelí de IA, Knowledge Well vigila los lugares desde donde los militantes palestinos lanzan cohetes y también puede predecir futuros lugares de ataque.
Aunque estos sistemas pueden ofrecer protección a los israelíes frente a las armas palestinas, también permiten a un Israel impertérrito convertirse en una máquina virtual de matar desatando aterradores asaltos contra objetivos militares y civiles mientras se enfrenta a una resistencia mínima por parte de sus enemigos.
Buscar y destruir
Estas tecnologías constituyen una advertencia al mundo sobre lo omnipresente e intrusiva que se ha vuelto la IA.
Todo esto sucede mientras el principal experto en IA del ejército israelí dice que compite con los salarios que se ofrecen en el mercado privado a los especialistas en IA aportando "sentido". Como si esto fuera a tranquilizar de alguna manera, añade que las armas de IA de Israel "en el futuro previsible... siempre [tendrán] una persona en el procedimiento".
Les dejo que reflexionen sobre cómo podría ser "significativo" matar palestinos. Tampoco es probable que un ser humano controle siempre este armamento del campo de batalla. El futuro pasa por robots que puedan pensar, juzgar y luchar de forma autónoma, con poca o ninguna intervención humana más allá de la programación inicial. Se les ha descrito como la "tercera revolución de la guerra después de la pólvora y las armas nucleares".
Aunque estén programados para buscar y destruir al enemigo, ¿quién determina quién es el enemigo y toma las decisiones de vida o muerte en el campo de batalla? Ya sabemos que en la guerra los humanos cometen errores, a veces terribles. Los programadores militares, a pesar de su pericia a la hora de dar forma a lo que pensarán y harán los robots armados no son menos propensos al error. Sus creaciones presentarán enormes incógnitas de comportamiento que podrían costar innumerables vidas.
Las cámaras de vídeovigilancia están siempre presentes en el paisaje palestino dominado por torres de vigilancia israelíes, algunas de ellas armadas con pistolas robóticas teledirigidas. Los drones sobrevuelan la zona y son capaces de lanzar gases lacrimógenos, disparar directamente a los palestinos que se encuentran debajo o dirigir el fuego del personal de tierra. En Gaza, la vigilancia constante infunde trauma y miedo a los residentes.
Además, Israel cuenta ahora con aplicaciones de reconocimiento facial, como Blue Wolf, que pretenden captar imágenes de cada persona palestina e introducirlas en una enorme base de datos que puede ser explotada para cualquier fin. Los programas informáticos de empresas como Anyvision son capaces de identificar a un gran número de personas e integrar los datos obtenidos en sistemas que contienen información personal, incluyendo publicaciones en las redes sociales.
Es una red de control que infunde miedo, paranoia y una sensación de desesperanza. Como dijo en una ocasión el ex jefe del Estado Mayor del ejército israelí, Rafael Eitan, el objetivo es hacer que los palestinos "corran como cucarachas drogadas en una botella".
El monstruo de Frankenstein
Muchos investigadores de datos y defensores de la privacidad han advertido sobre los peligros de la IA, tanto en la esfera pública como en el campo de batalla. Los robots militares dotados de IA no son más que uno de los muchos ejemplos. Israel está a la vanguardia de estos avances. Es el Dr. Frankenstein y esta tecnología es su monstruo.
Human Rights Watch ha pedido que se prohíba este tipo de tecnología militar, advirtiendo: "Las máquinas no pueden entender el valor de la vida humana".
La tecnología israelí de IA puede estar destinada, al menos a ojos de sus creadores, a la protección y defensa de los israelíes. Pero el daño que inflige alimenta un círculo vicioso de violencia sin fin. El ejército israelí y los medios de comunicación que promueven esta magia sólo crean más víctimas - inicialmente palestinos, pero más tarde, cada dictadura o estado genocida que compre estas armas producirá su propio conjunto de víctimas.
Otro "logro" de AI fue el asesinato por el Mossad del padre del programa nuclear iraní, Mohsen Fakhrizadeh, en 2020. El New York Times ofreció este relato sin aliento: "Agentes iraníes que trabajaban para el Mossad habían aparcado una camioneta Nissan Zamyad azul a un lado de la carretera.... En la caja de la camioneta había una ametralladora de francotirador de 7,62 mm... El asesino, un francotirador experto, se colocó en posición, calibró la mira, amartilló el arma y tocó ligeramente el gatillo.
"Sin embargo, no estaba cerca de Absard [en Irán]. Estaba mirando una pantalla de ordenador en un lugar no revelado a más de 1.000 millas de distancia... [Esta operación fue] la primera prueba de un francotirador computerizado de alta tecnología equipado con inteligencia artificial y múltiples cámaras, operado vía satélite y capaz de disparar 600 balas por minuto.
"Esta ametralladora mejorada y teledirigida se une ahora al dron de combate en el arsenal de armas de alta tecnología para el asesinato selectivo a distancia. Pero a diferencia de un dron, la ametralladora robótica no llama la atención en el cielo, donde un dron podría ser derribado, y puede situarse en cualquier lugar, cualidades susceptibles de remodelar los mundos de la seguridad y el espionaje."
Conocemos los peligros que plantea el armamento autónomo. Una familia afgana fue brutalmente asesinada en 2021 en un ataque de un avión no tripulado estadounidense porque uno de sus miembros había sido identificado erróneamente como un terrorista buscado. Sabemos que el ejército israelí ha matado en repetidas ocasiones a civiles palestinos en lo que ha calificado de "errores" en el campo de batalla. Si los seres humanos que luchan en un campo de batalla llegan a cometer errores tan atroces, ¿cómo podríamos esperar que las armas y los robots operados por inteligencia artificial hagan un mejor trabajo?
Esto debería hacer saltar las alarmas sobre los efectos devastadores que la IA tendrá sin duda en el ámbito militar, y sobre el papel de liderazgo de Israel en el desarrollo de estas armas letales no reguladas.
No hay comentarios:
Publicar un comentario