La inteligencia artificial y los mecanismos del Estado Israelí en su uso en la guerra contra Gaza

  • | Friday, 9 August, 2024
La inteligencia artificial y los mecanismos del Estado Israelí en su uso en la guerra contra Gaza

     La inteligencia artificial (IA) es una fuerza disruptiva que está revolucionando la digitalización de sistemas científicos, humanos, económicos, sociales y políticos. Esta tecnología ha transformado radicalmente nuestras vidas, facilitando la comunicación, el intercambio de conocimientos y abriendo un sinfín de nuevas posibilidades. Su influencia sigue creciendo y promete continuar remodelando nuestro mundo. No obstante, este progreso tecnológico no debe socavar los intereses públicos fundamentales, como la privacidad, la seguridad y la equidad. Es imperativo establecer marcos éticos sólidos para el desarrollo y la implementación de la inteligencia artificial y el aprendizaje automático. La ausencia de normas internacionales universales expone a la sociedad a riesgos significativos, ya que estas tecnologías pueden ser utilizadas tanto para el beneficio como para el perjuicio de la humanidad.
Las tecnologías pueden ser poderosas herramientas para mejorar la calidad de vida, desde la respuesta a emergencias hasta la protección del medio ambiente. Por ejemplo, la inteligencia artificial puede acelerar la investigación médica y las redes sociales pueden facilitar la movilización social. Sin embargo, esta misma tecnología puede convertirse en un arma de destrucción masiva. Lo que antes era ciencia ficción, ahora es una realidad: el uso de drones armados con inteligencia artificial en conflictos como el de Gaza ha resultado en la muerte de civiles inocentes. La capacidad de identificar objetivos dentro de edificios y destruir infraestructuras civiles, como lo denunció el sitio español 'Canal 6' en abril de 2023, plantea interrogantes sobre los límites éticos del desarrollo tecnológico. ¿Cómo podemos garantizar que las innovaciones tecnológicas se utilicen para el beneficio de la humanidad y no para su destrucción? La respuesta a esta pregunta requiere un esfuerzo conjunto de gobiernos, empresas y sociedad civil.
Este informe subraya el uso extensivo de nuevas y avanzadas tecnologías de inteligencia artificial por parte del Estado israelí para atacar objetivos en Palestina de manera aleatoria, lo que ha suscitado preocupaciones internacionales sobre el uso de esta tecnología en la guerra, especialmente con el creciente número de víctimas civiles, que hasta ahora supera los 37,000 muertos. El canal mencionó en un informe visual que el ejército israelí utiliza un programa de inteligencia artificial llamado "El Evangelio" (también conocido como "Habsora", que significa "Evangelio" en hebreo, o "The Gospel"), señalando que está alimentado con datos para identificar los objetivos de los bombardeos en Gaza, como escuelas, oficinas de organizaciones de ayuda, lugares de culto y hospitales. El canal describió esta tecnología como "la más brutal", lo que genera preocupaciones sobre su coherencia y las implicaciones para los derechos humanos. Esta tecnología proporciona una lista diaria de los objetivos dentro de los edificios, identificando sus ubicaciones y estimando el número de civiles que podrían resultar afectados por los ataques.  Este sistema imita una señal de tráfico según el nivel de riesgo: el color rojo indica desaprobación, el amarillo indica incertidumbre y el verde permite la ejecución. Este controvertido sistema guía las decisiones militares del Estado ocupante. Se basa en el análisis de una variedad de información de inteligencia, que incluye la topografía del área, imágenes de satélite, registros de redes telefónicas, y conversaciones y mensajes grabados. Con la utilización de esta tecnología, las fuerzas de ocupación reciben propuestas diarias de objetivos, con un promedio de aproximadamente 100 objetivos, en comparación con los 50 objetivos que recibían en todo el año 2022, cuando la selección y determinación de objetivos estaba a cargo de operadores humanos antes de ser enviados a las fuerzas aéreas. 
Las autoridades israelíes han afirmado que esta tecnología resolverá la dificultad histórica de identificar objetivos en conflictos previos, describiéndola como un factor "multiplicador de fuerza" que permite al ejército israelí identificar objetivos y facilitar los servicios logísticos en tiempos de guerra. Sin embargo, estos sistemas no están sujetos a revisiones rigurosas, no se examinan minuciosamente y no se evalúa el número de víctimas civiles en comparación con lo que hacían los operadores humanos. Cabe señalar que la inteligencia artificial no toma decisiones de manera independiente, y cada recomendación del sistema es aprobada por el operador. Con el gran número de recomendaciones, los operadores pueden actuar de manera automática, ignorando detalles, y es difícil creer que los operadores verifiquen completamente cada recomendación de la inteligencia artificial. Esto se confirma con la información proporcionada por la Agencia de Ayuda Palestina, que afirma que "más del 40% de los mártires en Gaza han muerto en áreas que el ocupante israelí afirmó que eran seguras".
En cuanto a la tecnología de análisis de datos y la identificación de objetivos humanos, varios informes de medios españoles han revelado que el "Estado israelí" utilizó una aplicación de inteligencia artificial llamada "Lavender", equipada con una base de datos de aproximadamente 37,000 palestinos, y sus hogares como objetivos potenciales para los ataques aéreos. Esto incluye a personas de bajo rango según sus supuestos vínculos con grupos palestinos dentro de Palestina, según los israelíes. Según fuentes de inteligencia israelíes, este uso ha causado la muerte de un gran número de civiles palestinos, especialmente en los primeros meses del conflicto, como efectos secundarios de la eliminación de un miembro de Hamas, sin importar su rango. A menudo, se destruyeron casas, y familias enteras fueron asesinadas sin que el objetivo estuviera presente en el hogar, lo que ha provocado un aumento deliberado en la tasa de víctimas civiles. 
El periódico español "El Diario" informó el 4 de abril de 2024 que los ataques se realizaban utilizando lo que se conoce como "bombas tontas" de baja precisión, es decir, bombas no guiadas que destruyen literalmente todo el edificio y a quienes se encuentren en él. Según información de la red CNN, el 45% de las bombas utilizadas por las fuerzas de ocupación en Gaza eran de este tipo. La unidad 8200 de inteligencia del ejército de ocupación desarrolló este sistema, convirtiéndose en un componente central en la guerra; procesó grandes cantidades de datos para identificar rápidamente objetivos potenciales de "pequeños combatientes" para atacarlos. El sistema mencionado se basa en la lógica de "probabilidades", una característica distintiva de los algoritmos de aprendizaje automático, donde el algoritmo busca dentro de grandes conjuntos de datos en un intento de encontrar patrones que coincidan con el comportamiento de los combatientes. Su éxito depende de la calidad y cantidad de esos datos, y luego presenta sus recomendaciones de objetivos basadas en las probabilidades.  
El algoritmo analiza la información de aproximadamente 2.3 millones de palestinos que viven en la Franja de Gaza, después de recopilarla mediante un sistema de vigilancia masiva. Asigna una puntuación de 1 a 100 a cada persona, que evalúa la probabilidad de que sean combatientes. Entre sus fuentes, el sistema también se basa en el seguimiento de cuentas en redes sociales. Existe otro sistema de identificación de individuos conocido como "¿Dónde está papá?" ("Where’s Daddy?"), que es aún más peligroso que el sistema "Lavender" mencionado anteriormente; está diseñado para ayudar a las fuerzas de ocupación a rastrear y atacar a los palestinos cuando se encuentran en sus hogares con sus familias durante la noche. Desde el 7 de octubre de 2023, las fuerzas de ocupación han destruido más de 360,000 casas en Gaza. Este sistema recopila información sobre el 90% de los residentes de Gaza, mientras que la aplicación "Lavender" proporciona una calificación que varía entre 1 y 100, basada en el análisis de la máquina, con el número reflejando probabilidades derivadas de datos limitados que se combinan para formar una posibilidad de que el individuo sea miembro de las alas militares de Hamas o la Yihad Islámica. Es importante señalar que el uso de este sistema ha llevado a la aniquilación de familias palestinas enteras dentro de sus hogares, debido a que el programa de inteligencia artificial las seleccionó.
En este contexto, las investigaciones del periodista y director Yuval Abraham revelaron resultados similares en su informe sobre la tecnología utilizada en la guerra contra Gaza, indicando que el uso de sistemas de inteligencia artificial militar representa un "peligro para la humanidad" y que "la guerra basada en inteligencia artificial permite a las personas evadir la responsabilidad". Abraham citó testimonios de seis oficiales de inteligencia que participaron en el uso de sistemas de inteligencia artificial para identificar a los objetivos de los elementos de Hamas. Para desactivar completamente la mente humana del proceso de toma de decisiones, los soldados que participaron en el ataque actual afirmaron que se convirtieron en meros ejecutores de objetivos seleccionados por las máquinas, sin tiempo ni disposición para cuestionar su precisión o verificarla. Esto significa que los sistemas de inteligencia artificial toman decisiones cruciales sobre los objetivos sin una revisión humana minuciosa, y convencen más fácilmente a los soldados de apretar el gatillo en respuesta a las directrices de una máquina que busca causar la máxima destrucción. 
En cuanto a la rapidez con la que este sistema opera, los soldados de las unidades de inteligencia mencionaron al periodista que no se tardaba más de 20 segundos en aprobar cada nombre en la lista negra creada por el algoritmo. También reconocieron que el ejército israelí sabía que el sistema "cometía errores" en al menos el 10% de los casos, y que las personas asesinadas no siempre eran miembros de Hamas. Por ejemplo, una fuente indicó que el sistema clasificaba erróneamente a personas con nombres y apellidos similares como miembros de Hamas, y a menudo otorgaba a otros identificadores que coincidían con descripciones de personas no involucradas en actividades militares. Para justificar la muerte de civiles, un soldado le dijo al periodista: "En tiempos de guerra, no puedes verificar cada objetivo; está bien aceptar un margen de error en la inteligencia artificial: puedes aceptar las bajas civiles y los ataques erróneos y vivir con ello".    
A pesar de que el ejército israelí afirma que estos programas solo sirven para "ayudar" a las personas a determinar los momentos y lugares de los disparos, los testimonios proporcionados por Abraham indican que la única supervisión humana sobre los objetivos generados por la inteligencia artificial se limita a verificar si se trata de hombres o mujeres. Si la máquina selecciona a una mujer, se considera un error, ya que no hay combatientes femeninos en las filas de Hamas o la Yihad Islámica palestina. Sin embargo, si se trata de un hombre, se acepta sin verificar si es un combatiente o no. Un testigo ocular mencionó que la eliminación de los combatientes no ocurre solo dentro de un edificio o durante actividades militares; a menudo es más sencillo bombardear una casa familiar. Dos personas que testificaron señalaron que, durante las primeras semanas de la guerra, se les permitió matar a 15 o 20 civiles en ataques aéreos contra "pequeños combatientes" de bajo rango. Por lo general, los ataques a estos objetivos se llevan a cabo con municiones no guiadas y de bajo costo. Esto se debe, según fuentes de inteligencia, a que las bombas inteligentes no se utilizan contra combatientes de poca importancia debido a su alto costo y a la falta de disponibilidad.
Es importante destacar las posibles fallas en la selección de objetivos por parte de los sistemas de inteligencia artificial; estos sistemas dependen de diversas fuentes de información, como imágenes, datos de teléfonos móviles y redes sociales, para identificar objetivos potenciales. Sin embargo, pueden no tener en cuenta el cambio en las condiciones, lo que puede resultar en la selección de objetivos imprecisos que llevan a la muerte de civiles. Para condenar el uso de la inteligencia artificial en la guerra contra Gaza, el Secretario General de las Naciones Unidas, António Guterres, expresó en declaraciones a la agencia de noticias Europa Press el 5 de abril de 2024, su "profunda preocupación" por los informes que indican que el ejército de ocupación israelí utiliza inteligencia artificial para bombardear a ciudadanos y determinar objetivos en Gaza, especialmente en áreas residenciales densamente pobladas, lo que ha elevado el número de civiles muertos. Guterres rechazó vincular "las decisiones de vida o muerte a cálculos realizados por algoritmos".
Los medios de comunicación en español destacaron, el 27 de abril de 2024, que Venezuela acusó al Estado israelí ante las Naciones Unidas por utilizar ilegalmente la inteligencia artificial para atacar a civiles inocentes no involucrados en el conflicto militar en Palestina. El embajador venezolano ante la ONU, Samuel Moncada, condenó en un mensaje publicado en las redes sociales el uso de inteligencia artificial por parte de las fuerzas de ocupación israelíes para asesinar a civiles inocentes que no participan en los combates en Palestina. Moncada incluyó en su mensaje un video con un extracto de su intervención en el Consejo de Seguridad de la ONU, en el que detalló que el complejo hospitalario de Khan Younis en Gaza se había convertido en "ruinas" debido a las acciones israelíes, señalando el hallazgo de más de 283 cuerpos enterrados en el Hospital Nasser en la región de Khan Younis en el centro de Gaza. Moncada enfatizó que los aliados de Israel ocultan sus crímenes en los medios internacionales y el terror que sufre Gaza a causa de estos crímenes. Añadió que Israel no desea que el mundo conozca la masacre en el Hospital de Khan Younis y está llevando a cabo un esfuerzo de relaciones públicas organizado para negar y ocultar la verdad, mientras los crímenes contra los palestinos continúan. Destacó que detener el genocidio perpetrado por las fuerzas de ocupación es una obligación y un compromiso legal de todos los países.
El Observatorio de Al-Azhar para Combatir la Extremismo considera que el uso de inteligencia artificial en la guerra contra Gaza—y en otros contextos—es extremadamente peligroso para la humanidad y que estas aplicaciones representan una novedad en la historia de los conflictos bélicos, lo que refleja una nueva tendencia global hacia la dependencia de tecnologías letales. La gravedad de depender de estas herramientas radica en la reducción del papel humano en la toma de decisiones fatales y en la respuesta inmediata e irracional a las decisiones impuestas por estas tecnologías modernas, que a menudo resultan en la muerte de miles de inocentes. El observatorio también enfatiza que el uso de tecnologías de inteligencia artificial por parte de las fuerzas de ocupación para matar palestinos requiere la implementación de leyes internacionales para regular el desarrollo y uso de estas tecnologías y para desarrollar planes que enfrenten el riesgo potencial de su evolución. La comunidad internacional debe detener la brutalidad de este estado usurpador, que no escatima esfuerzos en utilizar todas las herramientas, métodos y armas modernas para llevar a cabo genocidios contra el pueblo palestino sin ningún tipo de restricción, y debe obligarlo a cesar estas prácticas criminales que violan todos los principios generales, los derechos humanos y las leyes internacionales.
 

Print
Categories: Artículos
Tags:
Rate this article:
No rating

Please login or register to post comments.