¿Cuáles son los riesgos del armamento impulsado por IA?

Es muy probable que dentro de poco los enjambres de drones asesinos sean una característica estándar de los campos de batalla de todo el mundo. Esto ha alimentado el debate sobre si regular su uso y cómo hacerlo y ha generado preocupaciones sobre la posibilidad de que las decisiones de vida o muerte finalmente se transfieran a programas de inteligencia artificial (IA).

A continuación, brindamos una descripción general de cómo ha evolucionado la tecnología, qué tipos de armas se están desarrollando y cómo ha progresado el debate.

Con el tiempo, es muy probable que la IA permita que los sistemas de armas tomen sus propias decisiones acerca de seleccionar ciertos tipos de objetivos y atacarlos. Los recientes avances en la tecnología de IA han intensificado el debate en torno a estos sistemas, conocidos como armas letales autónomas.

Pero en cierto modo, las armas autónomas no son nada nuevo.

Las minas terrestres, que están diseñadas para activarse automáticamente cuando una persona u objeto pasa sobre ellas, se utilizaron ya en el siglo XIX durante la Guerra Civil estadounidense. Al parecer, fueron inventados por un general confederado llamado Gabriel Lluviasquien los llamó “proyectil subterráneo”.

Aunque se utilizaron por primera vez mucho antes de que alguien pudiera siquiera concebir la IA, son relevantes para el debate actual porque una vez instaladas funcionan sin intervención humana y sin discriminar entre los objetivos previstos y las víctimas no deseadas.

A partir de finales de los años 1970, Estados Unidos comenzó a expandir este concepto, con un arma conocida como Mina antisubmarina CAPTOR. El mío Podría arrojarse desde un avión o un barco y depositarse en el fondo del océano, permaneciendo allí hasta que detone automáticamente cuando los sensores del dispositivo detecten un objetivo enemigo.

A partir de la década de 1980Desde entonces, docenas de barcos de la Armada comenzaron a confiar en el sistema de armas AEGIS, que utiliza un sistema de radar de alta potencia para buscar y rastrear cualquier misil enemigo que se acerque. Se puede configurar en modo automático para disparar misiles defensivos antes de que intervenga una persona.

El siguiente paso en la progresión hacia armas autónomas más sofisticadas llegó en forma de municiones autoguiadas de “disparar y olvidar”, como el misil aire-aire avanzado de alcance medio. AIM-120que tiene un buscador de radar que refina la trayectoria de un misil ya disparado mientras intenta destruir aviones enemigos.

Las municiones autoguiadas generalmente no se pueden recuperar después de ser disparadas y actúan como “un perro de ataque enviado por la policía para perseguir a un sospechoso”, escribió Paul Scharre, ex alto funcionario del Pentágono y autor del libro. Ejército de nadie. Tienen cierto grado de autonomía para afinar su trayectoria, pero Scharre la definió como “autonomía limitada”. El Misiles antibuque arpón Funcionan de forma similar, con autonomía limitada.

La guerra en Ucrania ha puesto de relieve el uso de una forma de armamento automatizado conocido como municiones merodeadoras. Estos dispositivos se remontan al menos a 1989, cuando un contratista militar israelí introdujo lo que se conoce como Harpy, un dron que puede permanecer en el aire durante unas dos horas, buscando sistemas de radar enemigos a lo largo de cientos de kilómetros y luego atacándolos.

Más recientemente, contratistas militares estadounidenses como AeroVironment, con sede en California, han vendido municiones merodeadoras similares que llevan una ojiva explosiva. El Navaja 600como se llama esta unidad, vuela por encima hasta que encuentra un tanque u otro objetivo, luego dispara una ojiva antiblindaje.

Todavía se solicita la aprobación humana antes de que el arma ataque al objetivo. Pero sería relativamente fácil eliminar al ser humano de la ecuación, haciendo que el dispositivo sea completamente autónomo.

«Hoy existe tecnología que permite decirle al dispositivo: ‘Ve a buscarme un tanque ruso T-72, no me hables, te voy a tirar, ve a buscarlo'», dijo Wahid Nawabi, presidente. de AeroAmbiente. “Y si estás más del 80 por ciento seguro de que es el indicado, lo eliminas. «Toda la misión, de principio a fin, podría ser completamente autónoma, excepto el acto de dispararla».

No hay duda de hacia dónde va todo esto.

El Pentágono es actualmente trabajando para construir enjambres de drones, según un aviso publicado hace unos meses.

Se espera que el resultado final sea una red de cientos o incluso miles de drones autónomos mejorados con inteligencia artificial que transportan equipos o armas de vigilancia. Lo más probable es que los drones se coloquen cerca de China para poder desplegarlos rápidamente si estalla algún conflicto y se utilizarían para destruir o al menos degradar la extensa red de sistemas de misiles antibuque y antiaéreos que China ha construido a lo largo de su territorio. costas e islas artificiales en el Mar de China Meridional.

Este es sólo uno de los muchos esfuerzos actualmente en marcha en el Pentágono con el objetivo de desplegar miles de drones económicos, autónomos y a veces letales en el próximo año o dos que puedan continuar operando incluso cuando las señales GPS y las comunicaciones estén bloqueadas.

Algunos contratistas militares, incluidos ejecutivos de Palantir Technologies, un importante contratista de inteligencia artificial militar, habían alegado que todavía estaban podrían pasar años antes de poder producir ataques letales totalmente autónomos controlados por IA, ya que los algoritmos más avanzados aún no son lo suficientemente fiables. Por lo tanto, no se les puede confiar la toma de decisiones autónomas de vida o muerte, y este puede ser el caso durante algún tiempo.

Palantir sostiene que, en cambio, la IA permitirá a los oficiales militares tomar decisiones más rápidas y precisas sobre los objetivos analizando rápidamente oleadas de datos entrantes, dijo la ejecutiva de Palantir, Courtney Bowman. a los legisladores británicos durante una audiencia este año.

Pero existe una preocupación generalizada dentro de las Naciones Unidas sobre los riesgos de los nuevos sistemas. Y si bien algunas armas han tenido durante mucho tiempo cierto grado de autonomía, la nueva generación es fundamentalmente diferente.

“Cuando comenzó esta conversación, hace aproximadamente una década, en realidad era un poco de ciencia ficción”, dijo Scharre. “Y ahora ya no lo es en absoluto. La tecnología es muy, muy real”.


Eric Lipton es un reportero de investigación que profundiza en una amplia gama de temas, desde el gasto del Pentágono hasta los productos químicos tóxicos. Más de Eric Lipton