Post Format

Ya es real: Los drones ahora tendrán la capacidad de decidir a quienes matar!

Leave a Reply

El ejército de los EE. UU. Anunció recientemente que está desarrollando los primeros drones que pueden detectar y atacar vehículos y personas que usan inteligencia artificial (IA).

Mientras que los drones militares actuales todavía están controlados por personas, esta nueva tecnología decidirá a quién matar con casi ninguna participación humana.

Una vez que estén completos, estos drones representarán la militarización máxima de la IA y desencadenarán amplias implicaciones legales y éticas para la sociedad en general.

Existe la posibilidad de que la guerra pase de la lucha al exterminio, perdiendo cualquier apariencia de humanidad en el proceso.

Futuro terrible?

Al mismo tiempo, podría ampliar la esfera de la guerra para que las compañías, los ingenieros y los científicos que construyen AI se conviertan en objetivos militares válidos.

Los drones militares letales existentes como el MQ-9 Reaper se controlan cuidadosamente y se pilotean vía satélite.

Si un piloto arroja una bomba o dispara un misil, un operador de sensor humano la guía activamente hacia el objetivo elegido utilizando un láser.

En última instancia, el equipo tiene la última responsabilidad ética, legal y operativa para matar a los objetivos humanos designados.

Como lo afirma un operador de Reaper:

“Tengo la mentalidad de que permitiría que un insurgente, aunque sea un objetivo importante, se escape en lugar de tomar un tiro arriesgado que podría matar a civiles”.

Incluso con estos asesinatos con drones, las emociones humanas, los juicios y la ética siempre han permanecido en el centro de la guerra.

La existencia de un trauma mental y un trastorno de estrés postraumático (TEPT) entre los operadores de drones muestra el impacto psicológico de los asesinatos a distancia.

Y esto apunta a un posible argumento militar y ético de Ronald Arkin, en apoyo de los asesinos autónomos. Quizás si estos drones arrojan las bombas, se pueden evitar problemas psicológicos entre los miembros de la tripulación.

La debilidad de este argumento es que no tienes que ser responsable de matar para que te traumatice.

Los especialistas en inteligencia y el resto del personal militar analizan regularmente imágenes gráficas de los ataques de drones. La investigación muestra que es posible sufrir daños psicológicos al ver imágenes de extrema violencia con frecuencia.

Cuando entrevisté a más de 100 miembros de la tripulación de Reaper para un próximo libro, todas las personas con las que hablé y que realizaron ataques con drones letales creyeron que, en última instancia, debería ser un humano el que dispare el gatillo final.

Elimina al humano y también elimina la humanidad de la decisión de matar.

Graves consecuencias

La perspectiva de drones totalmente autónomos alteraría radicalmente los complejos procesos y decisiones detrás de los asesinatos militares.

Pero la responsabilidad legal y ética de alguna manera simplemente no desaparece si elimina la supervisión humana. En cambio, la responsabilidad recaerá cada vez más en otras personas, incluidos los científicos de inteligencia artificial.

Las implicaciones legales de estos desarrollos ya se están haciendo evidentes.

Conforme al derecho internacional humanitario actual, las instalaciones de “doble uso” -las que desarrollan productos para aplicaciones civiles y militares- pueden ser atacadas en las circunstancias adecuadas. Por ejemplo, en la Guerra de Kosovo de 1999, la refinería de petróleo de Pancevo fue atacada porque podía alimentar tanques yugoslavos y también alimentar automóviles civiles.

Con un sistema autónomo de armamento de drones, ciertas líneas de código de computadora casi con seguridad se clasificarían como de doble uso.

Las compañías como Google, sus empleados o sus sistemas, podrían ser atacados por un estado enemigo.

Por ejemplo, si el software IA de reconocimiento de imagen Project Maven de Google se incorpora a un dron autónomo militar estadounidense, Google podría verse implicado en el negocio de “asesinatos” de drones, al igual que cualquier otro contribuyente civil a tales sistemas autónomos letales.

Éticamente, aún hay problemas más oscuros.

El objetivo de los algoritmos de autoaprendizaje (programas que aprenden independientemente de los datos que pueden recopilar) que utiliza la tecnología es que mejoran en cualquier tarea que se les encomiende.

Si un dron autónomo letal es mejorar en su trabajo a través del autoaprendizaje, alguien tendrá que decidir sobre una etapa aceptable de desarrollo, cuánto tiene que aprender, en la que puede desplegarse.

En el aprendizaje automático militarizado, eso significa que los líderes políticos, militares y de la industria tendrán que especificar cuántas muertes civiles contarán como aceptables a medida que se perfeccione la tecnología.

Las experiencias recientes de IA autónoma en la sociedad deberían servir como advertencia.

Los experimentos fatales de Uber y Tesla con automóviles sin conductor sugieren que está prácticamente garantizado que habrá muertes no intencionadas de drones autónomos a medida que se solucionen los errores informáticos.

Si se deja que las máquinas puedan decidir quién muere, especialmente a gran escala, entonces lo que estamos presenciando es el exterminio.

Cualquier gobierno o ejército que desate tales fuerzas violaría los valores que podrían estar defendiendo. En comparación, un piloto de drones luchando con una decisión de “matar o no matar” se convierte en el último vestigio de humanidad en el negocio a menudo inhumano de la guerra.

0

Leave a Reply

Required fields are marked *.