Axis Mundi: «Escenario Terminator» y control humano


Desde los automóviles que se conducen solos hasta los asistentes digitales, la Inteligencia Artificial (IA)[i] se está convirtiendo rápidamente en una tecnología integral en nuestras vidas. Sin embargo, las mismas ciencias aplicadas que pueden ayudar a hacer nuestra vida diaria más fácil, asimismo se están incorporando a sistemas de armamento para su uso en situaciones de combate.[ii]

La IA militarizada ocupa un lugar importante en las estrategias de seguridad de Estados Unidos, China y Rusia, al tiempo que algunos sistemas de armas existentes ya incluyen capacidades autónomas basadas en la IA, por lo que su veloz desarrollo significa que las máquinas podrían tomar decisiones para dañar y asesinar a personas basándose en su programación, sin intervención humana, tal y como lo pronosticó la ya clásica saga fílmica Terminator (1984–2019),[iii] de ahí que la posibilidad de que máquinas controladas por la IA se vuelvan preponderantes en las operaciones militares se denomine «Escenario Terminator»:[iv]

Los Terminators aún no están saliendo de la línea de ensamblaje, pero cada nueva generación de armas parece acercarnos [a tal escenario]. Y mientras que ninguna nación ha declarado abiertamente su intención de construir armas totalmente autónomas, tampoco han renunciado a hacerlo. Los riesgos de una guerra a velocidad de las máquinas son mucho mayores que un simple misil errático. Los estudiosos militares de China han formulado la hipótesis de una ‘singularidad del campo de batalla’, un punto en el que el combate se mueve más rápido de lo que puede captar el cerebro humano. En este estado de ‘hiperguerra’, como algunos estrategas estadounidenses lo han llamado, las escaladas no intencionales podrían descontrolarse rápidamente. El flash crash de 2010 en el mercado de valores ofrece una útil comparación: los algoritmos de comercio automatizado contribuyeron a una pérdida temporal de casi un billón de dólares en una sola tarde. Para prevenir otra calamidad como esta, los reguladores financieros actualizaron los interruptores que detienen el comercio cuando los precios caen en picada demasiado rápido. ¿Pero cómo se desenchufa una guerra relámpago?[v]

En este sentido, los países que respaldan el uso de la IA militar afirman que ésta les permite responder a las amenazas emergentes a una velocidad mayor que la humana, además de que reduce el riesgo para el personal militar y aumenta la capacidad de alcanzar objetivos con mayor precisión. Pero debemos tener en cuenta que delegar las decisiones sobre el uso de la fuerza a las máquinas viola la dignidad humana, lo cual también es incompatible con el derecho internacional, mismo que requiere el juicio humano para tomar alguna decisión.[vi]

De hecho, el papel que los humanos deben desempeñar en las disposiciones sobre el uso de la fuerza ha sido un área de mayor atención en muchas reuniones de las Naciones Unidas (ONU), donde, en una reciente asamblea, los países miembros acordaron que es inaceptable, por razones éticas y legales, delegar las decisiones del uso de la fuerza a las máquinas «sin ningún tipo de control humano».[vii] Pero aunque lo anterior puede sonar como una buena noticia, sigue habiendo grandes diferencias en la forma en que los Estados definen el «control humano».

Si se realiza un análisis detallado de diferentes declaraciones gubernamentales, muchos países, incluyendo los principales desarrolladores de la IA militar, como EUA y Gran Bretaña, están a favor de lo que se conoce como una «perspectiva distribuida del control humano»,[viii] donde éste se halla presente a lo largo de todo el ciclo de vida de los sistemas de armamento con IA, desde su desarrollo hasta su utilización, así como en las diversas etapas de la toma de decisiones militares. Pero, aunque esto pueda parecer sensato, en realidad deja mucho espacio para que el control humano se vuelva más difuso.

En primera instancia, reconocer el control humano como un proceso más que como una decisión única es correcto e importante, además, refleja la realidad operativa, ya que hay múltiples etapas en el modo en que los militares modernos planifican los ataques que implican una cadena de mando humana;[ix] pero existen inconvenientes al confiar en este concepto, porque puede generar la ilusión del control humano cuando, en realidad, éste ha sido relegado a situaciones en las que no importa tanto, con lo cual corre el riesgo de aparentar que se ejerce en todas partes en general, y en ninguna en particular.

Lo anterior podría permitir a los países centrarse más en las etapas de la investigación y el desarrollo de la IA militarizada, y menos en las decisiones específicas sobre el uso de la fuerza en el campo de batalla, como la distinción entre civiles y combatientes o la evaluación de una respuesta militar proporcional, las cuales son cruciales para cumplir con el derecho internacional.

Y aunque pudiera parecer tranquilizador tener el control humano desde la etapa de investigación y desarrollo, esto también pasa por alto importantes dificultades tecnológicas, por ejemplo, que los algoritmos actuales —como en citado caso del flash crash—se han vuelto tan complejos que no resultan predecibles ni comprensibles para los operadores humanos,[x] por ende, incluso si los especialistas supervisan los sistemas de armamento que aplican tales algoritmos cuando utilizan la fuerza, no serán capaces de entender cómo dichos sistemas han designado a sus objetivos.

A diferencia de las máquinas, la decisión humana de usar la fuerza no puede ser preprogramada; de hecho, el peso del derecho internacional se aplica más a las decisiones reales y específicas del campo de batalla, que a las etapas anteriores de la vida útil de un sistema de armamento, algo que fue señalado por un miembro de la delegación brasileña en las recientes reuniones de las Naciones Unidas.[xi]

Por otra parte, la adhesión al derecho internacional, en el contexto rápidamente cambiante de la guerra, también requiere una evaluación humana permanente, lo cual no puede hacerse meramente con un algoritmo, sobre todo en el caso de los combates urbanos, donde los civiles y los combatientes están en el mismo espacio.

En última instancia, fabricar máquinas capaces de tomar la decisión de acabar con la vida de las personas viola la dignidad humana, al reducir a las personas a simples objetos, como argumenta Peter Asaro, un filósofo de la ciencia y la tecnología: «Distinguir un ‘objetivo’ en un campo de datos no es reconocer a una persona humana como alguien con derechos».[xii] En efecto, hasta el momento, una máquina no puede ser programada para apreciar el valor de la vida humana, como ha ocurrido cuando los vehículos autónomos atropellan a una persona.[xiii]

Muchos países han abogado por nuevas normas jurídicas para garantizar el control humano de los sistemas de armas autónomas, pero otros pocos, incluido EUA —como siempre—, sostienen que basta con el derecho internacional existente.[xiv] Aunque la incertidumbre que rodea a lo que es realmente el «control humano» muestra que se necesita más claridad, por ejemplo, en lo referente a las cualidades esenciales que hacen que el «control humano» sea significativo, manteniendo, al mismo tiempo, la valoración humana en el contexto de las decisiones específicas sobre el uso de la fuerza.

Sin lo anterior, se corre el riesgo de socavar el valor del nuevo derecho internacional destinado a frenar la IA militarizada, ante la cual ya se están organizando varios científicos y organizaciones civiles, como The Campaign to Stop Killer Robots («La Campaña de Prohibición de Robots Asesinos »).[xv]

 

Notas de referencia:

[i] http://www.tropicozacatecas.com/2019/01/20/axis-mundi-estupidez-humana-e-inteligencia-artificial/

[ii] https://www.theguardian.com/news/2020/oct/15/dangerous-rise-of-military-ai-drone-swarm-autonomous-weapons

[iii] https://www.razon.com.mx/el-cultural/politicas-de-identidad-y-malestar-de-fronteras/

[iv] https://www.hispantv.com/noticias/ciencia-tecnologia/257189/robot-militar-ruso-ivan-terminador

[v] https://www.wired.com/story/artificial-intelligence-military-robots/

[vi] https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2972071

[vii] http://www.article36.org/wp-content/uploads/2016/04/MHC-AI-and-AWS-FINAL.pdf

[viii] https://documents.unoda.org/wp-content/uploads/2020/09/20200901-United-States.pdf

[ix] https://unidir.org/sites/default/files/2020-03/UNIDIR_Iceberg_SinglePages_web.pdf

[x] https://unidir.org/publication/black-box-unlocked

[xi] https://www.unog.ch/80256EDD006B8954/(httpAssets)/EB97EA2C3DD0FA51C12583CB003AFED9/$file/Brazil+GGE+LAWS+2019+-+Item+5+d+-+Human+element.pdf

[xii] https://peterasaro.org/writing/Asaro%20Oxford%20AI%20Ethics%20AWS.pdf

[xiii] https://onlinelibrary.wiley.com/doi/epdf/10.1111/1758-5899.12691

[xiv] https://www.justsecurity.org/72610/an-enduring-impasse-on-autonomous-weapons/

[xv] Formada en octubre de 2012, Campaign to Stop Killer Robots (Campaña de Prohibición de Robots Asesinos) es una alianza de organizaciones no gubernamentales (ONG) que trabaja para prohibir las armas completamente autónomas y mantener un control humano sobre el uso de la fuerza: https://www.stopkillerrobots.org/?lang=es

Carlos Hinojosa*

*Escritor y docente zacatecano

Puedes compartir esta noticia en tus redes sociales.
  • 26
    Compartido
Anterior Mejoran los camellones de la capital de Zacatecas
Siguiente Gobierno de Julio César Chávez cierra 2020 con cero deuda