Autonomous lethal weapons will be responsible?

El derecho humanitario internacional no tiene previsto responsabilizar de un crimen a ningún ser que no sea humano. Eso, por supuesto, deja fuera a las máquinas. Sin embargo esto podría cambiar. El desarrollo actual, y el potencial en el futuro, de drones y especialmente de “armas letales autónomas”, así como su uso en conflictos, han puesto sobre la mesa el dilema de qué ocurre cuando un crimen de guerra es cometido por una máquina sin que ninguna persona esté detrás de la orden.

La dificultad para determinar la capacidad de ser responsables de estos robots comienza por su nombre. El problema viene del término “autonomía”, ambiguo y que varía dependiendo desde qué perspectiva se lea. Desde el punto de vista técnico de la industria robótica, la autonomía es tan solo la capacidad de una máquina para ser diseñada y programada para llevar a cabo una tarea sin interferencia humana. Esta definición simplifica en exceso el término, que como veremos implica mucho más. Hin-Yan Liu coincide en las desventajas que supone esta ambigüedad, y menciona que “esta concepción de autonomía está estrictamente circunscrita a la función y falla al condensar las características principales de las armas letales autónomas” (2015, p. 2).

Esta definición, que explica la autonomía como la ilusión de la misma bajo una decisión pre-programada, no es bastante para estudiar los problemas derivados de estas armas en el derecho humanitario internacional. Por eso creo que debemos entender la autonomía, y a su vez la responsabilidad, desde una perspectiva más filosófica o psicológica.

Como hemos dicho estos robots no pueden ser considerados personas ni por ende culpables, pero quizá si se demostrase su capacidad para ser responsables de sus actos podría modificarse la legislación internacional. Este tipo de armas sustituye de facto al soldado pero, ¿localizar y eliminar por sí misma a un objetivo tras haber sido diseñada para ello es una muestra de responsabilidad?

En el sentido filosófico, un ser responsable tendría que poder llevar a cabo razonamientos y reflexiones subjetivas sobre sus experiencias y las de los demás. Siguiendo esta idea autonomía no sería sinónimo de libre albedrio, sino de consciencia y razonamiento crítico.

Un ser autónomo primero sería consciente del contexto y de sus propias limitaciones y después se daría unas reglas a sí mismo, casi siempre heredadas o adoptadas, para tomar decisiones sin influencias externas. Sí, vive y decide dentro de un marco dado pero en este caso, a diferencia de en el de las máquinas, el sujeto puede modificar este marco a través de la reflexión. Por ejemplo, un ser autónomo tiene unos principios que mantiene en su día a día, como no hacer daño a los demás, pero tiene capacidad para establecer excepciones si las circunstancias lo precisan, o incluso para modificar sus principios con el paso del tiempo. Sólo este tipo de autonomía puede derivar en un verdadero sentido de la responsabilidad, ya que supone que comprende la relación causa-efecto entre sus actos y las consecuencias de estos.

Dos principios clave del derecho internacional humanitario que tienen relación con este tema son el principio de distinción y el principio de proporcionalidad. El primero solicita a las partes de un conflicto armado internacional que solo sean blancos de un ataque objetivos estrictamente militares. El segundo prohíbe un ataque si el daño colateral civil que se pueda producir es excesivo en comparación con la ventaja militar directa que se espera obtener de dicho ataque.

Las evaluaciones y decisiones que se dan en contextos conflictivos para evitar incumplir estos dos principios son complejas y subjetivas, y es difícil imaginar que el desarrollo técnico de estos robots podrá alcanzar los estándares necesarios para hacerlo en el futuro próximo. Chantal Grut sostiene que tan sólo la mente humana está versada en este tipo de análisis y que estos principios no se pueden simplificar en una fórmula o traducir en líneas de código de software (2013, p. 4-5). Los principios de distinción y de proporcionalidad guardan una gran relación con la subjetividad y, por tanto, con la consciencia.

Los niños aprenden de sus actos, no porque les corrijan y castiguen, sino porque interpretan y recuerdan sus experiencias; las dotan de sentido y emociones como el arrepentimiento y construyen una personalidad y una consciencia en torno a ellas. Este tipo de autonomía es la que deberían poseer las máquinas para poder ser responsables algún día.

Una máquina que siga una programación establecida siempre estará atrapada sin saberlo en su propio bucle, aunque no pida permiso a un humano para llevar a cabo una acción. La máquina decidirá si dispara o no y cuándo lo hace, pero no reflexiona sobre ello. Por eso creo que la única forma de que las armas letales autónomas acaben siendo responsables de sus actos es desarrollar en ellas inteligencia artificial, en lugar de esta falsa autonomía que sólo pretende construir una cabeza de turco que no pueda ser culpada para deshacerse de una responsabilidad que en primer lugar nunca debería dejar de ser de una persona. Se dice que estas armas pretenden alejar a los humanos del daño tanto como se pueda, pero desde mi punto de vista sólo quiere alejarlos de sus responsabilidades.

Esta falta de responsabilidad supone un peligro ya que podría llevar a una mayor tendencia al uso de la violencia. Es una vía de escape perfecta ante la persecución jurídica y por eso creo que se debería controlar su uso. Ante las múltiples posibilidades que ofrece su desarrollo quizá no sería adecuado prohibir esta tecnología y su investigación por completo todavía. Sin embargo, sí sería adecuado restringir su uso o establecer una moratoria preventiva que permita la investigación ante la imposibilidad de rendición de cuentas, hasta que se demuestre que cumplen con los principios de proporcionalidad y distinción y demás estándares necesarios para ser un arma que cumpla con la legislación internacional, y se aclare si pueden considerarse responsables de sus actos y en caso negativo, quién aceptará esa responsabilidad.

BIBLIOGRAFÍA

Hin-Yan Liu, 2015. Autonomy in Weapons Systems. Encyclopedia of Public Administration and Public Policy

Chantal Grut, 1 de abril de 2013. The Challenge of Autonomous Lethal Robotics to International Humanitarian Law. J Conflict Security Law 18 (1): 5

Human Rights Watch (2017). Killer Robots. Página web disponible en: https://www.hrw.org/topic/arms/killer-robots

Anuncios

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión / Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión / Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión / Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión / Cambiar )

Conectando a %s