Como
recordábamos en una entrada anterior de este blog ya en el año 1976
Joseph
Weizenbaum nos advertía, sobre
nuestras máquinas informatizadas y androides, que: “no
deberemos dejarles tomar decisiones importantes porque los
ordenadores nunca tendrán cualidades humanas, como la compasión, al
no haber crecido en el entorno emocional de una familia humana”.
En 2013
Christof Heyns, jurista de Naciones Unidas, presentó un informe
sobre la situación y las perspectivas de los robots militares (LAR,
del inglés, robots autónomos letales) con el inquietante rótulo de
“Report of the Special Rapporteur on
Extrajudicial, Summary or Arbitrary Executions” (ver aquí).
Se trataba de analizar el gran cambio que supondrá el
hecho de que un LAR empiece a apretar el gatillo. Pues con los drones
aún -al final- una persona es la que aprieta el gatillo. Sin embargo
para el algoritmo que controle el LAR esa decisión será homologable
a la de borrar o enviar un fichero por email.
Veamos algunos ejemplos de las consideraciones que se
hacen en el informe Heyns: los LAR no actuarían por venganza,
pánico, enfado, despecho, prejuicios o miedo; y estos soldados
automatizados reducirían el número de muertos humanos (se supone
que propios) en un conflicto, lo que haría muy difícil frenar su
proliferación en las fuerzas armadas.
Al mismo tiempo se razona que su estupidez moral (el
hecho de no tener juicio humano, sentido común, apreciación del
marco general, comprensión de los valores, …) tendría sus
ventajas ya que, por ejemplo, los robots no causarían sufrimiento
intencional a la población civil mediante la tortura. Suponiendo,
claro está, que les sea posible discriminar a la población civil.
El LAR, el guererero androide estaría más allá de la
barrera moral del kamikaze o guerreo suicida, del que se auto inmola
para causar el mayor daño posible a aquellos que (des)considera como
humanos. Porque él ni siquiera ha dejado de ser humano.
Creo que en una guerra -cosa siempre a evitar- se han de
tomar decisiones demasiado importantes como para dejarlas ya en manos
de enfermos fundamentalistas de toda condición, ya en los circuitos
de cualquier tipo de inteligencia artificial.
No hay comentarios:
Publicar un comentario