Así ve la guerra del futuro el profesor que defiende los robots soldados

Así ve la guerra del futuro el profesor que defiende los robots soldados

40 comentarios Facebook Twitter Flipboard E-mail
Así ve la guerra del futuro el profesor que defiende los robots soldados

Las guerras no desaparecerán. No al menos si hacemos caso a toda la historia de la humanidad y a esa evolución que hemos visto en las estrategias y armamento militar. Nuevos descubrimientos en este área han hecho que matar sea cada vez más fácil, rápido y eficiente. Ocurrió con el arco, la artillería, los barcos, los aviones, o las armas nucleares.

Como indica el profesor Ronald Arkin, de la Georgia Institute of Technology, esos avances han provocado las llamadas Revoluciones en Asuntos Militares (RMAs), y los robots y la tecnología robótica es considerada como la próxima RMA. ¿Cuál será el papel de esos robots en el campo de batalla? Es lo que hemos tratado de dilucidar en una conversación telefónica con el profesor Ronald C. Arkin en la que este experto nos ha explicado las implicaciones positivas de su utilización.

Los robots podrían salvar vidas en conflictos armados

En un artículo del profesor Arkin publicado en julio de 2013 (aquí en PDF) en la revista trimestral de la AISB (The Society for the Study of Artificial Intelligence and Simulation of Behaviour) este expero explicaba los fundamentos de su trabajo y sus conclusiones, en las que la idea esencial es la respetar los esfuerzos humanitarios y lograr que en las guerras se salven el mayor número de vidas posible, reduciendo el número de bajas de no combatientes.

Ron Arkin 1 Ronald C. Arkin

En esa labor los sistemas robóticos podrían ser cruciales. La introducción de este tipo de sistemas es ya una realidad, y hace tiempo que se aprovechan sus ventajas en misiones de reconocimiento y vigilancia, adquisición de objetivos o recolección de datos e inteligencia militar. Las capacidades autónomas de algunos de estos sistemas es limitada pero esos avances provocarán cambios en las tácticas militares que si se hacen correctamente -como defienden en el Georgia Tech Mobile Robot Laboratory (GT-MRL)- podría "reducir las atrocidades" cometidas en las guerras.

Como nos explicaba por teléfono, en sus investigaciones el profesor Arkin destacaba una idea sobre todas las demás: el objetivo -que es además factible según el trabajo de este experto y su equipo- es el de crear sistemas robóticos militares autónomos capaces de reducir las bajas civiles e incluso los daños materiales en comparación a los que producirían los combatientes humanos. Este objetivo precisamente contradice la intención de grupos que abogan por el veto total a la introducción de robots en enfrentamientos armados, y en opinión de Arkin su correcta introducción sería consistente con el Derecho Humanitario Internacional (DHI).

Las ventajas en el uso de estos sistemas son evidentes cuando se habla de reducción de bajas del mismo bando, respuesta rápida a las acciones del campo de batalla y mayor precisión. Todo ello parece dejar claro que el desarrollo e implantación de sistemas autónomos "letales" es inevitable, pero aquí es donde el DHI debe actuar.

Los robots no disparan primero y preguntan después. Si hay dudas o incertidumbre, los robots no deben actuar. Y esa es la clave: deciden cuando no actuar.

Arkin nos explicaba cómo el comportamiento humano es, en el mejor de los casos, ética y legalmente cuestionable. Los crímenes de guerra se explican según este experto por temas como un alto número de bajas de nuestro bando que llevan a un deseo de venganza, cambios en la cadena de mando que provocan un liderazgo más débil, tropas poco preparadas, enemigos que no están claramente definidos y órdenes confusas que dan lugar a interpretaciones erróneas. Los sistemas robóticos podrían solucionar muchos de estos problemas o minimizarlos, y en opinión de Arkin esto llevaría al objetivo final: que las bajas de no combatientes en esos enfrentamientos fueran las menos posibles.

Missionlab MissionLab es el software que el profesor Arkin y su equipo utilizan en su investigación.

Los estudios de laboratorio realizados por Arkin y su equipo indican que los sistemas robóticos podrían respetar ese DHI y lograr salvar vidas inocentes, lo que "si se consiguiera eso resultaría en un requisito moral según el cual sería necesario el uso de estos sistemas". Aunque Arkin aclara que los resultados de laboratorio proporcionan una solución fidedigna al problema, sí que destaca que estos primeros pasos permiten pensar en que este tipo de soluciones son posibles en el futuro.

El objetivo es el de crear sistemas robóticos militares autónomos capaces de reducir las bajas civiles e incluso los daños materiales

Para Arkin hay factores claros que permiten que sean optimistas en lo que esta tecnología puede lograr en el campo de batalla. Los robots, por ejemplo, tienen la capacidad de actuar de forma conservadora: no necesitan protegerse a sí mismos en caso de que la identificación del objetivo no sea precisa. La auto-preservación o supervivencia de los "robots-soldado" o de vehículos robóticos no es un parámetro clave, de modo que se pueden sacrificar en caso necesario. Como decía Arkin, "los robots no disparan primero y preguntan después. Si hay dudas o incertidumbre, los robots no deben actuar. Y esa es la clave: deciden cuando no actuar, y no lo inverso".

Ventajas y desventajas: ante todo, ir paso a paso

Los sensores robóticos también aportan mejor capacidad de observación, pero también está presente una ventaja fundamental hoy en día: no son conscientes de sí mismos y no tienen emociones o conciencia que puedan nublar su juicio. "El miedo y la histeria que están siempre latentes en combate y a menudo son reales nos presionan a tomar medidas terribles y a tener comportamientos criminales". Los robots también serían inmunes a distorsionar la información según la situación y sus propias emociones, además de contar con una capacidad de análisis y recolección de información que lleva a responder de forma más precisa y rápida que los seres humanos en muchas situaciones.

Drone Wars

Los argumentos en contra existen, desde luego: hay que discutir quién es responsable de crímenes de guerra en los que se ha utilizado armamento autónomo o qué ocurre si esta introducción de sistemas robóticos hace que la intervención en conflictos armados sea más sencilla de aprobar por parte de los países que deciden intervenir. Pero como dice Arkin, "si se logran salvar vidas de no combatientes en ese esfuerzo humanitario, incluso existiría un imperativo moral para su uso. Esto parece contradecir la intención de vetar directamente los robots autónomos letales sin antes determinar a través de la investigación si se podría lograr de hecho mejor protección par alos no combatientes".

Si se logran salvar vidas de no combatientes en ese esfuerzo humanitario, incluso existiría un imperativo moral para su uso

La prohibición de este tipo de armamento parece complicada, y aquí el profesor Arkin pone el ejemplo de cómo la ballesta fue prohibida por el Papa Inocencio II en 1139. No serviría de mucho, como tampoco serviría tratar de vetar el uso de artillería, misiles de crucero o bombardeos aéreos. Según este experto debe establecerse una moratoria para el uso de estos sistemas autónomos y demostrarse que en efecto pueden comportarse de acuerdo al DHI y salvar vidas inocentes.

El futuro que pinta Terminator está muy lejos si es que existe

Quisimos comentar con el profesor Arkin cuánto de verdad hay en ese futuro que nos pinta Hollywood y las novelas de ciencia ficción en las que las distopías son frecuentes y acabamos sometidos a un planeta dominado por los robots. Las recientes declaraciones de personalidades como Bill Gates, Elon Musk o Stephen Hawking para prevenirnos de la amenaza que representa la Inteligencia Artificial son en opinión de Arkin muy respetables, pero ese futuro está muy lejano.

Robot Wars 2

No obstante, Arkin reconocía que es absolutamente recomendable tratar de prepararnos para ese momento en caso de que llegue, y aquí es interesante que recordemos cómo en la actualidad hay diversos organismos y agrupaciones que precisamente están tratando de allanar el terreno para que esa futura convivencia con robots que tienen consciencia de sí mismos sea mucho más natural y adecuada.

Aún así, Arkin era escéptico y creía que contar con una solución real en sistemas robóticos para enfrentamientos armados tardará del orden de 10 o 20 años, y que esa inteligencia artificial que nos venden desde Hollywood está aún más lejos de ese plazo. Inevitable era también la pregunta sobre las tres leyes de la robótica de Asimov y si estas leyes eran aplicables en escenarios reales. Aunque Arkin reconocía el mérito de Asimov, también aclaraba que dichas leyes "no son prácticas en la mayoría de situaciones. Deberían ser consistentes con las leyes humanas".

A día de hoy esas consideraciones son poco prácticas para el profesor Arkin, que coincidía con nuestra visión de la situación actual. Hoy por hoy los robots militares son herramientas. "Son como tostadoras: son autónomas hasta cierto punto, no son objetos con moral o consciencia de sí mismos y no estamos cerca de ello".

Las tres leyes de la robótica de Isaac ASimov fueron inspiradoras, pero no son prácticas

Estos robots podrían lograr reducir los daños colaterales, pero como ha pasado durante toda nuestra historia, su introducción producirá Revoluciones en Asuntos Militares que cambiará la forma en la que se lucha en las guerras: Las ventajas asimétricas modificarán la estrategia, las tácticas y el desarrollo de estos conflitos armados. Pero la idea central de todo el trabajo de Arkin es clara y contundente: el objetivo es salvar el mayor número posible de vidas, y no quitarlas. "Ganar guerras es el objetivo, pero no quiero que las naciones pierdan su alma en esa lucha".

Ronald C. Arkin es Regent's Profesor -un cargo especialmente importante y muy prestigioso en instituciones dedicadas a la investigación- y Decano Asociado de Research and Space Planning, College of Computing, Georgia Institute of Technology. Durante su dilatada carrera ha realizado decenas de publicaciones en revistas científicas y en conferencias, y es el autor de varios libros sobre esta materia, entre los que destacan "Behavior-Based Robotics", "Governing Lethal Behavior in Autonomous Robots" y "Robot Colonies".

Imagen | Andree Wallin
Más información | Governing Lethal Behavior (PDF, 115 págs) | An Ethical Basis for Autonomous System Deployment (ARO)
En Xataka | Al otro lado del test Voight-Kampff

Comentarios cerrados
Inicio