Un experto en Inteligencia Artificial advirtió sobre el peligro de que se desate una carrera de armas robóticas y dijo que en los próximos diez años serían los "soldados robots" los que tomen decisiones en el campo de batalla.
Noel Sharkey, profesor de la Universidad de Sheffield, en el Reino Unido, hablará acerca de las repercusiones éticas del uso de estas armas durante una conferencia organizada por el Royal United Services Institute en Londres, grupo de investigación sobre temas de defensa.
El especialista conversó sobre el tema con la BBC.
Tendemos a pensar en la proliferación de armas robóticas como algo que ocurrirá en el futuro, pero ya se están usando los robots en los conflictos bélicos. ¿Cierto?
Hay muchos robots que se están usando con fines militares estos momentos en tierra y aire.
Hay 4.000 robots en Irak y Afganistán. Pero todos ellos son controlados por seres humanos.Una persona decide, por ejemplo, cuándo los (aviones) Predators o Rippers van a lanzar un misil Hellfire de fuerza letal.
En tierra se les usa para actividades como desactivación de municiones y artefactos explosivos y recoger soldados heridos.
Los primeros robots armados fueron enviados a Irak en diciembre, pero no he escuchado si ya han sido desplegados o no.
¿Qué características tienen estos robots?
Los robots están equipados con lanzagranadas, lanzacohetes, ametralladoras.
Son pequeños tanques en realidad. Tele-operados por soldados, manejados por control remoto.
¿Ve como una tendencia futura el uso de robots combatiendo entre ellos?
Sí, es el futuro. La iniciativa de combates de Estados Unidos cuenta con US$240.000 millones para desarrollar un sistema de combate.
US$4.000 se destinaron al desarrollo de vehículos no tripulados para 2010.
El programa de las fuerzas armadas de Estados Unidos para los próximos 20 años establece claramente que desea un sistema autónomo lo antes posible.
El Congreso aprobó una ley en 2001 la cual establece que una tercera parte de los vehículos en el terreno serán vehículos no tripulados para 2010, y se está logrando.
¿Qué implicaciones éticas tiene todo esto?
Lo que a mí me preocupa es el respeto a la ley fundamental de la guerra.
Los tratados y la Convención de Ginebra establece una distinción entre combatientes y no combatientes.
Yo no creo que estos robots puedan hacer esta distinción. Particularmente en ambientes urbanos donde las condiciones no están del todo claro y hay un número de circunstancias que se pueden dar.
Además, el uso de la fuerza debe ser proporcionar al avance militar y así es como se controla el daño colateral.
No hay robot o inteligencia artificial que pueda tener el control en una situación como esa.