
Ramón López de Mántaras, Director del Instituto de Investigación de Inteligencia Artificial del Consejo Superior de Investigaciones Científicas.
Año 2029, con la Tierra devastada, la inteligencia artificial conocida como Skynet está perdiendo la guerra contra la resistencia humana encabezada por John Connor. Para contrarrestarlo, las máquinas deciden enviar al pasado un Terminator T-800, un robot asesino, para que acabe con la vida de la madre del líder rebelde, haciendo que Connor jamás llegue a existir para así cambiar la historia y perpetuar la dictadura de las máquinas. Éste que es el argumento de una de las películas de ciencia ficción más taquilleras dirigidas por James Cameron y que catapultó al estrellato hollywoodiense a Arnold Schwarzenegger . Pero, ¿podría la ciencia ficción dejar de serlo para convertirse en realidad?
“La tecnología actualmente está lo suficientemente avanzada como para pensar en máquinas con capacidad de accionar un arma”, alerta Ramón López De Mántaras, Director del Instituto de Investigación de Inteligencia Artificial del CSIC. Lo cierto es que un buen ejemplo de ello son las naves no tripuladas conocidas como drones que ya están siendo utilizadas en operaciones de vigilancia e incluso militares. Pueden ser cargados, disparar y lanzar explosivos, de momento previa decisión de un controlador humano. “Desafortunadamente la capacidad de decidir disparar, o no, no es algo que requiera mucho tiempo de desarrollo e investigación, a lo sumo unos decenios”, apunta López de Mántaras.
Son los llamados robots asesinos, o lo que es lo mismo, la idea de que una máquina puede accionar de forma autónoma un arma letal. Esta semana pasada se celebró en Ginebra el segundo encuentro internacional de la Convención de Armas convencionales en donde se ha debatido acerca de los sistemas de armamento autónomo. En estas conversaciones, a pesar de que algunas naciones han especulado con que este tipo de armas son inevitables, ningún país ha reconocido llevar a cabo un programa de investigación y desarrollo para llegar a obtenerlas. Aunque, tanto Israel como Estados Unidos han avanzado que al menos dejan la puerta a una futura adquisición de esta tecnología. Francia y Reino Unido han afirmado explícitamente no estar inmersos en una carrera armamentística para conseguir armas autónomas, pero sin embargo, tampoco han mostrado su conformidad con dar apoyo a una prohibición preventiva.
Prohibir las armas letales autónomas antes de que lleguen a ser una realidad es el caballo de batalla de la campaña “Campaing To Stop Killer Robots” (Campaña para prohibir los robots asesinos) formada por 45 activistas de todo el mundo pertenecientes a 13 organizaciones no gubernamentales. La campaña ha estado presente en las conversaciones de Ginebra. Entre algunos de los representantes más destacados se encuentra Noel Sharkey, profesor de Inteligencia Artificial y Robótica de la Universidad de Sheffield, en Inglaterra. “Sharkey tiene argumentos muy importantes en contra de que las armas autónomas se lleven a cabo”, asegura el profesor Ramón López de Mántaras, amigo personal del inglés. “El más importante es que el estado actual de la inteligencia artificial, la robótica, y en particular, la visión artificial no permite distinguir satisfactoriamente entre un combatiente o una amenaza, y un civil”, reflexiona el especialista en inteligencia artificial del CSIC.
Según los expertos consultados los niveles de visión artificial actuales no tienen la capacidad siquiera de discriminación y reconocimiento que puede tener un niño de entre dos y tres años. “¿Pondríamos en manos de un niño de tres años un arma letal?, se pregunta López de Mántaras. Una cuestión de rabiosa actualidad máxime ahora, cuando la guerra ya no es lo que tradicionalmente era. Hoy en día las batallas no son como las de antes en donde existía un campo de batalla bien delimitado, donde todos los combatientes estaban bien identificados porque todos iban uniformados. “Actualmente la distinción entre un combatiente y un civil es prácticamente imposible, por lo tanto esto plantea un problema enorme”, afirma el profesor español.
En las últimas conversaciones de Ginebra se puso de manifiesto la necesidad de dar mayor significado a concepto “control humano”. La mayoría de las naciones asistentes estuvieron de acuerdo en dar su apoyo a que se mantenga como última instancia la decisión humana. Para la campaña “To Stop Killer Robots” el debate no se trata de buscar la manera en cómo construir mejores y más seguras armas autónomas, sino en delimitar la línea de prohibición para que estas armas letales queden fuera del control de las personas. Aunque entre los que defienden su investigación y desarrollo hay quien alega que si los seres humanos actuamos de peor manera bajo sentimientos como la rabia, el miedo, la ira, el rencor o la venganza, entre otros, las máquinas al no tener este tipo de sentimientos, pueden evitar muertes innecesarias, informa Tica Font, Directora del Instituto Catalán Internacional por la Paz.
Los defensores de los robots autónomos podrían alegar que en situación de guerra, éstos podrían reducir las muertes ilegítimas, producir menor destrucción y por tanto actuar mejor que los humanos. “Es decir, los robots representarían una fuerza civilizadora”, tal y como explica Font en el reciente artículo titulado Armas Robóticas, nuevo reto a los derechos humanos, publicado en elDiario.es. Aunque en este mismo informe desde el Instituto Catalán Internacional se pone de manifiesto que las emociones humanas son una salvaguardia. Los robots no pueden tener sentido común, no pueden sentir compasión, lástima, no pueden tener intuición. Los robots no pueden prever las consecuencias de sus actos, los humanos sí. “El robot no sentirá empatía, no se identificará con las víctimas, por ello las guerras podrán se más eficientes, que lo dudo, pero serán más inhumanas”, reflexiona Tica Font en su análisis para elDiario.es.
El panorama no es mucho más halagüeño para el Director del Instituto de Investigación de Inteligencia Artificial del CSIC. “En las guerras actuales hay muchas más bajas de civiles que de combatientes –expone López de Mántaras- así que con los robots llegaremos al extremo de que las bajas de los combatientes se reducirán a cero, porque lo que se destruirá serán robots, pero habrá muchas más bajas entre la población civil, me temo”. Y a pesar de que de momento no existen robots humanoides (con forma de humano) que puedan avanzar como lo haría una infantería, el profesor del CSIC asegura que ya se está investigando para conseguir lo que ya se conoce como robots soldados.
Tal y como aseguran fuentes especializadas, el robot soldado se trataría de una máquina con autonomía, que pudiera superar obstáculos, sin ruedas, porque éstas podrían representar un problema para sortear obstáculos como subir y bajar escaleras. “Se está pensando en robots con aspecto humano, de la altura de una persona y que caminen sobre dos piernas”, comenta López de Mántaras. Actualmente este tipo de robots existen, aunque desde el Instituto de investigación de Inteligencia Artificial aseguran que este tipo de robots se encuentran en fase de investigación. Además únicamente están destinados para aplicaciones socialmente responsables como por ejemplo, para ayudar en las tareas domésticas.
Aún así el desafío ante el que nos encontramos es enorme. ¿Podrían unos futuros robots soldados respetar el Derecho Internacional, el Derecho Internacional Humanitario o la Convención de Ginera? ¿Sería posible introducir en el programario de estas máquinas autónomas asesinas la capacidad de cumplir de forma incondicional estos derechos? Esta última reunión de Ginebra emplaza profundizar en los objetivos a perseguir para un futuro cónclave en noviembre próximo. Aunque ante estas actitudes que podrían parecer titubeantes y poco concluyentes, se encuentran opiniones más tajantes como las de la campaña To Stop th Killer Robots, que apuestan por una prohibición preventiva. Incluso existen voces críticas desde nuestro país como las de Ramón López de Mántaras quien se muestra categórico “el hecho que algo sea tecnológicamente factible no significa que deba hacerse”.
Referencias: