Un peligro de la inteligencia artificial

Modelo SGR-A1 de torreta centinela autónoma, producida por Samsung y usada en la ZDM
 

Según los líderes mundiales de robótica y los pioneros de la inteligencia artificial, en un futuro muy próximo la humanidad enfrentará un gran peligro: las armas letales autónomas.

Un grupo de 116 expertos en robótica e inteligencia artificial (IA) enviaron una carta a la ONU para que prohíba el desarrollo y uso de armas mortíferas controladas por software autónomo. Entre los signatarios se encuentran Elon Musk (director y fundador de Tesla Motors, SpaceX y creador de OpenAI), Stephen Hawking (físico teórico), Noam Chomsky (padre de la lingüística moderna) y Mustafa Suleyman (fundador de la compañía DeepMind Technologies, que diseñó la máquina neuronal de Turing más compleja en el mundo).

En los últimos dos años el campo de la IA ha visto avances inmensos en los sistemas de aprendizaje profundo por refuerzo y de aprendizaje no supervisado, en el potencial de cálculo, y memoria a largo plazo. Mientras que Deep Blue o Watson (de IBM), que célebremente derrotaran al campeón mundial de ajedrez, fueron desarrollados con un sólo propósito, DeepMind (hoy propiedad de Google), no está preprogramado y aprende a partir de la experiencia. DeepMind comenzó a aprender hace dos años en sistemas muy simples, juegos de video de los 70s, en las últimas semanas ha vencido a los mejores jugadores de los complejos juegos actuales. Cabe mencionar que son los mismos expertos detrás de DeepMind y OpenAI quienes abogan por la prohibición y regulación con más empeño.

De acuerdo con Noam Chomsky, el desarrollo de la IA es fruto de un error craso desde su incepción; su proceso de aprendizaje es más afín al conductismo de Skinner, basado en la relación estímulo-respuesta y en el uso de técnicas de la estadística para minar y predecir datos. Esto, dice Chomsky, no va a producir los principios generales de cognición que rigen la naturaleza de seres inteligentes. Aun así, las armas letales autónomas tienen la habilidad de tomar decisiones no preprogramadas. Estados Unidos, el Reino Unido, China, Rusia, Corea del Sur y otros países ya poseen, o están en fase de producción inminente, armas letales autónomas. La carta, en uno de sus párrafos, dice: “Las armas letales autónomas traerán consigo conflictos armados de una trascendencia más grande que nunca y en una escala de tiempo más rápida de lo que podemos comprender. Pueden convertirse en armas del terror, armas de déspotas en contra de poblaciones inocentes y armas manipuladas de maneras desastrosas”. Y amenaza: “Una vez abierta, esa caja de Pandora será muy difícil de cerrar”.

La idea de robots asesinos ha sido vista y leída en cine y novelas, constantemente, desde mediados del siglo XX. El peligro que alarma a los signatarios de la carta es, sin embargo, real: Ya se han comenzado a producir armas letales autónomas y, de hecho, ya se han desplegado y activado. La torreta centinela Samsung SGR-A1, de la cual poco se sabe aunque tiene capacidad de reconocimiento de voz y autonomía, ha sido implementada en la zona demilitarizada entre las dos Coreas. También el gobierno inglés posee un dron de tecnología furtiva con capacidad autónoma, el Corax, producido por BAE Systems. Por obvias razones, los detalles de elaboración y funcionamiento de estos y otros aparatos similares se mantiene en secreto; pero no debe confundirse con los drones de combate que son piloteados a control remoto por un operador humano.

Dron furtivo autónomo Taranis, producido por BAE Systems
 

Estas tecnologías, combinación de arma letal e IA, son censurables desde varios puntos de vista. Por un lado, carecen de regulaciones duras y coherentes: Todo lo que representa un riesgo para el público está absolutamente regulado (los carros, los cigarros, los aviones, etc.), ¿por qué no el uso de IA en armas mortíferas? Por otro lado, el umbral del costo de la guerra casi se elimina; el país atacante no arriesga las vidas de ninguno de sus ciudadanos, las muertes de enemigos siempre son más fáciles de digerir para los votantes. Es más, la responsabilidad moral de matar se diluye sobremanera: ¿de quién es la culpa en una cadena de mando que da una orden cumplida por un aparato fabricado por una corporación usando una red neuronal autónoma? Nadie jala el gatillo.

Mientras tanto, los gobiernos de varios países, incluidos Estados Unidos y el Reino Unido, se oponen con fuerza a esta prohibición, alegando que la ley humanitaria internacional brinda suficiente apoyo al campo. La producción y venta de armas letales es una de las principales fuentes de ingreso para las élites de varios países desarrollados. Aunque el peligro no es inminente, ni evidente, según muchos expertos se trata del mayor obstáculo para la supervivencia de nuestra especie. Se puede hablar de jugar con fuego, como jugamos con el átomo, con sistemas que pueden cobrar una complejidad más allá de nuestro entendimiento actual, ser hackeados, ser copiados o robados o, tarde o temprano, tomar decisiones que no nos convengan.

Autor: IIEH

Fuentes:

 

Elon Musk y 116 expertos piden una completa prohibición de robots asesinos

Noam Chomsky habla sobre el camino equivocado que tomó la inteligencia artificial

Elon Musk advierte sobre el peligro de la IA, el mayor para la humanidad