Elon Musk (Tesla) y Mustafa Suleyman (Google DeepMind) piden prohibir las armas autónomas

Alejo I
Desde el transporte de personas y mercancías a los procesos de producción, la inteligencia artificial sustituirá al factor humano en un amplio número de actividades. Este imparable proceso de automatización tiene su máxima representación en los sistemas de conducción autónoma, pero hay otros aspectos potencialmente más polémicos y que todavía no han sido debidamente explorados. La aplicación de este tipo de tecnologías al mundo militar es sin duda un punto llamado a suscitar controversia, y si ya era conocido el rechazo de Elon Musk a los sistemas autónomos sin supervisión humana, ahora el fundador de Tesla, SpaceX y OpenAI ha dejado su firma junto a la de más de 100 expertos que piden la prohibición de las armas letales autónomas.

La carta, que cuenta con el apoyo de Mustafa Suleyman (máximo responsable de Google DeepMind) y Jerome Monceaux (Aldebaran Robotics) entre los 116 signatarios, todos ellos fundadores de diversas compañías especializadas en IA y robótica, urge a las Naciones Unidas a tomar medidas contra la proliferación de armas letales autónomas, aquellas capaces de tomar sus propias decisiones sin necesidad de intervención humana.

Difundida para coincidir con la International Joint Conference on Artificial Intelligence de Melbourne, uno de los eventos más importantes de todos los relacionados con la inteligencia artificial, la carta refleja las preocupaciones de los expertos y remarca su creencia de que este tipo de tecnologías deberían estar reguladas a nivel internacional por el riesgo que representa su posible uso. De forma más concreta, el texto hace énfasis en la industrialización de la guerra y la posibilidad de que sus sistemas de comunicación puedan ser vulnerados:

Las armas letales autónomas amenazan con convertirse en la tercera revolución en el campo de batalla. Una vez desarrolladas, permitirán que los conflictos armados se desarrollen a una escala mayor que la conocida hasta ahora y a una velocidad mucho mayor de la que los humanos pueden comprender.

Estas pueden ser armas de terror, armas que déspotas y terroristas utilicen contra poblaciones inocentes, y armas hackeadas para comportarse de formas no deseadas. No tenemos mucho tiempo para actuar. Una vez abierta esta caja de Pandora, será difícil de cerrar.

Los proponentes de la prohibición de las armas letales autónomas piden que sean recogidas en el Convenio sobre Ciertas Armas Convencionales, un documento que por ejemplo prohíbe el uso de armas láser diseñadas para cegar al enemigo.

El uso de armas autónomas puede parecer reminiscente de películas de ciencia ficción como la serie Terminator, pero tiene muy poco de fantasía. A pesar de que su despliegue todavía es muy limitado, Corea del Sur tiene en su frontera con Corea del Norte un número secreto de torretas Samsung SGR-A1, que se caracterizan por su capacidad para detectar la presencia de una fuerza enemiga y responder (con advertencias acústicas o fuego real) sin intervención humana cuando están programadas para ello. Ya en las nubes, experimentos más recientes investigan el potencial de la inteligencia artificial distribuida para tácticas aéreas de swarming.

Los partidarios de las armas letales autónomas afirman que su uso en lugar de tanques, aviones o incluso soldados resultaría en un menor número de víctimas. Sus detractores, por contra, creen que los estados o grupos con acceso a este tipo de armas solo tendrán un mayor incentivo para lanzar ataques más numerosos y masivos, al tiempo que se emborronan las líneas que permiten establecer la responsabilidad moral de su uso. Los miembros de las Naciones Unidas deberán valorar los argumentos de unos y otros cuando llegue el momento de revisar el Convenio sobre Ciertas Armas Convencionales.
Fuente: Future of Life