Elon Musk quiere prohibir ‘robots asesinos’ con inteligencia artificial

116 expertos en robótica, inteligencia artificial, ciencia y tecnología piden a la ONU que se prohiban los robots de combate que usen inteligencia artificial

Por ,

Una carta abierta escrita por 116 especialistas en diferentes campos de la ciencia y la informática, pide a la ONU que se pongan límites a las empresas de todo el mundo para evitar que se construyan robots con inteligencia artificial que puedan acabar en los campos de batalla.

La carta está liderada por Elon Musk, CEO de SpaceX y Tesla, y Mustafa Suleyman, jefe de la división de inteligencia artificial de Google.

La ONU ha decidido hace poco empezar a un debate formal acerca del uso e las armas de nueva generación, que incluyen drones, tanques y armas automatizadas. Pero el grupo de expertos y expertas, quiere que la ONU incluya la inteligencia artificial en esta lista de armas, ya que su uso podría causar más problemas que soluciones en el caso de que un bando de un conflicto lo use.

Cortana, el personaje del videojuego Halo, es un sistema de inteligencia artificial que ayuda a los soldados. Captura: Bungie Studios

«Una vez desarrolladas, armas letales autónomas permitirían que los conflictos armados se libren a una escala mayor, y a intervalos de tiempo mayores que los humanos podrían. Éstas podrían ser armas de terror, armas que los déspotas y terroristas usan contra poblaciones inocentes y armas para comportarse de manera indeseada», comentan los expertos en la carta a la ONU.

«No tenemos mucho tiempo de actuación. Una vez se abra la caja de Pandora, será difícil cerrarla.»

El problema de las armas que usen inteligencia artificial es que no disponen de los mismos reflejos y estándares que las humanos, con una capacidad para decidir que existe un problema mayor al atacar a un enemigo por los daños colaterales, que atacarlos pese a lo que se lleve por delante.

Aunque en un futuro los robots y drones podrían luchar las guerras venideras, existe un problema generalizado con la inteligencia artificial y su uso en armas de guerra. ¿Veremos armas que usan la IA para mejorar su puntería o no dañar a personas inocentes o estructuras? Sí. ¿Veremos robots capaces de tomar la decisión de cuando disparar a una persona o tomar una decisión de vida-muerte? A día de hoy, los sistemas de IA están a años luz de ser capaces de tomar una decisión como esta.

GTA V ya puede usarse para entrenar coches sin conductor

De la misma forma que las leyes de la robótica de Asimov no funcionan, las reglas que se impongan a la inteligencia artificial tampoco lo harán mientras exista un mercado que lo demande. Como indica el profesor Toby Walsh de la Universidad de Nueva Gales del Sur, «Casi todas las tecnologías pueden utilizarse para el bien y el mal, la inteligencia artificial no es diferente. […] Sim embargo, la misma tecnología también puede utilizarse en armas autónomas para industrializar la guerra».

+ Info | The Guardian

Compartir en:

Los comentarios están cerrados.

Últimos vídeos