Uso de cookies Utilizamos cookies propias y de terceros para mejorar nuestros servicios y mostrarle publicidad relacionada con sus preferencias mediante el análisis de sus hábitos de navegación. Si continúa navegando, consideramos que acepta su uso. Puede obtener más información sobre nuestra: Política de cookies

El diario del negocio digital y las tecnologías del futuro

17 Dic 201818:54

Blog
Kippel01

El robot que apriete el gatillo

El robot que apriete el gatillo

 

La cuenta atrás para que la ONU se reúna para intentar alcanzar un acuerdo en relación a las armas autónomas (también llamados robots asesinos) ha empezado. Las preguntas son muchas, y las respuestas, casi nulas tras tres años cuestionando el mismo tema: ¿hay que prohibir las armas letales autónomas?


Históricamente, la tecnología ha actuado (y continúa actuando) como motor de la industria militar. El avance de la inteligencia artificial se está haciendo patente en varios sectores, especialmente en el mencionado, y el dinero invertido en su desarrollo repercute directamente en su futuro impacto en el ciudadano.


Las armas letales autónomas tienen tantos defensores como detractores. Numerosas entidades, países, ingenieros y empresarios se han sumado a la campaña Stop Killer Robots, que aboga por prohibir de forma preventiva las armas totalmente autónomas. En relación con este tema, António Guterres, secretario general de la ONU, aseguró el pasado septiembre que “la perspectiva de máquinas con el criterio y el poder para acabar con vidas humanas es moralmente repugnante”.


El riesgo de que este tipo de armas caigan en manos de organizaciones criminales es latente y, además, el debate moral y ético sobre la responsabilidad humana sobre estas máquinas aún está por resolver.


¿Puede una máquina valorar una situación en la que entre en duda la ley internacional? ¿Sabría actuar con el principio de proporcionalidad? Por no hablar del riesgo de que escalen las tensiones entre unos países y otros cuando producir armas autónomas sea mucho más barato que mantener a un soldado en el campo de batalla.


Aun así, ¿no sería más sensato que una máquina gestionara los conflictos en los que una persona pueda fallar bajo situaciones de estrés? Y a la hora de desactivar minas, ¿qué es más conveniente: una persona o un robot cuyo coste de producción irá disminuyendo con los años?


¿Debe un humano decidir en el último momento cómo actúa un robot asesino? ¿Dónde empieza y dónde acaba su responsabilidad? Como comentábamos, mil preguntas y muy pocas respuestas que sólo pueden resolverse mediante el total compromiso de todos los países del mundo.


Un total de 26 países, entre ellos Brasil o Egipto, apuestan por una prohibición total. Estados Unidos o Francia, sin embargo, se oponen a medidas tan drásticas. ¿Y España? Nuestro país es un proveedor importante para la industria militar, con actores destacados como Indra. El debate, sin embargo, no parece estar en la agenda política de sus gobernantes, más preocupados en encarar la coyuntura económica, el conflicto con Cataluña y la próxima campaña electoral.


España no puede quedarse fuera de este debate. La colaboración en este asunto debe ser absoluta, puesto que la decisión que tomen los países será crucial para el futuro de la industria militar. El país que no esté comprometido con el progreso tecnológico, quedará fuera de la escena. Si todavía es lícito hablar de progreso cuando este está asociado a la guerra es, sin duda, otro debate.

 

La respuesta a la pregunta inicial tiene más connotaciones éticas, morales y políticas que económicas, pero desde luego la industria de la tecnología haría bien de tener otros motores (diferentes del militar) para su desarrollo. En todo caso, la literatura ya reflexionó sobre ello años a atrás: Isaac Asimov, uno de los autores más clarividentes, formuló incluso una respuesta en la primera de sus (tal vez ingenuas) leyes de la robótica: “un robot no hará daño a un ser humano o, por inacción, permitirá que un ser humano sufra daño”. ¿Cómo contradecir al Buen Doctor?

...