logo logo logo logo logo logo logo logo logo logo logo logo logo logo logo logo logo logo logo logo logo logo logo logo logo logo logo logo logo logo logo logo logo logo logo logo logo logo logo logo logo logo logo logo logo logo logo logo logo logo logo logo logo logo logo logo logo logo logo
star Bookmark: Tag Tag Tag Tag Tag
Spain

Robots con voluntad de matar

Skynet es un ente con inteligencia artificial que dirige un ejército de robots y máquinas que se alzan contra los humanos. Eso ocurre en el mundo de la ficción descrito en la saga de películas de Terminator que inauguró el director James Cameron en 1984.

En la actualidad: “Podría llegar un momento en que los sistemas de armas autónomas letales se autodeterminaran. [...] Como ocurre con Frankenstein, la criatura acaba rebelándose contra su creador y contra la comunidad”. Son palabras pronunciadas por la profesora de Derecho Administrativo Roser Martínez Quirante, coautora junto con el profesor Joaquín Rodríguez Álvarez, del libro Inteligencia artificial y armas autónomas letales recién publicado.

Guterres asegura que una máquina con criterios para matar resulta “repugnante”

–Lo que está describiendo, profesora, es Skynet...

–Efectivamente.

Por todo el mundo se extiende actualmente el miedo a que los artefactos de uso militar puedan en breve tomar sus propias decisiones sin el más mínimo control del hombre a la hora de elegir y abatir objetivos humanos.

Y no sólo eso, sino que mediante procedimientos de aprendizaje artificial puedan alcanzar un estadio en que sean capaces de reevaluar sus objetivos emancipándose por completo del control de quienes los crearon y programaron. Hoy parece cumplirse el vaticinio que en un alarde profético plasmara el cineasta Stanley Kubrick en su obra 2001: Una odisea del espacio, en la que un ordenador, HAL 9000, decide atacar a la tripulación de la nave espacial en la que va instalado para evitar que lo desconecten.

Hay expertos que dicen que estos robots podrían llegar a alzarse contra la humanidad

Ante la creciente discusión internacional, el pasado 25 de septiembre, el secretario general de la ONU, António Guterres, declaró ante la Asamblea General: “Digámoslo como es. La perspectiva de máquinas con el criterio y el poder para acabar con vidas humanas es moralmente repugnante”. Lanzó la voz de alarma sobre unos avances tecnológicos que muchos especialistas consideran potencialmente más peligrosos que la tecnología nuclear y que del mismo modo podría destruir la raza humana si los sistemas armados se salieran de control o cayeran en malas manos. “Los robots asesinos son un gran peligro” y no contribuyen, a criterio de Guterres, a “garantizar la paz y la seguridad”.

Las armas letales autónomas (LAWS, por sus siglas en inglés, Lethal Autonomous Weapons) son el resultado de la aplicar la inteligencia artificial a la búsqueda de soluciones en el ámbito del enfrentamiento militar; del combate. Así hay LAW marinas o acuáticas (embarcaciones de superficie y submarinas), aéreas (drones autónomos que seleccionan por sí mismos los objetivos) y terrestres (algunos incluso con forma humana).

Que sea la máquina mediante procedimientos autónomos la que elija los objetivos a abatir es el salto a lo desconocido que una gran parte de la humanidad parece no estar dispuesta a dar. La ONU trabaja para conseguir un tratado para su prohibición. Las LAW plantean, según sus contrarios, problemas de muy diversa índole, pero principalmente para la propia supervivencia de la especie, así como conflictos de tipo ético y moral, además de colisionar con el derecho internacional y los derechos humanos.

Países como Israel, Francia, Rusia, Corea del Sur, el Reino Unido y Estados Unidos se han declarado contrarios a cualquier acuerdo planetario que vete la investigación y el desarrollo de armas autónomas letales. China, que hasta hace poco pertenecía al grupo de las naciones plenamente a favor de las LAW, ahora parece que estaría dispuesta a firmar un futuro acuerdo bajo ciertas condiciones, según confirma el profesor Joaquín Rodríguez que, como su colega Roser Martínez, es miembro del grupo de expertos mundiales que bajo el manto de la ONU preparan el camino para la redacción del futuro tratado internacional contra estas armas.

Ya hace varios años que existen sistemas de armas autónomas en los que la intervención del factor humano en la cadena de decisiones es baja o nula. Pero se ha tratado hasta hace poco de sistemas únicamente defensivos. Se pueden citar aquellas instaladas en la paradójicamente denominada zona desmilitarizada entre Corea del Norte y del Sur, que cuentan con mecanismos de disparo automático cuando algo se mueve sobre el terreno, o por ejemplo, la llamada cúpula de hierro, que es como se denomina el sistema de misiles contra cohetes con que cuenta Israel para neutralizar los proyectiles que se lanzan desde Gaza contra posiciones judías. Los soldados que controlan el sistema de la cúpula de hierro sólo vigilan que el sistema informático no falle; que no caiga, pero no tienen intervención alguna en el lanzamiento de los cohetes defensivos.

Los defensores de las LAW esgrimen que el número de bajas propias en el combate podría reducirse en picado. Se trataría sólo de pérdidas materiales, pero no humanas. Incluso se dice que los procesos algorítmicos llegarían a ser lo suficientemente certeros como para reducir daños humanos colaterales. Sin embargo, para la corriente mundial contraria a estas nuevas tecnologías desarrolladas por la industria militar, no hay nada en los planteamientos anteriores que no sea fácilmente rebatible. “La vida no es un bit de información. Hay que tratarla con dignidad”, proclama la profesora Roser Martínez.

No hay estudios que demuestren por el momento que no puedan ocurrir errores con estos sistemas, que se pueda tener una fe ciega en la tecnología. ¿O es que acaso no ha habido ya desgracias con armas supuestamente guiadas que han acabado haciendo blanco en un objetivo equivocado?, se preguntan desde organizaciones internacionales como los promotores de la campa-
ña mundial Stop Killer Robots (www.stopkillerrobots.org), destinada a concienciar a la opinión pública y los estados de lo que consideran los peligros de estos sistemas autónomos letales. Entre las últimas reclamaciones de sus impulsores está la de pedir a los países miembros de la UE que presten atención a la resolución aprobada el mes pasado por el Parlamento Europeo en que instaba la apertura de “negociaciones internacionales sobre un instrumento legalmente vinculante que prohíba los sistemas de armas autónomos letales”.

Siguiendo el supuesto de sustitución del combatiente por un robot, en el mejor de los casos podría llegar a darse la situación de que se enfrentaran dos ejércitos de máquinas. En el peor de los supuestos, entrarían en combate un ejército de robots y otro de seres humanos y eso tampoco es descartable. No todos los países podrán costearse unas fuerzas armadas robotizadas. “Además, las máquinas no tienen compasión”, matiza el profesor Joaquín Rodríguez.

Siguiendo este mismo razonamiento, los defensores de las LAW afirman que, del mismo modo, los robots tampoco tendrían miedo ni serían presa de un ataque de histeria, ni sentirían deseos de venganza.

En el debate internacional, se vuelcan más interrogantes: ¿Qué ocurriría si un grupo de piratas informáticos se hicieran con el control del sistema de forma intrusiva y fijaran nuevos parámetros de ataque para los robots?

¿Quién se haría cargo de las fechorías que pudieran cometer las máquinas? No puede establecerse con claridad quién pagaría el error de un robot que asesinara, por ejemplo, a una niña de 10 años. Los estados podrían excusarse en un fallo técnico para evitar rendir cuentas por crímenes de guerra.

Themes
ICO