Advierten por el avance de robots que podrían atacar a civiles y ciudades

Información General

La amenaza despertó las alarmas de especialistas, activistas y organizaciones no gubernamentales. Desembarcó en Buenos Aires "Stop the Killer Robots", una coalición global que promueve la creación de un convenio que impida el desarrollo de robots asesinos, dispositivos de Inteligencia Artificial con capacidad autónoma para decidir cuándo y a quién atacar.

Puede ser que en este momento se estén probando y perfeccionando distintos modelos de robots asesinos en el mundo. No es necesario que posean brazos ni piernas, ni un rostro adusto como en las películas de ciencia ficción, se los denomina así porque son dispositivos de Inteligencia Artificial que pueden instalarse en un dron bélico o en cualquier maquinaria de guerra, con la capacidad de decidir cuándo y a quién atacar en forma autónoma. La amenaza despertó las alarmas de especialistas, activistas y organizaciones no gubernamentales, que crearon una creciente coalición global que desembarcó en Buenos Aires con una premisa simple: lograr que se prohíba el desarrollo de este tipo de tecnologías para evitar ataques a civiles y centros urbanos.

La campaña “Stop the Killer Robots” promueve la creación de un convenio que impida su proliferación, al igual que se decidió en el pasado con otro tipo de armamentos cuestionados: hay todo tipo de argumentos que apoyan el reclamo, desde las limitaciones técnicas que presentan hasta cuestiones filosóficas.

Como explicó Vanina Martínez, investigadora del Conicet y la UBA especialista en Inteligencia Artificial, el punto es que a este tipo de inventos todavía le falta mucho para poder discernir como lo hacemos nosotros. “Los programas no aprenden todo el tiempo, sino que registran los patrones, y algunas interacciones pueden cambian el comportamiento del software pero no el modelo. Entonces, si el modelo original nunca conoció los datos con los que se encuentra en la realidad, no sabrá qué hacer y decidirá en forma arbitraria”, detalló.

La conferencia que tuvo lugar en el Centro Cultural de la Ciencia.JPG
La conferencia tuvo lugar en el Centro Cultural de la Ciencia.

La conferencia tuvo lugar en el Centro Cultural de la Ciencia.

Cada vez son más los expertos que advierten que los software no son seguros, pueden hackearse y no entienden, por ejemplo, reglas abstractas como una declaración de derechos humanos internacional. Lo que se usa en reemplazo es un modelo de aprendizaje que puede confundirse en terrenos cambiantes, tal como sucedió a numerosos vehículos autónomos que protagonizaron accidentes o atropellaron a transeúntes.

“Ni siquiera estamos en condiciones todavía de poder programar un robot que esté impedido de matar civiles. ¿Cómo haríamos? ¿Diciéndolo que identifique su ropa de las de los soldados? ¿Y si estos decidieran vestirse como civiles para camuflarse y pasar desapercibidos? Se necesitaría una cantidad de datos enorme para poder hacerlo”, afirmó Martínez en diálogo con Ámbito. “Pero incluso si en un futuro lográramos hacerlo, el problema ético y moral seguiría estando. Lo importante es que el tema se discuta y se haga algo, yo particularmente estoy convencida de que un arma autónoma que pueda matar a una persona no debería ser construida”.

Como arma autónoma debe entenderse aquella con capacidad para tomar la decisión final de disparo, en base a los blancos y objetivos prefijados y a un arsenal de órdenes que sus diseñadores hayan desarrollado para tal fin. El dron estadounidense que asesinó en Irak al general iraní Qasem Soleimani hace solo unas semanas no entra en esta categoría, ya que el disparo letal fue ejecutado finalmente por un operador a distancia. Aunque, claro, ya se le parece bastante.

La humanoide María, una de las atracciones.jpg
La humanoide María, una de las atracciones.

La humanoide María, una de las atracciones.

El gran peligro es que no se precisan presupuestos millonarios ni proyectos de largo alcance para hacerse con un robot asesino. No hay que fabricar la bomba atómica, el plan puede concretarse con algoritmos públicos y de código abierto, como los que Martínez acostumbra a desarrollar en la UBA. “En nuestro equipo tenemos profesionales trabajando en tecnologías de reconocimiento facial, por ejemplo, para saber si gente indocumentada que llega a un hospital lastimada o que está perdida figura en alguna base de personas buscadas. Es un fin muy noble, pero la herramienta lo que hace es reconocer personas, la misma que se usa para atacar a un civil, es la gran sutileza de estas tecnologías”. Darse cuenta de esas sutilezas le hizo ver las cosas de otra manera y terminó de movilizarla la carta abierta de 2015 en la que un grupo de científicos prestigiosos de todo el mundo se manifestaron en contra de este tipo de armas y propusieron su prohibición.

“Desde que me involucré en estos temas trato de pensar si lo que estoy desarrollando será utilizado para algo que no quiero. Me pasó durante mi carrera de no hacer algunas cosas por ese motivo, aunque no todos los científicos actúan igual. Hace cinco años atrás no pensaba tanto en las implicancias sociales de mi tarea pero ahora no puedo evitarlo”, concluyó.

Top 4 de peligros:

  1. Las armas autónomas no tendrían el juicio necesario para evaluar la proporcionalidad de un ataque, distinguir civiles de soldados, y obedecer los principios básicos de las leyes de la guerra.
  2. Al ser máquinas, no poseeríanlas características inherentemente humanas como la compasión.
  3. No está claro quién sería responsable por las acciones ilegales causadas por un arma enteramente autónoma: el programador, el fabricante, el comandante, o la máquina en sí.
  4. Podrían ser utilizadas en circunstancias fuera del conflicto armado, como en controles de fronteras y vigilancia. También para deshacer protestas y sostener regímenes.

Esos dilemas llevaron también a la ingeniera de software estadounidense Laura Nolan a renunciar a su empleo en Google, luego de que la empresa acordara un proyecto de colaboración con el Pentágono para enseñarle a sus drones a tomar imágenes y reconocer patrones que mejoraran la precisión de sus ataques. Era un paso anterior a contar con un sistema autónomo 100%. “Decidí renunciar porque moralmente estaba mal”, explicó en la conferencia. “La tecnología no es neutral, ha servido para acelerar y agravar las guerras en las últimas décadas y la automatización traerá más drones, más soldados robots, más buques robots y llevará a una amplificación de la guerra tal cual la conocemos”, alertó.

Como corolario, los robots asesinos podrían facilitar el ingreso a los conflictos armados de ejércitos, confiados en que soportarían menos bajas de sus tropas tradicionales. El Centro Cultural de la Ciencia escuchó con atención a Jody Williams, Premio Nobel de la Paz 1997 por su tarea para prohibir las minas terrestres: “Quien entra en una guerra tiene que sufrir sus consecuencias y tiene que enfrentar a su enemigo y mirarlo a los ojos: tal vez logre matarlo o tal vez termine muerto. Pero con una máquina no se siente nada, por eso los militares y las empresas de Defensa hablan de ´guerras limpias´”.

“Son máquinas de la muerte. Crecí en los años del terror por la bomba atómica y cuando comprendí lo que está pasando me dio más miedo aún. El dron es solo una parte de un futuro horrible en el que los robots asesinos pueden estar en manos de muchos países del mundo”, relató.

Williams sabe que su misión podría ser incluso más difícil que la que la condujo al Nobel, debido a los intereses políticos y económicos que están en juego. Pero se aferra al precepto moral y ético que enciende la campaña: “¿Por qué hay seres humanos que creen que está bien dar a una máquina la decisión de matar a otro ser humano?

El contenido al que quiere acceder es exclusivo para suscriptores.

Dejá tu comentario