14 de noviembre 2017 - 00:00

Busca la ONU regular el uso de robots en guerras y represión

La iniciativa revela el creciente debate entre gobiernos y organismos pro derechos humanos. Advierten que seis países ya invierten en una tecnología que se puede tornar incontrolable.

VIGILANCIA... POR AHORA. Robots ya son usados por la Policía china para patrullar en la plaza de Tiananmen en Pekín. La capacidad tecnológica de incorporarles armas letales ya está disponible.
VIGILANCIA... POR AHORA. Robots ya son usados por la Policía china para patrullar en la plaza de Tiananmen en Pekín. La capacidad tecnológica de incorporarles armas letales ya está disponible.
Ginebra - Un grupo de expertos gubernamentales en sistemas armamentísticos letales autónomos aborda desde ayer por primera vez formalmente los retos y las implicancias éticas, técnicas y militares y las normativas para los llamados "robots asesinos", capaces de operar sin instrucciones humanas.

El embajador de la India ante la Conferencia de Desarme de la ONU, Amandeep Gill, preside el encuentro del grupo de expertos, creado en 2016 por los Estados parte de la Convención de la ONU sobre Ciertas Armas Convencionales.

La reunión, que se celebra desde ayer en la sede europea de Naciones Unidas en Ginebra y terminará este viernes, cuenta con la participación de varios de los 125 Estados miembros de la Convención, representantes de organizaciones internacionales, de la industria y de la sociedad civil, ONG y académicos.

Gill manifestó que sus principales objetivos son "tener un diálogo de calidad y construir un entendimiento común respecto a la tecnología emergente del armamento autónomo letal que sirva para eliminar la confusión" en torno a estos sistemas de defensa autónomos.

Aunque no tiene pruebas de la existencia de estos sistemas en la actualidad, el embajador aseguró que la tecnología avanza rápido y "es un buen momento para empezar a discutir este tema en el marco de Naciones Unidas". Una veintena de países ya pidieron prohibir tales sistemas militares, mientras activistas de derechos humanos advierten de que al menos seis países están invirtiendo en este tipo de tecnologías.

Por lo pronto, países como China ya cuentan con robots móviles para tareas de vigilancia policial.

Gill sostuvo que "lo fácil sería legislar desde un principio la prohibición de tales sistemas", pero añadió: "Como actores internacionales, debemos ser responsables y tener claro sobre lo que vamos a legislar y los efectos que la normativa internacional puede tener".

Según expertos, los avances en el ámbito de la inteligencia artificial permitirán en poco tiempo crear armas, por ejemplo drones, capaces de operar de forma autónoma en el campo de batalla y de tomar sus propias decisiones sin operación ni instrucciones humanas.

Más de un centenar de líderes del sector tecnológico advirtieron hace poco de que los denominados "robots asesinos" pueden convertirse en "armas de terror" si son utilizadas contra inocentes por parte de "déspotas y terroristas" o pirateadas para emplearlas de forma indeseada.

Entre los muchos puntos de vista que surgieron desde que se inició el debate de manera informal hace tres años, el embajador indio destacó que existe un elemento sobre el que no hay voces disidentes: "Los humanos deben seguir siendo responsables de las decisiones que involucran la vida y la muerte".

"El verdadero reto es distinguir entre lo que puede ser implementable o comprensible y lo que no", concluyó.

Por ahora, el grupo de expertos se centra en entender esos sistemas emergentes: "No queremos llegar a acuerdos que no tengan sentido dentro de cinco o seis años", aclaró el diplomático indio.

Gill explicó que, por esa razón, la discusión se dividirá en tres ejes, para abordar el tema desde un punto de vista tecnológico, militar y ético y legal, teniendo en cuenta la legislación armamentística vigente a nivel internacional y nacional.

Agencia EFE y Ámbito Financiero

Dejá tu comentario