La Organización de las Naciones Unidas (ONU) pidió este miércoles imponer una moratoria a la venta y el uso de algunos sistemas de inteligencia artificial (IA), como el reconocimiento facial, hasta que se activen garantías para proteger los derechos humanos.
Por qué ONU pide "moratoria" de sistemas de inteligencia artificial
Sobre la amenaza a los derechos humanos a nivel mundial, la Organización decidió evaluar los riesgos que presentan para la vida privada o la libertad de expresión.
-
Robaron cerca de u$s300 millones en criptomonedas Ethereum y sospechan de hackers norcoreanos
-
Rafael Grossi reclama una ONU más activa ante el avance de los conflictos globales
"La inteligencia artificial puede ser una fuerza para el bien, que ayude a las sociedades a superar algunos de los mayores retos de nuestro tiempo. Pero las tecnologías de IA también pueden tener efectos nocivos e incluso catastróficos, cuando se emplean sin prestar la debida atención a su capacidad de vulnerar los derechos humanos", declaró la Alta Comisionada de la ONU para los Derechos Humanos, Michelle Bachelet, en un comunicado.
Según Bachelet, dado que la evaluación de los peligros y cómo superarlos puede llevar todavía algún tiempo, los Estados deberían implementar desde ahora moratorias sobre el uso de las tecnologías que presentan un alto potencial de riesgo.
Por su parte, los sistemas de IA se usan "para decidir quién recibe servicios públicos, quién tiene oportunidad de obtener un empleo y, por supuesto, afectan a la información que la gente ve y que puede compartir en Internet".
Un informe, que había sido pedido por el Consejo de Derechos Humanos -la instancia más alta de la ONU en ese área-, analizó las formas en las que esas tecnologías han sido a menudo aplicadas sin que se haya evaluado de manera correcta su funcionamiento o impacto.
Dicha tecnología ha hecho que muchas personas hayan sido injustamente tratadas, "ya sea porque se les ha denegado prestaciones del seguro social debido a la aplicación de instrumentos deficientes de IA o porque han sido arrestadas como consecuencia de errores en los sistemas de reconocimiento facial", dice el comunicado.
"El riesgo de discriminación inherente a las decisiones basadas en la IA -decisiones capaces de cambiar, definir o perjudicar a las personas- es muy real", añadió Bachelet.
Asimismo se describe detalladamente cómo los sistemas se basan en grandes bases de datos con información personal "compilada, intercambiada, combinada y analizada con métodos diversos y a veces opacos".
"Los datos que alimentan y orientan a los sistemas de IA pueden ser deficientes, discriminatorios, obsoletos o poco pertinentes. El almacenamiento de datos a largo plazo entraña también riesgos particulares", advierte.
"No podemos seguir reaccionando tardíamente a los efectos de la IA, ni permitir que se use de manera ilimitada, sin fronteras ni supervisión, para enfrentarnos luego a sus casi inevitables consecuencias sobre los derechos humanos", insistió Bachelet.
Y concluyó al decir: "Pero también lo es su capacidad de contribuir a violaciones de derechos humanos en gran escala, de manera casi indetectable. Es necesario adoptar urgentemente medidas para imponer límites basados en los derechos humanos a su utilización por el bien de todos".
- Temas
- ONU




Dejá tu comentario