Inteligencia artificial: alerta por reportes de abuso infantil en EEUU

La creación de imágenes con IA llegó a un nuevo punto, los menores de edad. Las compañías hicieron un acuerdo para informar sobre esta creación y proteger a los mas chicos.

El uso de inteligencia artificial para generar CSAM se comenzó a detectar y sigue en aumento.

El uso de inteligencia artificial para generar CSAM se comenzó a detectar y sigue en aumento.

Getty Images

El Centro Nacional de Estados Unidos para Niños Desaparecidos y Explotados (NCMEC, por su sigla en inglés) dijo que había recibido 4.700 informes el año pasado sobre contenido generado por inteligencia artificial que representaba episodios de explotación sexual infantil.

El NCMEC dijo a Reuters que la cifra refleja un problema incipiente que se espera que crezca a medida que avanza la tecnología de IA.

El peligro de las imágenes de menores de edad generadas por IA

En los últimos meses, expertos e investigadores en seguridad infantil dieron la alarma sobre el riesgo de que la tecnología de inteligencia artificial generativa, que puede crear texto e imágenes en respuesta a indicaciones, pueda exacerbar la explotación en línea.

inteligencia artificial.jpg
El contenido marcado como generado por IA se está volviendo cada vez más fotorrealista.

El contenido marcado como generado por IA se está volviendo cada vez más fotorrealista.

El NCMEC aún no publicó el número total de informes de contenido de abuso infantil de todas las fuentes que recibió en 2023, pero en el año anterior recibió informes de alrededor de 88,3 millones de archivos.

"Estamos recibiendo informes de las propias empresas de IA generativa, de plataformas (en línea) y de miembros del público", dijo John Shehan, vicepresidente senior del NCMEC, que sirve como ente nacional para denunciar ante la ley contenidos de abuso infantil.

La seguridad infantil y las redes sociales

Los directores ejecutivos de Meta Platforms, X, TikTok, Snap Inc y Discord testificaron en una audiencia en el Senado el miércoles sobre la seguridad infantil en línea, donde los legisladores cuestionaron a las redes sociales y a las empresas de mensajería sobre sus esfuerzos para proteger a los niños de los depredadores en línea.

Investigadores del Observatorio de Internet de Stanford dijeron en un informe de junio que los abusadores podrían utilizar la IA generativa para producir reiteradamente daños a niños mediante la creación de nuevas imágenes que coincidan con la imagen de un menor.

La inteligencia artificial y su complejidad para saber si es verdad

El contenido marcado como generado por IA se está volviendo "cada vez más fotorrealista", lo que dificulta determinar si la víctima es una persona real, dijo Fallon McNulty, director de CyberTipline del NCMEC, que recibe informes de explotación infantil en línea.

OpenAI, creador del popular ChatGPT, estableció un proceso para enviar informes al NCMEC y la organización está en conversaciones con otras empresas de IA generativa, dijo McNulty. (Reporte de Sheila Dang en Austin.

Dejá tu comentario

Te puede interesar