El Centro Nacional de Estados Unidos para Niños Desaparecidos y Explotados (NCMEC, por su sigla en inglés) dijo que había recibido 4.700 informes el año pasado sobre contenido generado por inteligencia artificial que representaba episodios de explotación sexual infantil.
Inteligencia artificial: alerta por reportes de abuso infantil en EEUU
La creación de imágenes con IA llegó a un nuevo punto, los menores de edad. Las compañías hicieron un acuerdo para informar sobre esta creación y proteger a los mas chicos.
-
¿Te animás?: esta inteligencia artificial predice tu fecha de muerte con un 78% de exactitud
-
Inteligencia artificial al alcance de la mano: 8 apps imprescindibles para el celular
El NCMEC dijo a Reuters que la cifra refleja un problema incipiente que se espera que crezca a medida que avanza la tecnología de IA.
El peligro de las imágenes de menores de edad generadas por IA
En los últimos meses, expertos e investigadores en seguridad infantil dieron la alarma sobre el riesgo de que la tecnología de inteligencia artificial generativa, que puede crear texto e imágenes en respuesta a indicaciones, pueda exacerbar la explotación en línea.
El NCMEC aún no publicó el número total de informes de contenido de abuso infantil de todas las fuentes que recibió en 2023, pero en el año anterior recibió informes de alrededor de 88,3 millones de archivos.
"Estamos recibiendo informes de las propias empresas de IA generativa, de plataformas (en línea) y de miembros del público", dijo John Shehan, vicepresidente senior del NCMEC, que sirve como ente nacional para denunciar ante la ley contenidos de abuso infantil.
La seguridad infantil y las redes sociales
Los directores ejecutivos de Meta Platforms, X, TikTok, Snap Inc y Discord testificaron en una audiencia en el Senado el miércoles sobre la seguridad infantil en línea, donde los legisladores cuestionaron a las redes sociales y a las empresas de mensajería sobre sus esfuerzos para proteger a los niños de los depredadores en línea.
Investigadores del Observatorio de Internet de Stanford dijeron en un informe de junio que los abusadores podrían utilizar la IA generativa para producir reiteradamente daños a niños mediante la creación de nuevas imágenes que coincidan con la imagen de un menor.
La inteligencia artificial y su complejidad para saber si es verdad
El contenido marcado como generado por IA se está volviendo "cada vez más fotorrealista", lo que dificulta determinar si la víctima es una persona real, dijo Fallon McNulty, director de CyberTipline del NCMEC, que recibe informes de explotación infantil en línea.
OpenAI, creador del popular ChatGPT, estableció un proceso para enviar informes al NCMEC y la organización está en conversaciones con otras empresas de IA generativa, dijo McNulty. (Reporte de Sheila Dang en Austin.
Dejá tu comentario