Meta lanzó una nueva herramienta para evitar contenidos de explotación sexual infantil

Información General

La red social puso a disposición una nueva función para filtrar imágenes y videos que tengan contenido sensible y violento. Conocé cómo activarla.

Meta otorga a empresas la posibilidad de utilizar una herramienta de moderación que permite identificar imágenes y vídeos en masa para su retirada de las plataformas digitales con el objetivo de frenar la difusión de contenido infractor como material terrorista o de explotación sexual infantil.

meta.jpg

Meta: de qué se trata la nueva herramienta de moderación

La herramienta de moderación, de código abierto, se conoce como Hasher-Matcher-Actioner (HMA). Esta fue diseñada por Meta para eliminar la difusión de contenido terrorista de las plataformas digitales como Facebook.

En ese sentido, Meta liberó esta herramienta para ponerla a disposición de otras empresas que no tienen los mismos recursos, para que ellas también puedan combatir el contenido que viola sus políticas, como informó en su blog oficial.

Una vez que la imagen o el vídeo fue marcado en una red social por violar las normas de la comunidad -por estar vinculado a acciones terroristas, por tratarse de material de explotación sexual infantil u otro tipo de contenido infractor-, pasa a formar parte del sistema de HMA.

Datos Meta.jpg

Esta herramienta marca el contenido con una huella, que se conoce como 'hash', lo que permite eliminar esa primera imagen o vídeo, pero mantener la huella en la base de datos para buscar copias que se hayan podido subir a las plataformas y así poder prevenir estos contenidos en la plataforma.

Por lo tanto, cuando la herramienta encuentra una coincidencia, no solo ofrece una relación de los resultados, sino que también permite, por ejemplo, eliminar el contenido infractor identificado de forma automática.

Otro objetivo de esta herramienta es que se cree una base de datos más completa con los 'hash' con el fin de poder atajar el contenido infractor en distintas plataformas de forma más rápida y eficaz.

Meta Facebook.jpg

La compañía destacó la eficacia de su tecnología de inteligencia artificial para eliminar el contenido infractor de forma masiva. Como detalla, el contenido con discurso del odio recibe dos visitas por cada 10.000 visitas, se bloquean "millones de cuentas falsas" a diario para evitar la propagación de información errónea y, desde 2017, se eliminaron más de 150 redes de cuentas maliciosas.

Dejá tu comentario