Un nuevo informe apunta que una “falla de clasificación masiva” expuso a millones de usuarios de Facebook a publicaciones de noticias falsas o contenido violento durante los últimos seis meses. Un error en el algoritmo de la red social creada por Mark Zuckerberg disparó hasta un 30% la visibilidad del contenido prohibido por sus políticas.
Facebook y fake news: un error del algoritmo aumentó la exposición a contenido nocivo en los últimos 6 meses
En lugar de reducir la difusión de fake news, Facebook expuso por error a millones de usuarios a noticias falsas o contenido violento durante los últimos seis meses.
-
La posible salida a la bolsa de SpaceX desata el frenesí en las redes sociales y las apuestas
-
La nueva función de WhatsApp que podría cambiarlo todo para los usuarios más privados de la app
Facebook expuso a millones de usuarios a noticias falsas.
Según informa el medio digital especializado en tecnología The Verge, que se apoya en un informe interno sobre la falla de clasificación masiva difundido la pasada semana, un grupo de ingenieros de Facebook identificó el error que expuso al menos la mitad de las visualizaciones del “News Feed” -el apartado de noticias de la red social donde los usuarios ven las actualizaciones de las personas que siguen y otras sugerencias- a “riesgos de integridad” en los seis últimos meses.
Según los documentos internos, los problemas técnicos que pudieron causa el error se remontan a 2019, aunque hasta octubre su impacto pasó desapercibido, se prolongaron durante los últimos seis meses hasta y fueron reparados recién a principios de marzo.
Lo que sucedió fue que, en lugar de que se suprimieran las publicaciones con desinformación de los usuarios que habían sido identificados como infractores reincidentes por verificadores externos, el "News Feed" de Facebook impulsaba estos posteos -con fake news, desnudos o violencia- llegando a disparar sus visualizaciones hasta en un 30% a escala mundial.
Las explicaciones de Facebook ante la polémica por el estallido de fake news
El portavoz de Meta (Facebook), Joe Osborne, confirmó el incidente a The Verge reconociendo que la compañía "detectó inconsistencias" en el sistema de penalización que fueron observadas en hasta "cinco ocasiones aisladas que se correlacionan con aumentos pequeños y temporales de las métricas internas".
En este sentido, Osborne aseguró que el error "no ha dejado una huella relevante y a largo plazo" en las métricas de la empresa.
En contraposición, la investigación interna que encararon los trabajadores de Facebook precisa que los sistemas de la red social fueron incapaces de contener el estallido de desinformación y contenido dañino, entre el que se encuentra violencia, desnudez e incluso mensajes de los medios estatales rusos que la compañía dirigida por Mark Zuckerberg había afirmado dejar de estimular tras la invasión a Ucrania.
- Temas
- Mark Zuckerberg
- Fake News




Dejá tu comentario