Fallo de Facebook aumentó visualizaciones de contenido nocivo
Un error de Facebook provocó un aumento de las visualizaciones de contenidos negativos durante seis meses. Este problema fue identificado por un grupo de ingenieros expertos de la red social.
Error de Facebook aumentó visualizaciones de contenidos nocivos
Un grupo de ingenieros de Facebook identificó un fallo de clasificación que expuso hasta la mitad de todas las visualizaciones del feed de noticias como potenciales riesgos de integridad. Esto durante los últimos seis meses, según un informe interno de la propia red social. Los ingenieros detectaron el problema por primera vez el pasado mes de octubre. Ya que, una repentina oleada de desinformación comenzó a fluir a través del feed de noticias.
En lugar de suprimir las publicaciones de desinformación, la sección de noticias distribuía las publicaciones. Además, se aumentaba las visualizaciones hasta en un 30% a nivel mundial. Los ingenieros observaron cómo el aumento disminuía unas semanas más tarde. Pero luego volvían a aparecer repetidamente, el problema de clasificación se solucionó el 11 de marzo.
El fallo de Facebook que aumenta visualizaciones en contenido nocivo
El portavoz de Meta, Joe Osborne, confirmó el incidente diciendo que la compañía detectó inconsistencias en cinco ocasiones distintas. Los documentos internos dijeron que el problema técnico se introdujo por primera vez en 2019. Pero no creó un impacto notable en las visualizaciones de contenido de Facebook hasta octubre de 2021. Joe Osborne destacó que han rastreado la raíz del error del software y aplicaron las correcciones necesarias.
Facebook manifiesta que no hay una intención maliciosa detrás de este reciente fallo que afortunadamente no rompió las otras herramientas de moderación de Facebook. Aunque, el incidente demuestra por qué se necesita más transparencia en los algoritmos que utilizan. Durante años, Facebook ha tenido problemas para mejorar la calidad del feed de noticias.
Facebook y el control
Los responsables de Facebook se jactan regularmente de que sus sistemas de Inteligencia Artificial mejoran cada año en la detección proactiva de contenidos nocivos. Dando mayor importancia a la tecnología como forma de moderación. El año pasado, Facebook señaló que empezaría a reducir el rango de todos los contenidos políticos en el feed. Mark Zuckerberg comentó que su objetivo era reducir las visualizaciones del contenido negativo en Facebook.
La investigación interna también descubrió que los sistemas de Facebook tampoco degradaron adecuadamente contenido de abuso y violencia. Los problemas fueron designados internamente como eventos del sitio de nivel uno o crisis de alta prioridad. Esta última clasifica la situación del actual bloqueo de Facebook e Instagram por parte de Rusia.
Te podría interesar: