Redes Sociales

Fallo de Facebook aumentó visualizaciones de contenido nocivo

Un error de Facebook provocó un aumento de las visualizaciones de contenidos negativos durante seis meses. Este problema fue identificado por un grupo de ingenieros expertos de la red social. 

Error de Facebook aumentó visualizaciones de contenidos nocivos

Un grupo de ingenieros de Facebook identificó un fallo de clasificación que expuso hasta la mitad de todas las visualizaciones del feed de noticias como potenciales riesgos de integridad. Esto durante los últimos seis meses, según un informe interno de la propia red social. Los ingenieros detectaron el problema por primera vez el pasado mes de octubre. Ya que, una repentina oleada de desinformación comenzó a fluir a través del feed de noticias. 

En lugar de suprimir las publicaciones de desinformación, la sección de noticias distribuía las publicaciones. Además, se aumentaba las visualizaciones hasta en un 30% a nivel mundial. Los ingenieros observaron cómo el aumento disminuía unas semanas más tarde. Pero luego volvían a aparecer repetidamente, el problema de clasificación se solucionó el 11 de marzo.

El fallo de Facebook que aumenta visualizaciones en contenido nocivo

El portavoz de Meta, Joe Osborne, confirmó el incidente diciendo que la compañía detectó inconsistencias en cinco ocasiones distintas. Los documentos internos dijeron que el problema técnico se introdujo por primera vez en 2019. Pero no creó un impacto notable en las visualizaciones de contenido de Facebook hasta octubre de 2021. Joe Osborne destacó que han rastreado la raíz del error del software y aplicaron las correcciones necesarias. 

Facebook manifiesta que no hay una intención maliciosa detrás de este reciente fallo que afortunadamente no rompió las otras herramientas de moderación de Facebook. Aunque, el incidente demuestra por qué se necesita más transparencia en los algoritmos que utilizan. Durante años, Facebook ha tenido problemas para mejorar la calidad del feed de noticias. 

Facebook y el control

Los responsables de Facebook se jactan regularmente de que sus sistemas de Inteligencia Artificial mejoran cada año en la detección proactiva de contenidos nocivos. Dando mayor importancia a la tecnología como forma de moderación. El año pasado, Facebook señaló que empezaría a reducir el rango de todos los contenidos políticos en el feed. Mark Zuckerberg comentó que su objetivo era reducir las visualizaciones del contenido negativo en Facebook.

La investigación interna también descubrió que los sistemas de Facebook tampoco degradaron adecuadamente contenido de abuso y violencia. Los problemas fueron designados internamente como eventos del sitio de nivel uno o crisis de alta prioridad. Esta última clasifica la situación del actual bloqueo de Facebook e Instagram por parte de Rusia.

Te podría interesar:

Adriana Salinas

Share
Publicado Por
Adriana Salinas

Recent Posts

250 temas para iniciar una conversación

Hallar temas para iniciar una conversación puede resultar complicado. Para ayudarte, aquí encontrarás los mejores…

1 año hace

Ladrones de tiempo en el trabajo que debes evitar

El problema de ladrones de tiempo en el trabajo, es que suelen ser invisibles. En…

2 años hace

Qué son las pruebas de honestidad para empleados

Las pruebas de honestidad para empleados, también llamadas pruebas de integridad, son cada vez más…

2 años hace

Series sobre marketing que no te puedes perder

Hemos seleccionado una lista de series sobre marketing que podrían darle una perspectiva de la…

2 años hace

20 Mejores frases de Pinocho de Guillermo del Toro

Pinocho de Guillermo del Toro nos deja las mejores frases de este 2022. La película…

2 años hace

Ghostwriter, una máquina de escribir impulsada por IA que habla

En este artículo conocerás a Ghostwriter, una asombrosa máquina impulsada por IA que busca impactar…

2 años hace

Utilizamos cookies propias y de terceros para mejorar tu experiencia de navegación, y para ello necesitamos tu permiso expreso.