Facebook somete a moderadores de contenido a estrés psicológico
La empresa matriz de Facebook, Meta, se ha enfrentado a crecientes acusaciones de no proteger a sus moderadores de contenido y al público de los abusos en línea. Esto ha llevado a presionar para que se legisle en todo el mundo sobre la incapacidad de la empresa. Especialmente, para actuar ante las preocupaciones. Aquí, conoceremos más detalles al respecto.
Facebook en problemas con los moderadores de contenido
Los problemas con los moderadores de Facebook inicio en el 2018. Pero, se aceleraron en 2021. Ya que, los principales políticos dieron la oportunidad a los denunciantes de plantear sus preocupaciones. Por ello, la plataforma mediática fue condenada a pagar 52 millones de dólares en compensación a los moderadores estadounidenses. Porque, sufrieron angustia psicológica a causa de su trabajo.
El ex moderador Chris Gray está llevando a Meta a los tribunales en Irlanda por haber sufrido un trastorno de estrés postraumático. Como resultado de haber visto contenido explícito. Incluyendo vídeos de abusos y decapitaciones de terroristas. Todo ello, como parte de su trabajo en la empresa de redes sociales. En definitiva, según lo que declara Facebook está lejos de alejarse de sus problemas con los moderadores de contenido.
Contenido que da problemas a Facebook
Chris Gray también mencionó que Meta puede tomar medidas. Sin embargo, esto solo significa más estrés para los que hacen el trabajo. El motivo es que no buscan arreglar un sistema roto. De hecho, el Sr. Gray es uno de los más de 30 moderadores de toda Europa que están reclamando a Meta una indemnización en los tribunales.
En realidad, el mayor desafío de Facebook comenzó cuando la denunciante y exingeniera de Facebook, Frances Haugen, filtró miles de documentos internos. Ya que, estos mostraban cómo la empresa había tratado la moderación de la incitación al odio y la desinformación. Para solucionar los problemas de Facebook, se tendría que impedir que el algoritmo promueva contenido extremo y divisivo.
Posible solución
Meta debería proporcionar un apoyo psicológico adecuado a los trabajadores y limitar su exposición a contenidos nocivos. Es más, se reveló que los moderadores cuentan con “entrenadores de bienestar” no cualificados médicamente. Así que sugieren “karaoke y pintura” como mecanismos de afrontamiento a los problemas que tienen.
Se advirtió que Facebook considera la seguridad en línea como un coste. Y como la empresa ha promovido una cultura de empresa emergente en la que recortar gastos es bueno. No están haciendo mucho para solucionar los problemas. Definitivamente, está empeorando el odio en el contenido de Facebook. Sobre todo, porque no está estado dispuesto a aceptar que se sacrifique siquiera una pequeña parte de los beneficios por la seguridad de los usuarios.
Conclusión
En Estados Unidos se han propuesto unos 30 proyectos de ley para actualizar el marco regulador en el que operan las empresas de redes sociales. También, en el Reino Unido, un proyecto de ley en trámite en el Parlamento permitiría a los reguladores solicitar datos que revelen cómo la empresa mitiga los supuestos daños. Además, La Unión Europea tiene previsto adoptar un nuevo marco legal a finales de este año.
Por el momento, Meta ha señalado que están invirtiendo en inteligencia artificial para mejorar su capacidad de detectar contenido infractor y mantener a la gente a salvo en Facebook e Instagram. Esto sin lugar a dudas mejorará a la plataforma, tanto para usuarios como para profesionales de marketing digital y community managers. Solo queda esperar a ver, cómo terminará el asunto en tribunales.
También te puede interesar: