Meta reveló recientemente una nueva herramienta creada para desarrollar programas de Inteligencia Artificial de forma rápida y eficaz, pero parece tener una tendencia racista. Según los propios trabajadores.
El nuevo sistema de Meta, denominado OPT-175B, fue denunciado por los propios investigadores de la empresa. En un informe, se explica que OPT-175B tenía tendencia a generar un lenguaje tóxico. Ya que reforzaba los estereotipos perjudiciales sobre las personas y las razas. Por lo que, los investigadores siguen trabajando para solucionar los problemas del nuevo generador de Inteligencia Artificial.
Anteriormente, Meta ha estado involucrado en un escándalo racista. El año pasado, usuarios de Facebook destacaron que se mostraba la sugerencia de seguir viendo videos de primates. Solo si aparecía un afrodescendiente. Además, Darci Groves, ex gerente de diseño de contenido, comentó que los asuntos raciales no son una prioridad en Meta.
Twitter también ha tenido episodios racistas con su Inteligencia Artificial. Para cambiar el tamaño de las imágenes se empleó un algoritmo. Este redimensionaba automáticamente las fotos. Así se ahorraba a los usuarios el esfuerzo de editar las fotos. Sin embargo, los usuarios no tardaron en darse cuenta de que si se publicaban fotos de minorías, eran recortados de la foto. Algunos usuarios llegaron a la conclusión de que la Inteligencia Artificial empezó a ignorar a los usuarios que no eran blancos.
Aunque hay pocas posibilidades de que los desarrolladores estuvieran intentando hacer que su tecnología fuera racista. Esto muestra que los prejuicios raciales se filtran en las redes sociales. Ya que, probablemente la base de datos tenía bastantes personas blancas en ellas. Lo que hace más difícil reconocer a otros grupos en las imágenes compartidas. La Inteligencia Artificial de Meta, no es la excepción para ser racista.
Meta siempre señala que tiene un enfoque diverso. Pero en diversas ocasiones se demuestra lo contrario. Muchos empleados señalan que no hay inclusión dentro del trabajo. Y que los sistemas no están orientados a respetar a las minorías. Esto ocasiona que diversos colectivos quieran boicotear a Meta.
Los trabajadores de Meta están trabajando para desactivar el lenguaje racista de su nuevo sistema de Inteligencia Artificial. Además, la compañía empezaría a tomar medidas más efectivas para frenar los errores de este tipo. Aunque, Meta siempre ha recalcado que ningún sistema puede estar realmente libre de errores y sesgos. Por lo que, están modificando constantemente sus sistemas.
Te puede interesar:
Hallar temas para iniciar una conversación puede resultar complicado. Para ayudarte, aquí encontrarás los mejores…
El problema de ladrones de tiempo en el trabajo, es que suelen ser invisibles. En…
Las pruebas de honestidad para empleados, también llamadas pruebas de integridad, son cada vez más…
Hemos seleccionado una lista de series sobre marketing que podrían darle una perspectiva de la…
Pinocho de Guillermo del Toro nos deja las mejores frases de este 2022. La película…
En este artículo conocerás a Ghostwriter, una asombrosa máquina impulsada por IA que busca impactar…
Utilizamos cookies propias y de terceros para mejorar tu experiencia de navegación, y para ello necesitamos tu permiso expreso.