Redes Sociales

Meta desarrolla Inteligencia Artificial con lenguaje racista

Meta reveló recientemente una nueva herramienta creada para desarrollar programas de Inteligencia Artificial de forma rápida y eficaz, pero parece tener una tendencia racista. Según los propios trabajadores.

Inteligencia Artificial de Meta racista

El nuevo sistema de Meta, denominado OPT-175B, fue denunciado por los propios investigadores de la empresa. En un informe, se explica que OPT-175B tenía tendencia a generar un lenguaje tóxico. Ya que reforzaba los estereotipos perjudiciales sobre las personas y las razas. Por lo que, los investigadores siguen trabajando para solucionar los problemas del nuevo generador de Inteligencia Artificial.

Anteriormente, Meta ha estado involucrado en un escándalo racista. El año pasado, usuarios de Facebook destacaron que se mostraba la sugerencia de seguir viendo videos de primates.  Solo si aparecía un afrodescendiente. Además, Darci Groves, ex gerente de diseño de contenido, comentó que los asuntos raciales no son una prioridad en Meta.

Antecedentes de Inteligencia Artificial racista

Twitter también ha tenido episodios racistas con su Inteligencia Artificial. Para cambiar el tamaño de las imágenes se empleó un algoritmo. Este redimensionaba automáticamente las fotos. Así se ahorraba a los usuarios el esfuerzo de editar las fotos. Sin embargo, los usuarios no tardaron en darse cuenta de que si se publicaban fotos de minorías, eran recortados de la foto. Algunos usuarios llegaron a la conclusión de que la Inteligencia Artificial empezó a ignorar a los usuarios que no eran blancos. 

Aunque hay pocas posibilidades de que los desarrolladores estuvieran intentando hacer que su tecnología fuera racista. Esto muestra que los prejuicios raciales se filtran en las redes sociales. Ya que, probablemente la base de datos tenía bastantes personas blancas en ellas. Lo que hace más difícil reconocer a otros grupos en las imágenes compartidas. La Inteligencia Artificial de Meta, no es la excepción para ser racista.

Conclusión

Meta siempre señala que tiene un enfoque diverso. Pero en diversas ocasiones se demuestra lo contrario. Muchos empleados señalan que no hay inclusión dentro del trabajo. Y que los sistemas no están orientados a respetar a las minorías. Esto ocasiona que diversos colectivos quieran boicotear a Meta. 

Los trabajadores de Meta están trabajando para desactivar el lenguaje racista de su nuevo sistema de Inteligencia Artificial. Además, la compañía empezaría a tomar medidas más efectivas para frenar los errores de este tipo. Aunque, Meta siempre ha recalcado que ningún sistema puede estar realmente libre de errores y sesgos. Por lo que, están modificando constantemente sus sistemas. 

Te puede interesar:

Adriana Salinas

Share
Publicado Por
Adriana Salinas

Recent Posts

250 temas para iniciar una conversación

Hallar temas para iniciar una conversación puede resultar complicado. Para ayudarte, aquí encontrarás los mejores…

1 año hace

Ladrones de tiempo en el trabajo que debes evitar

El problema de ladrones de tiempo en el trabajo, es que suelen ser invisibles. En…

2 años hace

Qué son las pruebas de honestidad para empleados

Las pruebas de honestidad para empleados, también llamadas pruebas de integridad, son cada vez más…

2 años hace

Series sobre marketing que no te puedes perder

Hemos seleccionado una lista de series sobre marketing que podrían darle una perspectiva de la…

2 años hace

20 Mejores frases de Pinocho de Guillermo del Toro

Pinocho de Guillermo del Toro nos deja las mejores frases de este 2022. La película…

2 años hace

Ghostwriter, una máquina de escribir impulsada por IA que habla

En este artículo conocerás a Ghostwriter, una asombrosa máquina impulsada por IA que busca impactar…

2 años hace

Utilizamos cookies propias y de terceros para mejorar tu experiencia de navegación, y para ello necesitamos tu permiso expreso.