Meta desarrolla Inteligencia Artificial con lenguaje racista

Inteligencia Artificial de Meta racista

Meta reveló recientemente una nueva herramienta creada para desarrollar programas de Inteligencia Artificial de forma rápida y eficaz, pero parece tener una tendencia racista. Según los propios trabajadores.

Inteligencia Artificial de Meta racista

El nuevo sistema de Meta, denominado OPT-175B, fue denunciado por los propios investigadores de la empresa. En un informe, se explica que OPT-175B tenía tendencia a generar un lenguaje tóxico. Ya que reforzaba los estereotipos perjudiciales sobre las personas y las razas. Por lo que, los investigadores siguen trabajando para solucionar los problemas del nuevo generador de Inteligencia Artificial.

Anteriormente, Meta ha estado involucrado en un escándalo racista. El año pasado, usuarios de Facebook destacaron que se mostraba la sugerencia de seguir viendo videos de primates.  Solo si aparecía un afrodescendiente. Además, Darci Groves, ex gerente de diseño de contenido, comentó que los asuntos raciales no son una prioridad en Meta.

Inteligencia Artificial

Antecedentes de Inteligencia Artificial racista

Twitter también ha tenido episodios racistas con su Inteligencia Artificial. Para cambiar el tamaño de las imágenes se empleó un algoritmo. Este redimensionaba automáticamente las fotos. Así se ahorraba a los usuarios el esfuerzo de editar las fotos. Sin embargo, los usuarios no tardaron en darse cuenta de que si se publicaban fotos de minorías, eran recortados de la foto. Algunos usuarios llegaron a la conclusión de que la Inteligencia Artificial empezó a ignorar a los usuarios que no eran blancos. 

Aunque hay pocas posibilidades de que los desarrolladores estuvieran intentando hacer que su tecnología fuera racista. Esto muestra que los prejuicios raciales se filtran en las redes sociales. Ya que, probablemente la base de datos tenía bastantes personas blancas en ellas. Lo que hace más difícil reconocer a otros grupos en las imágenes compartidas. La Inteligencia Artificial de Meta, no es la excepción para ser racista.

Antecedentes de Inteligencia Artificial racista

Conclusión

Meta siempre señala que tiene un enfoque diverso. Pero en diversas ocasiones se demuestra lo contrario. Muchos empleados señalan que no hay inclusión dentro del trabajo. Y que los sistemas no están orientados a respetar a las minorías. Esto ocasiona que diversos colectivos quieran boicotear a Meta. 

Los trabajadores de Meta están trabajando para desactivar el lenguaje racista de su nuevo sistema de Inteligencia Artificial. Además, la compañía empezaría a tomar medidas más efectivas para frenar los errores de este tipo. Aunque, Meta siempre ha recalcado que ningún sistema puede estar realmente libre de errores y sesgos. Por lo que, están modificando constantemente sus sistemas. 

Te puede interesar:

1 Star2 Stars3 Stars4 Stars5 Stars (Ninguna valoración todavía)
Cargando...

También te puede interesar