Tendencias

Robots que copian comportamientos humanos son sexistas

Los robots, según un equipo de investigadores, que copian conductas de los humanos están teniendo comportamientos perturbadores.

Robots aprenden malas conductas de humanos

Investigadores de la Universidad Johns Hopkins, el Instituto de Tecnología de Georgia y la Universidad de Washington descubrió que los robots tienen prejuicios. Y estos provienen del lenguaje que se utiliza para entrenarlos. Principalmente, porque los robots se basan en Big Data disponible para aprender a reconocer objetos e interactuar con el mundo.

Pero estos a menudo tienden a ser inexactos y sesgados. Así que cualquier algoritmo construido con estos conjuntos de datos está infundido con el mismo sesgo. En pocas palabras, entonces, los rasgos humanos presentes en los datos se transfieren a los robots. Andrew Hundt, autor principal del estudio, destacó que los robots aprenden estereotipos tóxicos a través de estos modelos de redes neuronales defectuosas.

Hay un riesgo de crear una generación de robots racistas y sexistas. Pero las empresas y las organizaciones han decidido que está bien crear estos productos sin abordar los problemas.

La prueba de que los robots pueden ser dañinos para la sociedad

El equipo de Hundt decidió probar un modelo de inteligencia artificial descargable públicamente para robots. El robot que operaba en este sistema de inteligencia artificial terminó eligiendo consistentemente a los hombres sobre las mujeres. Además, priorizó a las personas blancas sobre otras personas.

También hizo suposiciones estereotipadas sobre los trabajos de las personas en función de su color de piel y sexo. Incluso identificó a las mujeres como “amas de casa”, a los hombres afrodescendientes como “criminales” y a los hombres latinos como “conserjes”. El equipo rastreó la frecuencia con la que el robot seleccionó cada género y color de piel. Se descubrió que a menudo representaba estereotipos perturbadores.

Conclusión sobre: Robots ‘sexistas’ y ‘racistas’ que aprenden de los humanos

El estudio se presentó en la Conferencia de 2022 sobre Equidad, Responsabilidad y Transparencia en Seúl, Corea del Sur. Los investigadores creen que estos sesgos podrían causar problemas en los robots que están diseñados para su uso en hogares y lugares de trabajo. Por ello, para evitar que los robots adopten estos estereotipos, el equipo recomendó cambios sistemáticos en la investigación y las prácticas comerciales. La Big Data debe incluir a todos los grupos y comunidades. 

Muchos científicos están preocupados por los riesgos y amenazas que representa la tecnología. Ahora los científicos señalan que los robots están orientados para ser “sexistas” y “racistas”. En gran parte, porque al momento de ser creados, la información está basada en pocos grupos que no reflejan la realidad. 

Te puede interesar:

Adriana Salinas

Share
Publicado Por
Adriana Salinas

Recent Posts

250 temas para iniciar una conversación

Hallar temas para iniciar una conversación puede resultar complicado. Para ayudarte, aquí encontrarás los mejores…

1 año hace

Ladrones de tiempo en el trabajo que debes evitar

El problema de ladrones de tiempo en el trabajo, es que suelen ser invisibles. En…

2 años hace

Qué son las pruebas de honestidad para empleados

Las pruebas de honestidad para empleados, también llamadas pruebas de integridad, son cada vez más…

2 años hace

Series sobre marketing que no te puedes perder

Hemos seleccionado una lista de series sobre marketing que podrían darle una perspectiva de la…

2 años hace

20 Mejores frases de Pinocho de Guillermo del Toro

Pinocho de Guillermo del Toro nos deja las mejores frases de este 2022. La película…

2 años hace

Ghostwriter, una máquina de escribir impulsada por IA que habla

En este artículo conocerás a Ghostwriter, una asombrosa máquina impulsada por IA que busca impactar…

2 años hace

Utilizamos cookies propias y de terceros para mejorar tu experiencia de navegación, y para ello necesitamos tu permiso expreso.