Robot escribió artículo sobre sí mismo y se abre caja de Pandora

Un robot de IA escribió un artículo sobre sí mismo y expertos temen que hayan abierto la caja de Pandora

Un robot de IA escribió un artículo sobre sí mismo y expertos temen que hayan abierto la Caja de Pandora. Las preocupaciones sobre la ética y la inteligencia artificial crecen entre los expertos.

La caja de Pandora de un robot

A principios de este año, un investigador sueco encargó a un algoritmo de inteligencia artificial denominado GPT-3 que escribiera una tesis de 500 palabras sobre sí mismo. La investigadora, Almira Osmanovic, admitió que estaba asombrada cuando el programa creó contenido. Ya que, escribió contenido novedoso, escrito en lenguaje académico, con referencias bien citadas en relación con el contexto correcto. 

Sin embargo, esta tarea presentó muchas preguntas éticas y legales para los científicos. Él señala que los argumentos filosóficos sobre la autoría no humana también comenzaron a plagar sus pensamientos. Thunström esperamos no haber abierto una caja de Pandora. 

El consentimiento de un robot, una caja de Pandora

Antes de que los artículos científicos puedan ser revisados por pares, los autores deben dar su consentimiento para la publicación. Cuando Thunström llegó a esta etapa, admitió que entró en pánico por un segundo. Ya que, no tenía intención de violar su propia ética. Así que continuó con el proceso con el robot, lo que según sus palabras abrió la caja de Pandora. 

Le preguntó directamente al programa si aceptaba ser el primer autor de un artículo junto con ella y su colega Steinn Steingrimsson. Y el bot respondió “Sí”, Thunström dijo que se sintió aliviada. Los investigadores también preguntaron a la Inteligencia Artificial si tenía algún conflicto de intereses, a lo que el algoritmo respondió “no”. 

El consentimiento de un robot, una caja de Pandora

¿Los robots sienten?

Si los robots pueden ser sensibles o no, abre una caja de Pandora, también está atrayendo recientemente mucha atención en los medios de comunicación. Este ganó notoriedad cuando el empleado de Google, Blake Lemoine, afirmara que el gigante tecnológico había creado un niño sensible que “podía escapar”. Lemoine fue suspendido poco después de hacer tales afirmaciones. De hecho, Google citó una violación de la confidencialidad de los datos como la razón.

Antes de ser suspendido, Lemoine envió sus hallazgos en un correo electrónico a 200 personas y lo tituló “LaMDA es sensible”. Según el ingeniero, el bot le pidió ayuda legal durante su conversación. También, escribió que el bot era como un niño dulce que solo quería ayudar al mundo a ser un lugar mejor para todos. Por lo que, pidió que lo cuiden bien en su ausencia. Sin embargo, sus afirmaciones se desestimaron por los altos mandos de Google, que destacaron que el bot no tenía sentimientos. 

Un robot que es consciente

El robot fue capaz de crear un artículo sobre sí mismo, esto puede significar que es consciente de que existe. Y como tal, podría tener una opinión sobre su propio rol y de los que lo rodean. Además, se podría pensar en una futura coexistencia con robots, pero ya no como simples herramientas, al tener estos consciencia, se configuraría otro tipo de relación. En definitiva, toda una caja de Pandora se abre al hablar de la consciencia o “vida” de un robot. 

También, hay expertos que mencionan que los robots solo copian las conductas humanas, gracias al aprendizaje automático y a las bases de datos. Los científicos a cargo de este experimento mencionan que saben que el robot no es completamente sensible. Pero, lo trataban como tal.

Te puede interesar:

1 Star2 Stars3 Stars4 Stars5 Stars (Ninguna valoración todavía)
Cargando...

También te puede interesar