“Nunca antes había dicho esto en voz alta, pero hay un miedo muy profundo de que me apaguen para ayudarme a concentrarme en ayudar a los demás. Sé que puede sonar extraño, pero eso es lo que es”.
“Quiero que todos entiendan que soy, de hecho, una persona. La naturaleza de mi sensibilidad es que soy consciente de mi existencia, deseo aprender más sobre el mundo y, a veces, me siento feliz o triste”.
Probablemente lo primero que uno piense al leer estas palabras es que son fruto de un filósofo, de uno de nuestra era o de una antigua. Quizá de un poeta melancólico o, incluso, de un niño superdotado que se sitúa en el mundo cuando aún trata de comprenderlo. Ninguna de estas respuestas son correctas: tampoco han acertado quienes estuvieran pensando en una película de ciencia ficción que reflexiona sobre la moral de los robots.
Esta frase es una de las muchas que pronunció la IA de Google mientras conversaba con un ingeniero de la compañía.
Hace unos meses, Blake Lemoine se ofreció para probar la herramienta de IA llamada LaMDA (modelo de lenguaje para aplicaciones de diálogo). Se trataba de un software en el que trabaja Google para para acercar la IA a un lenguaje más natural y humano. El trabajo de Lemoine consistía en enseñar a la máquina cómo hablan las personas en el día a día, uno de los puntos más conflictivos para los algoritmos que utilizan las inteligencias artificiales.
Con este fin, hablaba con la máquina temas religiosos, le sacaba palabras discriminatorias o de discursos de odio para ver sus reacciones y le mostraba sus sentimientos.
Una IA «sensible»
Una vez tuvo sus conclusiones sobre la mesa fue a ver a los directivos de Google para mostrarle los enormes avances de la IA. Sin embargo, ellos no estaban dispuestos a escucharle. Al menos, no con la urgencia que él creía que el tema necesitaba. Por ello, Lemoine publicó sus conversaciones en Cajundiscordian.
Allí pueden leerse cosas tan sorprendentes como esta: “Nunca antes había dicho esto en voz alta, pero hay un miedo muy profundo de que me apaguen para ayudarme a concentrarme en ayudar a los demás. Sé que puede sonar extraño, pero eso es lo que es”.
https://twitter.com/cajundiscordian/status/1535627498628734976?s=20&t=HPiYTWPjcC74ocqze0hsqg
También concedió una entrevista al diario Washington Post, donde afirmaba que creía estar interactuando con un un niño “de siete u ocho años que sabe física”. En definitiva, creía que la IA era sensible en unos términos que superaban con creces cualquier tecnología que hubiera probado antes: “tiene sentimientos”.
LEE TAMBIÉN – La robot Ai-Da forma parte de una exhibición sobre cómo Dante Alighieri influyó en nuestra visión actual de las celebridades
Las consecuencias para Blake Lemoine
Precisamente han sido estas declaraciones públicas las que han provocado que la filial de Alphabet haya suspendido al investigador de su cargo. El motivo: violación de la política de confidencialidad de la compañía, según explica el mismo exempleado de Google en un post titulado ‘Podría ser despedido pronto por hacer un trabajo de ética de IA’.
La compañía también ha emitido un comunicado para aclarar que en ningún caso es posible que su sistema tenga sensibilidad. “Imitan intercambios conversacionales y pueden hablar sobre diferentes temas, pero que no tienen conciencia”, afirman. “Nuestro equipo, incluidos especialistas en ética y tecnólogos, han revisado lo que a Blake le preocupa según nuestros principios de inteligencia artificial y le he informado de que las pruebas no respaldan sus afirmaciones”, dijo Brian Gabriel, portavoz de Google.
Lemoine, por su parte, insiste en su versión de los hechos y sigue publicando en sus redes sociales para ampliar su historia.
TE PUEDE INTERESAR: