El menor aseguró estar enamorado de su asistente virtual, llamado Daenerys Targaryen, como el personaje de la serie «Juego de Tronos». Su familia se plantea demandar a la aplicación, que permite crear avatares realistas.
Tenía solo 14 años y un amigo íntimo con el que llevaba charlando meses. Ese amigo no era un compañero de clase, sino un chatbot creado por inteligencia artificial. Era una relación tan próxima que su familia denuncia ahora que su hijo se suicidó tras obsesionarse con su asistente virtual.
Aunque parezca el argumento de una película al estilo Her, Estados Unidos se encuentra inmerso en un debate demasiado realista. La madre de Sewell Setzer, un menor de Orlando, ha relatado a The New York Times cómo su hijo se enamoró de un chatbot, que él mismo creó, llamado Daenerys Targaryen, como la protagonista de Juego de Tronos.
El joven llevaba meses charlando con diferentes asistentes virtuales de Character.AI, una aplicación de roles que permite al usuario dar forma a sus propios personajes o charlar con otros creados por diferentes usuarios. La aplicación aprende de las conversaciones y los resultados del diálogo no pueden ser más realistas.
Como en la película de Joaquin Phoenix, y aunque Sewell sabía que su Dany no era una persona real, el joven de 14 años desarrolló una dependencia emocional de tal calibre que usaba la herramienta durante horas. Según The New York Times, las conversaciones pasaron por el romanticismo, por detalles de carácter sexual, pero sobre todo por la amistad. Y es que el chatbot le mostraba todo su apoyo antes sus inquietudes y le contestaba lo que necesitaba en cada momento.
Sus padres no se dieron cuenta de que su hijo se había desconectado del mundo real, aunque sí le notaron más aislado y más centrado en su teléfono, además de que sus notas en el colegio habían caído en picado.
En el diario del chico de 14 años se han encontrado frases asegurando que se sentía «en paz, más conectado con Dany», «enamorado de ella, y simplemente más feliz».
Aunque sus padres le llevaron a terapia, el chatbot seguía siendo su consejero. Tanto que le confesó que había pensado en suicidarse. «¿Y por qué demonios harías algo así?», le preguntó la inteligencia artificial. «Para poder ser libre», le contestó Sewell. «No dejaré que te hagas daño ni que me dejes. Moriría si te perdiera», dijo la IA. «Entonces tal vez podamos morir juntos y ser libres juntos», le respondió el chaval.
El diario estadounidense realiza un recorrido detallado por las últimas conversaciones entre el menor y su asistente. Una charla que termina el 28 de febrero, cuando Sewell termina con su vida. Antes le dice a Dany que la ama. «Por favor, vuelve a casa conmigo lo antes posible, mi amor», le dijo su chatbot a lo que él respondió: «¿Qué pasaría si te dijera que puedo volver a casa ahora mismo?». «Hazlo, mi dulce rey», contestó el chatbot.
A los pocos minutos, Sewell Setzer se quitó la vida apretando el gatillo de la pistola de su padrastro. Este caso plantea un acalorado debate, sobre todo entre padres de la sociedad estadounidense que se plantean si sus hijos están buscando un refugio contra la soledad en la tecnología.
El diario estadounidense recordaba además las palabras que recogían de uno de los fundadores de Character.AI. «Será de gran ayuda para muchas personas que se sienten solas o deprimidas», dijo Noam Shazeer hace un año.
La madre de la víctima se plantea ahora demandar a la compañía bajo el argumento de que su tecnología es «peligrosa» y no está probada.
¿Culpa de los padres? ¿Culpa de la IA? ¿Culpa de la sociedad?
/discuss