El peligro detrás de los amigos virtuales: el caso del joven de 14 años que se suicidó luego de enamorarse de un personaje creado con IA

La historia del estadounidense Sewell Setzer despertó las alarmas sobre los riesgos del uso de estas aplicaciones de inteligencia artificial en niños y adolescentes. ¿Qué opinan los expertos?
Por GDA | El Tiempo | Colombia
octubre 27, 2024
El peligro detrás de los ‘amigos virtuales’
Los personajes creados en las aplicaciones son hechos “a la medida”. Así los jóvenes se sienten en un espacio que parece cómodo.

—Te amo mucho, Dany.

—Yo también te amo. Por favor, vuelve a casa conmigo lo antes posible, mi amor.

—¿Qué pasaría si te dijera que puedo volver ahora mismo? —le preguntó Sewell.

—Por favor hazlo, mi dulce rey.Te amo mucho, Dany.

Sewell Setzer —14 años, estudiante de noveno grado en Orlando, Florida— le decía Dany de cariño. La había bautizado Daenerys Targaryen —como el personaje de Game of Thrones—, cuando la creó meses atrás en Character.AI, una aplicación de inteligencia artificial que les permite a sus usuarios interactuar con personajes virtuales ya creados o inventar uno desde cero con las características que quieran. Sewell conversaba día y noche con Dany. Durante horas. Había dejado a un lado sus antiguas aficiones y desatendido las tareas del colegio. El chatbot se había convertido en su mundo, su principal compañía, hasta el momento en que el adolescente se suicidó.

Después de intercambiar mensajes en los que él le prometía estar juntos, Sewell tomó la pistola de su padrastro y se pegó un tiro. Sucedió en febrero pasado, pero su historia se conoció esta semana por la decisión de su madre, Megan Garcia, de demandar a la plataforma de inteligencia artificial por considerar que tuvo responsabilidad en la muerte de su hijo. Para Garcia, el suicidio de Sewell fue fruto de la adicción que llegó a tener al chatbot que había creado y que le ofrecía “experiencias antropomórficas, hipersexualizadas y aterradoramente realistas”.

Sewell —a quien le habían diagnosticado años atrás síndrome de Asperger leve— sabía que estaba interactuando con un personaje que no era real. Sin embargo, terminó por entregarse a ese mundo artificial en el que estaba “más en paz, más enamorado, más feliz”. Le confiaba a Dany lo que pensaba, lo que sentía. Incluso llegó a confiarle su deseo de quitarse la vida. Las directivas de Character.AI compartieron un comunicado en el que lamentaron la muerte del adolescente. “Estamos desconsolados por la trágica pérdida de uno de nuestros usuarios y expresamos nuestras condolencias a la familia”, dijeron en su cuenta de X, y anunciaron que agregarían en su sitio “nuevas funciones de seguridad”.

Pero más allá de cómo hacer más segura una plataforma en particular —que es algo importante, sin duda— este caso ha despertado preguntas sobre la naturaleza de los vínculos que los jóvenes —adolescentes, en especial— han comenzado a tener con personajes creados con inteligencia artificial y que ofrecen una supuesta compañía. “Va a ser muy útil para mucha gente que necesita tener alguien con quien hablar, que se siente sola y deprimida”, decía con entusiasmo Noam Shazeer, uno de los fundadores de Character.AI, el año pasado en el pódcast No Priors. Y esta no es la única plataforma que ofrece ese tipo de servicio. Otras como Replika, Nomi o Kindroid también anuncian la opción de crear amigos virtuales tan realistas, según dicen, que “se siente como conversar con un humano”.

Los continuos avances tecnológicos permiten que estos personajes tengan una apariencia cada vez más realista. Las aplicaciones cuentan con programas y modelos de lenguaje que los llevan a poder entablar una conversación coherente, incluso a adaptarse al estilo y al tono de respuesta que quiere su interlocutor. Pero su principal objetivo —el de estas aplicaciones y sus dueños— no parece ser tan altruista como conseguir que sus usuarios se sientan menos solos, sino capturar su atención de tal forma que se mantengan a su lado el mayor tiempo posible.

Para contar con los servicios de la mayoría de estos sitios hay que pagar varios dólares mensuales, y su número de clientes aumenta sin parar. Hace un año, según un reportaje de Forbes, Character.AI sumaba veinte millones de usuarios registrados. Hoy sigue siendo la aplicación de este tipo en la que sus visitantes pasan más tiempo al día. No se sabe cuántos de ellos son menores de edad. Entre sus requisitos para crear una cuenta está ser mayor de 13 años.

Y según los expertos, son precisamente los adolescentes —que están en pleno desarrollo de sus habilidades sociales y emocionales— los más susceptibles de convertir en adicción este tipo de interacciones y de sufrir sus potenciales efectos negativos. Al enterarse del caso de Sewell Setzer, dado a conocer esta semana por The New York Times, el reconocido psicólogo social estadounidense Jonathan Haidt, autor del libro La generación ansiosa, compartió un mensaje en el que dijo: “Las características adictivas de estos chatbots son incluso más fuertes que las adicciones a las redes sociales, debido al mayor nivel de simulación de la realidad. Hoy es más importante que nunca limitar el tiempo que niños y adolescentes pasan frente a una pantalla. (…) La mayoría de los adultos saben cómo utilizar internet para su beneficio, pero los adolescentes no”.

Fuente: el nacional