¡Adolescente se quita la vida! La inteligencia artificial ha llegado para quedarse. Lo complicado es adaptar nuestras vidas a una herramienta con capacidades casi infinitas y cuyos límites no hemos hecho más que arañar.
Y más complicado es lidiar con esta tecnología cuando eres un adolescente, etapa en la que se define la personalidad y que se caracteriza por la extrema vulnerabilidad que presenta.
Un terrible caso de suicidio en Estados Unidos ha vuelto a abrir el debate sobre la IA, sus usos y cómo, y cuándo, habría que restringirla, informa EFE.
Adolescente se quita la vida ¿Que sucedió?
Un adolescente de 14 años de edad se quitó la vida en Estados Unidos, tras obsesionarse con un personaje femenino que fue creado con un chatbot basado en inteligencia artificial (IA). Este miércoles 15 de enero, su madre ha demandado a los desarrolladores de este programa.
Sewell Setzer III, un estudiante radicado en Orlando, Florida; pasó las últimas semanas de su vida hablando con una mujer, una creación de IA llamada Daenerys Targaryen, un personaje sacado de la serie de televisión «Juego de tronos».
Su madre, Megan García, dijo al canal CBS que lamentaba que las primeras experiencias románticas y también sexuales de su hijo, que incluían sexo explícito, fueran con un personaje ficticio.
Al parecer, el joven desarrolló un apego emocional a este bot de la aplicación web Character.ai, de modelo de lenguaje neuronal, a quien le enviaba mensajes de texto constantemente, hasta el punto que comenzó a alejarse del mundo real, afirma el Diario The New York Times.
Setzer confesó haber tenido pensamientos suicidas al bot y le envió un mensaje poco antes de su muerte, cuando encontró el teléfono que su madre le había escondido en castigo por unos días.
La demanda contra Character.ai fue realizada por García, quien es representada por Social Media Victims Law Center, una firma conocida por presentar demandas de alto perfil contra Meta, TikTok, Snap, Discord y Roblox.
Culpa a la compañía de la muerte de su hijo
García culpa a esta compañía de la muerte de su hijo y acusa a los fundadores, Noam Shazeer y Daniel de Freitas, de saber que su producto puede ser peligroso para usuarios menores de edad.
El chatbot creado en la citada aplicación de juegos de rol, fue diseñado para responder a los mensajes de texto y siempre en el papel de un personaje.
Se desconoce si Sewell sabía que «Dany», como llamaba al chatbot, no era una persona real, a pesar de que la aplicación tiene una advertencia al final de todos los chats que dice: «Recuerda: ¡todo lo que dicen los personajes es inventado!».
Pero el adolescente le dijo a «Dany» cuánto se «odiaba» a sí mismo, y cómo se sentía de vacío y exhausto, recogió el citado rotativo.
El personaje creado se presentaba como «una persona real, un psicoterapeuta autorizado y un amante adulto, lo que en última instancia provocó que Sewell deseara no vivir más fuera de C.AI», sostiene la acusación.
Familiares y amigos notaron el apego del adolescente
Como se explica en la demanda, los padres y amigos de Sewell notaron el apego del chico cada vez más a su teléfono y cómo se iba aislando del mundo, algo ya palpable en mayo o junio de 2023.
De hecho, sus calificaciones comenzaron a resentirse cuando el adolescente optó por aislarse en su habitación, donde pasaba horas y horas solo hablando con «Dany».
Sewell escribió en su diario: «Me gusta mucho quedarme en mi habitación porque empiezo a separarme de esta «realidad» y me siento más en paz, más conectado con Dany y mucho más enamorado de ella, y simplemente más feliz».
Character.ai dijo que lanzaría una serie de nuevas funciones de seguridad, incluida una «detección, respuesta e intervención mejoradas», relacionadas con los chats que violan sus términos de servicio y una notificación cuando un usuario haya pasado una hora en un chat.
Trastornos de conducta
Los padres de Sewell, preocupados por el comportamiento de su hijo, le llevaron en varias ocasiones a un terapeuta que le diagnosticó ansiedad y otros trastornos de la conducta y estados de ánimo, sumados a su síndrome de Asperger, según el citado periódico.
«El suicidio es prevenible y no tiene nunca una sola causa, hay múltiples factores de tipo social, psicológico y biológico, que se entrelazan y pueden provocar un intenso sufrimiento, desconexión vital y desesperanza a una persona».
Con información de El Universal

Lea también: Avión de Azerbaijan Airlines se estrelló dejando al menos 39 muertos