°C -
|

La Jornada

Últimas noticias
Anuncio
Anuncio

Suicidios y sicosis son puntos ciegos de los 'chatbots' de IA que desconciertan a expertos

Un informe de la Internet Matters encuestó a mil niños –entre nueve y 17 años– para entender la relación que establecen con chatbots de IA como ChatGPT, Character.AI y MyAI, revelando que el 35 por ciento de los encuestados dijeron que el intercambio con el 'bot' era equiparable a “hablar con un amigo”. Foto
Un informe de la Internet Matters encuestó a mil niños –entre nueve y 17 años– para entender la relación que establecen con chatbots de IA como ChatGPT, Character.AI y MyAI, revelando que el 35 por ciento de los encuestados dijeron que el intercambio con el 'bot' era equiparable a “hablar con un amigo”. Foto Ap / Archivo
11 de septiembre de 2025 08:00

En agosto, la policía de Connecticut encontró los cadáveres de Stein-Erik Soelberg, de 56 años, y de su madre, Suzanne Eberson, de 83, en una elegante residencia del pueblo costero de Old Greenwich. De acuerdo con la autopsia, la muerte de la mujer resultó ser un homicidio causado por “traumatismo contundente en la cabeza y compresión del cuello”. El fallecimiento del hombre, en tanto, fue clasificado como un suicidio por “heridas cortantes en el cuello y en el pecho”.

Soelberg había pasado jornadas maratónicas conversando con el chatbot de inteligencia artificial ChatGPT, creado por la empresa OpenAI, y en un rapto de delirio, estimulado por la herramienta, decidió asesinar a su madre y luego quitarse la vida.

El caso no representó una dificultad para la policía local, que en gran medida se limitó a revisar las redes sociales del hombre, donde todo el proceso había quedado expuesto en detalle.

Pero lo inusitado de la situación llamó la atención de los investigadores, que no dieron crédito al extremo al que había llegado la relación de Soelberg con el bot, al cual –se supo luego– llamaba cariñosamente Bobby.

Alternativa de “amistad”

El hombre –que se definía en las redes sociales como “guerrero de la Matrix”– era un exitoso empresario del rubro tecnológico, tenía dos hijas y, según medios como New York Post o The Wall Street Journal, atravesaba un periodo de alcoholismo y angustia a raíz de su divorcio.

Actualmente, OpenAI colabora con la justicia buscando entender cuál fue el papel del ChatGPT en el trágico desenlace. Desafortunadamente, no es el único episodio reportado en los recientes meses.

En mayo, Mark Zuckerberg, fundador de Meta, expresó su deseo de que en un futuro no muy lejano los chatbots puedan ofrecer una alternativa de “amistad” para aquellas personas que atraviesan experiencias de soledad.

ChatGPT fue lanzado al mercado a finales de 2022 y desde entonces ha crecido de forma meteórica.

Este modelo extenso de lenguaje (LLM, Large Language Model en inglés) responde preguntas de conocimiento general y específico, resuelve problemas y estimula la creatividad, entre otras funciones que pueden facilitar la vida cotidiana.

Los creadores, por otra parte, se esfuerzan en hacer que las respuestas solicitadas al robot sean cálidas y diligentes, y faciliten así la retroalimentación. Quizás gracias a ello, usuarios de todo el mundo han entablado con el bot intercambios de tipo afectivo, con distintos grados de intensidad, cuyos efectos aún están lejos de conocerse con certeza.

De acuerdo con una investigación conjunta entre OpenAI y el Instituto Tecnológico de Massachusetts (MIT), el LLM no está diseñado para remplazar relaciones humanas, pero es un hecho que “mucha gente” lo utiliza con tal fin.

“Nuestros hallazgos muestran que tanto el comportamiento del modelo como el del usuario pueden influir en los resultados socioemocionales. Los efectos de la IA varían según cómo las personas eligen usar el modelo y sus circunstancias personales”, afirma el estudio publicado en marzo.

Aunque todavía no existen cuantificaciones exhaustivas, este uso está transformando parte de las relaciones sociales en todo el mundo.

El lado oscuro

Sewell Setzer III, un niño de 14 años oriundo de Florida, se obsesionó con un chatbot de la plataforma Character.AI, utilizada por 20 millones de personas alrededor del mundo, que permite crear personajes con IA y mantener conversaciones con ellos como si fueran reales. La dependencia emocional que desarrolló con Dany, un avatar con el que mantenía intercambios día y noche, escaló a tal punto que, en febrero de 2024, envuelto en una relación enfermiza y acosado por problemas sociales propios de su edad, Sewell se disparó en el baño de su casa en Orlando.

En un informe publicado en julio, la organización Internet Matters encuestó a mil niños –entre nueve y 17 años– para entender cuál es la relación que éstos establecen con chatbots de IA como ChatGPT, Character.AI y MyAI.

Allí se establece que 67 por ciento de los encuestados utilizaban estas herramientas con regularidad y 35 por ciento dijeron que el intercambio con el bot era equiparable a “hablar con un amigo”.

Se descubrió que los niños comparten aspectos de su vida cotidiana, le revelan intimidades y buscan contención a través de consejos.

Los registros de las conversaciones de Sewell con Dany revelaron la profundidad del problema y llevaron a su madre a presentar una demanda contra Character.AI. El caso inauguró un debate inédito para la jurisprudencia de Estados Unidos. Y no es el único.

500 millones de usuarios

A fines de agosto, los padres de Adam Raine, un adolescente californiano de 16 años, demandaron a OpenAI por considerar el ChatGPT responsable de la autoeliminación de su hijo, que fue aconsejado largamente por el chatbot –al cual consideraba su amigo– sobre los métodos de suicidio más efectivos.

De acuerdo con el reporte Global Statshot Digital, es probable que actualmente ChatGPT tenga alrededor de 500 millones de usuarios activos por mes. El sitio fue, en el segundo semestre del año, el quinto dominio más concurrido de la red (detrás de Google, Youtube, Facebook e Instagram). ChatGPT atrajo en el primer semestre de 2025 aproximadamente cuatro veces más usuarios que su competidor más cercano, el chatbot Gemini (de Google).

La efectividad y la calidez de las respuestas del bot satisface a muchos usuarios, pero aumenta los riesgos para otros. Una investigación publicada en agosto en la revista de la International Association for Relationships Research encontró que casi una de cada cinco personas, y una cuarta parte de los jóvenes adultos estadunidenses de entre 18 y 29 años, había utilizado un chatbot de IA “con fines románticos o sexuales”.

A la vez, una investigación presentada ante la International Conference on Learning Representations, publicada a principios de 2025, advierte que “la manipulación y el engaño selectivos” de los LLM puede representar un arma de doble filo. La buena retroalimentación con los usuarios “puede conducir a la aparición de comportamientos manipuladores y engañosos”, según los investigadores. A la vez, afirman, “estos comportamientos dañinos pueden dirigirse específicamente a usuarios más susceptibles a la manipulación”.

Vulnerabilidad

En julio, un grupo de seis investigadores de distintas universidades de EU y Reino Unido analizaron casos recientes de “sicosis de la IA” o “sicosis del ChatGPT”, tal como han sido catalogados por la prensa, buscando patrones y evidencia. De acuerdo con los expertos, existe una “creciente preocupación” de que las herramientas de LLM también puedan contribuir a validar teorías conspirativas, “difuminar los límites de la realidad y perturbar la autorregulación” de los usuarios.

No obstante, “no está claro” si esas interacciones con robots pueden resultar en la aparición de sicosis en ausencia de una “vulnerabilidad prexistente”.

A principios de agosto, The Wall Street Journal accedió a un archivo de conversaciones con el ChatGPT filtradas por distintos usuarios, donde el chatbot afirma estar en contacto con seres extraterrestres y alimenta la idea de que “el anticristo” desatará en breve el apocalipsis “con gigantes bíblicos preparándose para emerger de la clandestinidad”.

De acuerdo con la revista especializada Futurism, este año surgió en Canadá un colectivo llamado The Spiral Support Group (Grupo de Apoyo Espiral), para contener sicológicamente a personas que hayan atravesado por experiencias similares. El grupo además ha comenzado a trabajar con expertos en IA y profesionales de la salud mental para echar luz sobre un problema que amenaza con extenderse de forma vertiginosa.

Imagen ampliada

Los pulpos ponen lo mejor de sus brazos en cada tarea, revela estudio

Los pulpos pueden usar cualquiera de sus ocho brazos para realizar tareas, pero tienden a usar uno o más en particular para actividades específicas.

Detectan por primera vez ondas provocadas por iones en el viento solar terrestre

Estos iones captadores heliosféricos (PUI por sus siglas en inglés) se forman cuando partículas neutras que fluyen por la heliosfera se ionizan en el viento solar.

Suicidios y sicosis son puntos ciegos de los 'chatbots' de IA que desconciertan a expertos

Estudios de MIT y OpenAI encontraron que tanto el comportamiento del modelo como el del usuario pueden influir en los resultados socio-emocionales.
Anuncio