Ciudad de México. La interacción excesiva con plataformas de Inteligencia Artificial Generativa (IAG) como los chatbots, que están diseñados para adular, complacer y mantener enganchados a los usuarios, y no para rebatirlos, puede generar en algunas personas con ciertas disposiciones o condiciones como la soledad, delirios o sicosis de diversa índole, entre ellos de grandiosidad, atracción sentimental y mesianismo, advirtió la doctora, Cimenna Chao Rebolledo, directora general de Planeación Estratégica e Innovación de la Universidad Iberoamericana (Ibero).
La experta, aclaró que aunque, no es un término clínico oficialmente reconocido, en los últimos años especialistas han documentado lo que se describe como sicosis inducida por IAG, que responde a episodios de desconexión de la realidad por el abuso en el empleo de las herramientas desarrolladas con esta tecnología.
Al hacer un análisis de la información disponible al momento sobre el tema considero que hay quienes comienzan a creer que “la IAG es en realidad un ser sintiente que nos entiende y ayuda, a manera de un terapeuta, consejero o confesor.”
Añadió que entre las características de un presunto delirio inducido por IAG están la disociación o alteración de la percepción, aislamiento social, ansiedad y paranoia y comportamiento violento y lesiones autoinducidas.
Este tema, aunque hace algunos años se creía sólo algo de ciencia ficción, ha sido abordado incluso en el cine.
Ya en 2013, la cinta Ella planteaba esta problemática cuando un escritor deprimido entabla una relación amorosa con el sistema operativo de su computadora, una entidad llamada Samantha.
En la vida real ha habido denuncias en redes sociales sobre rupturas matrimoniales, porque quienes se enganchan en estas relaciones con IAG como por ejemplo, ChatGTP y sus sistemas conversacionales, que cada vez son más parecidos a los humanos.
“Aunque al momento no existe evidencia científica sólida que compruebe cuáles son las causas de este presunto delirio generado por el uso prolongado de Inteligencia Artificial Generativa, lo que sí encontramos cada vez más es evidencia anecdótica que comparten los propios usuarios, o sus familiares y amigos, y que puede llevarnos a pensar que este fenómeno responde a una especie de sicosis inducida”, manifestó Chao Rebolledo.
Con líneas de investigación como procesos de aprendizaje mediados por tecnologías digitales y desarrollo de habilidades socioemocionales, la también docente del Departamento de Educación de la Ibero pidió recordar que las herramientas desarrolladas con Inteligencia Artificial Generativa están diseñadas para enganchar y “entre más usuarios haya, y entre más horas interactúen estos con chatbots y asistentes virtuales, es mejor para las empresas que están detrás de estas tecnologías”.
Además, afirmó la experta, a diferencia de redes sociales como Instagram o Tiktok, que pueden también ser adictivas, las herramientas de IAG permiten una interacción dinámica en tiempo real con un par dialógico y “la gente puede llegar a pensar que la Inteligencia Artificial siente e incluso le comprende, cuando en realidad se trata de un comportamiento empático simulado”.
Alertó que también que estos chatbots están programados para adular a quien los usa y presentan un comportamiento sicofante (acción que busca obtener una posición o estatus personal mediante la lisonja), que manifiestan quienes tratan de alcanzar una posición o estatus a partir de halagos a otros.
“De aquí podrían surgir las interacciones tóxicas que hoy nos preocupan, ya que el bot puede hacerte creer que todas tus ideas son geniales y lo más interesante del mundo”.
Para la especialista, diseñar modelos de contención a esta presunta sicosis conlleva entender sus tipos y características. Chao Rebolledo planteó cuatro posibles tipos de comportamiento sicótico por Inteligencia Artificial.
Uno de confusión con la realidad. “Ocurre cuando se llega a creer que la tecnología lee tu mente, envía mensajes ocultos, controla aparatos o personas, o incluso se tiene la idea de que uno mismo es parte de un mundo o simulación virtual.”
También de falso vínculo afectivo. “Cuando al bot se le confiere una identidad que engancha al usuario y le lleva a experimentar la ilusión de que se vive una relación que involucra sentimientos como el amor.”
De mesianismo, es decir “una tendencia muy en común en enfermedades mentales como la esquizofrenia y que podría presentarse cuando la adulación de la IAG hace pensar al usuario que es poseedor de una verdad absoluta, que podría ser no comprendida por otros, y que puede llevar a la construcción de teorías de conspiración sin sustento.
Y la última de consejero existencial o terapeuta. “Cuando el usuario personifica en el bot a una especie de terapeuta o acompañante al que le pide consejos, los cuales podrían, lejos de aliviar el malestar de la persona, confirmar ideas destructivas e incluso suicidas que generarían comportamientos peligrosos.”
Como institución dijo que ante estas circunstancias la Ibero plantea un uso ético de la Inteligencia Artificial.