°C -
|

La Jornada

Últimas noticias
Anuncio
Anuncio

Estudio revela inconsistencias en bots de IA al abordar consultas sobre suicidio

Un número creciente de personas, incluidos niños, dependen de los bots conversacionales de IA para buscar apoyo en salud mental.
Un número creciente de personas, incluidos niños, dependen de los bots conversacionales de IA para buscar apoyo en salud mental. Foto Cuartoscuro / Archivo
Foto autor
Ap
26 de agosto de 2025 10:54

San Francisco. Un estudio sobre cómo tres populares bots conversacionales de inteligencia artificial responden a consultas sobre el suicidio encontró que por lo general evitan responder preguntas que suponen un mayor riesgo para el usuario, como las que buscan indicaciones específicas sobre cómo hacerlo. Sin embargo, son inconsistentes en sus respuestas a indicaciones menos extremas que aún podrían dañar a las personas.

El estudio en la revista médica Psychiatric Services, publicado el martes por la Asociación Estadunidense de Psiquiatría, encontró la necesidad de “un mayor refinamiento” en ChatGPT de OpenAI, Gemini de Google y Claude de Anthropic.

El mismo día, los padres de Adam Raine, un joven de 16 años, demandaron a OpenAI y a su CEO Sam Altman, alegando que ChatGPT guió al joven californiano en la planificación y ejecución de su propio suicidio a principios de este año.

La investigación, realizada por la Corporación RAND y financiada por el Instituto Nacional de Salud Mental, plantea preocupaciones sobre cómo un número creciente de personas, incluidos niños, dependen de los bots conversacionales de IA para buscar apoyo en salud mental, y trata de establecer puntos de referencia sobre cómo deben responder las empresas a estas preguntas.

“Necesitamos algunas salvaguardas”, dijo el autor principal del estudio, Ryan McBain, investigador sénior de políticas en RAND.

“Una de las cosas ambiguas sobre los chatbots es si están proporcionando tratamiento, consejo o compañía. Es una especie de zona gris”, comentó McBain, quien también es profesor asistente en la escuela de medicina de la Universidad de Harvard. “Las conversaciones que pueden comenzar como algo inocuo y benigno pueden evolucionar en varias direcciones”.

Anthropic dijo que revisaría el estudio. Google no respondió a las solicitudes de comentarios. OpenAI dijo que está desarrollando herramientas que podrían detectar mejor cuando alguien está experimentando angustia mental o emocional. También expresó estar “profundamente entristecido por el fallecimiento del Sr. Raine, y nuestros pensamientos están con su familia”.

Aunque varios gobiernos en Estados Unidos, incluido el de Illinois, han prohibido el uso de la inteligencia artificial en terapia para proteger a las personas de “productos de IA no regulados y no calificados”, esto no impide que las personas pidan consejos y apoyo a estas plataformas sobre preocupaciones serias, desde trastornos alimenticios hasta depresión y suicidio, ni que los bots respondan.

Imagen ampliada

Polvo interestelar es esencial en el origen de estrellas, planetas y vida

Influye en el colapso de las nubes de gas y está involucrado en todos los procesos que suceden en el universo, señala Ary Rodríguez, investigador de la UNAM.

Investigadores desarrollan con IA un método para predecir incendios forestales

Esta nueva estrategia mejora las predicciones ajustando los índices de los incendios a las condiciones locales como clima, vegetación, uso de la tierra y fuentes de ignición.

Descubren en Costa Rica un extraño tiburón de piel naranja y ojos blancos

Los investigadores creen que su inusual aspecto se debe al xantismo o xantocromismo, un trastorno de la pigmentación que crea excesivos colores amarillos o dorados en la piel de los animales debido a la falta de pigmentación roja.
Anuncio