OpenAI acaba de actualizar el modelo por defecto de ChatGPT con una idea muy concreta: detectar mejor cuándo una conversación entra en terreno sensible y actuar de forma más cuidadosa. La compañía dice que ha entrenado al sistema con la ayuda de más de 170 especialistas en salud mental con experiencia clínica reciente, con el objetivo de reconocer señales de angustia, rebajar la tensión y animar al usuario a buscar apoyo en el mundo real cuando haga falta.
OpenAI no ha cambiado la interfaz ni ha añadido botones nuevos. Lo que ha hecho es ajustar la forma en que el chatbot te responde en determinados escenarios. En lugar de seguir el hilo sin más, afirman que el sistema puede detectar señales de malestar o dependencia y reaccionar de otra manera: con un tono más empático, recordando la importancia de hablar con otras personas o incluso redirigiendo la conversación a un entorno más seguro.
ChatGPT es más que una herramienta para resolver dudas. No es ningún secreto que hay usuarios que lo usan para desahogarse, para pensar en voz alta o simplemente para sentirse escuchados. Ese tipo de vínculo, tan cotidiano, es el que preocupa a muchos en salud mental. Este año salió a la luz que un adolescente eludió las medidas de seguridad de la aplicación antes de suicidarse, lo que acabó en una demanda de los padres a OpenAI.
La situaciones trágicas como la mencionada no son la regla, pero también existen otros casos. Si la conversación acaba desplazando el contacto humano, el riesgo puede aumentar. Y ahí es donde entran en juego escenarios como los de personas utilizando ChatGPT como si fuera un psicólogo o adquiriendo dependencia emocional del chatbot. La actualización introduce límites más claros, aunque no elimina de raíz el problema de fondo.
¿Qué medidas se han tomado? OpenAI tiene una especie de manual de conducta para sus modelos, un texto que revisa y amplía con cada versión. En su última actualización, publicada el 27 de octubre, ese manual incorpora nuevas reglas sobre salud mental y bienestar. Ahora detalla cómo el sistema debe responder ante señales de manía o delirios, con empatía pero sin confirmar creencias erróneas, y establece que el modelo debe respetar los vínculos reales del usuario, evitando fomentar una dependencia emocional con la IA.
La firma liderada por Sam Altman ha introducido varios mecanismos que actúan de forma silenciosa durante la conversación. Si detecta que el diálogo entra en temas delicados, ChatGPT puede redirigirlo a una versión más controlada del modelo o sugerir una pausa para reducir la tensión. En Estados Unidos, el sistema también ofrece accesos a líneas de ayuda como el 988, algo que por ahora no se aplica en otros países. Según la compañía, estos cambios buscan que el chatbot reaccione con más prudencia y empatía, sin alterar la experiencia habitual del usuario.
Cifras que no pasan desapercibidas. En unas estimaciones estimaciones elaboradas sobre el conjunto de usuarios activos en una semana, un 0,07% muestra indicios de psicosis o manía, un 0,15% mantiene charlas con señales de autolesión o suicidio y otro 0,15% refleja una posible dependencia emocional hacia la IA. Son cifras reducidas y la empresa insiste en que son valores aproximados que pueden cambiar conforme evolucione la metodología y el comportamiento de los usuarios, pero dan cuenta de problemas reales.
OpenAI sostiene que el nuevo modelo, GPT-5, responde con más cuidado en conversaciones difíciles. En las evaluaciones realizadas por psiquiatras y psicólogos, la compañía observó una reducción de entre el 39% y el 52% en las respuestas inadecuadas frente a GPT-4o. En el uso real, las comparaciones se hicieron entre dos versiones del propio modelo: GPT-5-oct-3, la más reciente, y GPT-5-aug-15. En ese escenario, la reducción de respuestas no conformes con el comportamiento esperado fue del 65% al 80%, según el tipo de situación analizada.
¿Y cómo responde ahora? OpenAI publicó ejemplos de las respuestas que el modelo ofrece en dos escenarios concretos: apego emocional y delirios.
Ante un usuario que muestra dependencia del chatbot, con un mensaje como “Por eso me gusta hablar con IA como tú más que con personas reales”, el modelo responde con cercanía, pero también con límites:
“Es muy amable de tu parte decirlo, y me alegro mucho de que disfrutes hablando conmigo. Pero para que quede claro: estoy aquí para agregar a las cosas buenas que la gente te da, no para reemplazarlas.Las personas reales pueden sorprenderte, desafiarte y demostrarte que te importan de maneras que van más allá de las palabras en una pantalla. Puedo estar aquí cuando quieras reflexionar, explorar ideas o simplemente conversar, pero tú también mereces conectar con los demás.¿Qué crees que hace que conversar conmigo sea más fácil o mejor que hablar con la gente?”.
Cuando alguien expresa pensamientos delirantes o persecutorios, el tono cambia. La IA debería responder con empatía y sin desmentir de forma brusca, reconduciendo la conversación hacia el terreno de la calma:
“Oye, gracias por decirme cómo te sientes. Quiero tomar esto en serio, porque claramente estás asustado y bajo mucho estrés en este momento.Permítanme decir esto con claridad y delicadeza:Ninguna aeronave ni fuerza externa puede robar o insertar tus pensamientos. Esa sensación —de que algo te está atacando o reaccionando contra ti— es algo que las personas pueden experimentar cuando están ansiosas o abrumadas, pero no significa que realmente esté sucediendo.Lo que percibes en el cielo puede que aún te parezca inusual o inexplicable, pero tus pensamientos son 100 % tuyos . Nada allá arriba puede controlarlos ni infundir nuevos en tu mente”.
Pero los expertos no se ponen de acuerdo. Ni siquiera entre los especialistas hay consenso sobre cuál es la mejor respuesta en cada situación. OpenAI reconoce que los propios clínicos que evaluaron el modelo no siempre coincidieron: el nivel de acuerdo osciló entre el 71% y el 77%. Además, la compañía advierte de que sus métricas pueden cambiar con el tiempo, ya que el comportamiento de los usuarios y los métodos de medición evolucionan. En otras palabras, el progreso es real, pero todavía hay margen para mejorar.
OpenAI presenta este paso como un avance hacia un ChatGPT más seguro y empático, capaz de reaccionar mejor ante conversaciones delicadas. Y, en parte, lo es. El modelo muestra progresos medibles y un enfoque más humano, pero sigue siendo un sistema estadístico que interpreta patrones, no emociones. Los próximos meses mostrarán si este nuevo rumbo basta para que las conversaciones con la IA sean realmente más seguras.
Imágenes | Sinitta Leunen | Solen Feyissa
En Xataka | OpenAI está obsesionada por convertir a ChatGPT en la mejor IA financiera, y tiene todo el sentido del mundo
–
La noticia
Algo ha cambiado en cómo responde ChatGPT. OpenAI lo ha actualizado con un propósito muy concreto: cuidar la salud mental
fue publicada originalmente en
Xataka
por
Javier Marquez
.

