Algunos casos trágicos en los que ha estado involucrada la IA, así como la preocupación del público por un creciente uso de estos sistemas para terapia han puesto presión sobre las empresas desarrolladoras.
El lunes OpenAI publicó un mensaje en el que explica su estrategia para afrontar los problemas de salud mental que podrían agravarse con el uso de ChatGPT. La compañía asegura que ha trabajado con más de 170 expertos en el campo con la intención de que su IA pueda responder de mejora manera ante las señales de cualquier tipo de problema. Y llevar a los usuarios a buscar ayuda en el mundo real.
En la publicación OpenAI destaca tres áreas de acción: salud mental, psicosis y manías; suicidio y daño auto infringido; y dependencia emocional ante la IA. Los desarrolladores ya habían trabajado sobre el segundo campo, los otros suponen una expansión.
Psicosis y manías
Según los desarrolladores, se han realizado cambios en el comportamiento de la IA para que responda mejor en charlas que ofrecen temas riesgosos. De esta manera se ha logrado reducir las respuestas no deseadas en un 65%. Sin embargo, este tipo de conversaciones siguen siendo difíciles de detectar.
OpenAi estima que durante una semana el 0,07% de los usuarios y el 0,01% de los mensajes ofrecen signos de problemas de psicosis o manía.
GPT-5 sigue los lineamientos deseados para las interacciones relacionadas con problemas de salud mental en un 92% de los casos. Una versión previa del mismo modelo llegaba apenas al 27%.
Daño y suicidio
De una manera similar a lo ocurrido con la psicosis y manía, se ha producido una reducción del 65% en el nivel de respuestas no deseadas.
Se estima que durante una semana el 0,15% de los usuarios y el 0,05% de los mensajes muestran signos de planes para suicidio.
La última versión de GPT-5 ofrece un comportamiento adecuado en el 91% de los casos, lo que supone un avance respecto al 77% de una versión anterior.
Un aspecto que ha recibido especial cuidado ha sido el comportamiento de la IA en conversaciones extensas. Los desarrolladores consideran que el nivel de confianza del modelo en estos casos llega al 95%.
Dependencia emocional
En este caso se estima que la reducción del comportamiento no deseado ha sido del 80%.
En una semana un 0,15% de los usuarios y un 0,03% de los mensajes muestran niveles elevados de apego a ChatGPT.
La nueva versión de GPT-5 responde adecuadamente en un 97% de las conversaciones, superando el 50% de la versión previa.





