OpenAI mejora la detección de signos de crisis mental en usuarios de ChatGPT con avances en GPT-5

TecnologíaOpenAI

OpenAI mejora la detección de signos de crisis mental en usuarios de ChatGPT con avances en GPT-5

OpenAI avanza en la detección de signos de crisis mental en usuarios, mejorando la seguridad y colaboración con expertos en salud con GPT-5.

Descripción

La inteligencia artificial (IA) continúa transformando nuestras vidas, tanto para bien como presentando nuevos riesgos. OpenAI, una de las compañías líderes en este campo, ha anunciado avances significativos en la seguridad y en la detección de signos de angustia mental en sus usuarios. Según sus datos, aproximadamente el 0,07% de los usuarios activos por semana muestran signos de emergencias de salud mental relacionadas con psicosis o manía, lo que equivale a unos 560.000 usuarios cada semana, considerando que ChatGPT cuenta con unos 800 millones de usuarios activos semanales.

Además, el análisis revela que cerca del 0,15% de los usuarios en cualquier momento muestran indicios de planificación o intención de suicidio. En términos de mensajes, esto representa aproximadamente el 0,05%. Este porcentaje se traduce en cerca de 1,2 millones de usuarios que podrían estar en riesgo, lo que subraya la importancia de los avances en la detección y respuesta a estas señales.

En respuesta a estos desafíos, OpenAI ha trabajado con más de 170 expertos en salud mental para entrenar a GPT-5, la última versión de su modelo de lenguaje, en la identificación de signos de angustia. Gracias a estas colaboraciones, la nueva versión del modelo cumple en un 92% con los comportamientos deseados en casos de psicosis o manía, en comparación con un 27% del modelo anterior. De manera similar, su cumplimiento en temas de autolesiones y suicidio ha aumentado del 77% al 91%, y en dependencia emocional del 50% al 97%, reflejando un compromiso firme con la protección de las personas vulnerables.

A pesar de estos avances, la preocupación sigue latente. Mustafa Suleyman, CEO de Microsoft AI, advierte sobre el peligro de que las personas lleguen a creer que las IA son entidades conscientes. Este riesgo podría derivar en demandas por derechos de las máquinas y en un uso potencialmente peligroso de la tecnología. Además, OpenAI ha implementado directrices y funciones para evitar actividades dañinas, promoviendo además el contacto con ayuda humana en situaciones de riesgo. La compañía también mantiene una red global conformada por aproximadamente 300 profesionales de la salud mental, dispuestos a intervenir cuando sea necesario.

Aunque los datos muestran una mejora significativa en la respuesta de los modelos, las cifras siguen siendo motivo de preocupación, especialmente en lo que respecta a la interacción con personas que enfrentan crisis emocionales severas. La responsabilidad y el cuidado en la aplicación de la IA en ámbitos sensibles continúan siendo prioridades para OpenAI, que busca equilibrar los beneficios tecnológicos con la protección de la salud mental de sus usuarios.