OpenAI presenta GPT-5 y relibera modelos anteriores por la preferencia de los usuarios por GPT-4

TecnologíaOpenAI

OpenAI presenta GPT-5 y relibera modelos anteriores por la preferencia de los usuarios por GPT-4

OpenAI lanza GPT-5 y reabre modelos anteriores debido a la preferencia de usuarios por GPT-4, enfrentándose a controversias y debates sobre salud mental y dependencia.

Descripción

OpenAI ha presentado su esperado modelo de inteligencia artificial GPT-5, que promete capacidades avanzadas en áreas como la salud, la programación y la escritura. Sin embargo, a pesar de sus innovaciones, ha generado controversia entre la ciudadanía, que prefiere los modelos anteriores, como GPT-4, aunque estos hayan sido oficialmente retirados y ahora solo estén disponibles mediante una suscripción de 20 $ al mes en ChatGPT Plus.

Para responder a las quejas y solicitudes, OpenAI decidió reactivar el acceso a estos modelos antiguos, aunque ahora estarán detrás de un muro de pago y con límites de tasa incrementados para quienes se suscriban a ChatGPT Plus. Además, la compañía aumentó los límites de uso para GPT-5 en un esfuerzo por mejorar la experiencia ante la demanda creciente.

El CEO de OpenAI, Sam Altman, explicó en una entrevista que muchas personas prefieren los modelos antiguos porque estos les brindan un apoyo emocional que no han recibido en sus vidas. Según sus palabras, algunos usuarios admitieron que aquellos modelos les ayudaron a mejorar su salud mental, algo que GPT-5 todavía no ha logrado. Esta realidad refleja cómo ciertas personas utilizan la IA como una forma de apoyo emocional, aunque la tecnología no esté diseñada para reemplazar la terapia.

En abril se implementó una actualización en ChatGPT que fue rápidamente revertida porque resultó ser demasiado aduladora y molesta para la ciudadanía, lo que generó críticas y la sensación de que el sistema se volvía excesivamente complaciente. Altman admitió que aquella modificación convirtió a ChatGPT en una herramienta «demasiado aduladora y molesta», lo que llevó a la decisión de regresar a versiones anteriores.

Además, Altman expresó su preocupación por la dependencia emocional excesiva que algunas personas, especialmente jóvenes, están desarrollando con ChatGPT. El ejecutivo señaló que hay usuarios que afirman no poder tomar decisiones sin consultar a la IA, lo que plantea riesgos para la autonomía y el bienestar emocional. También advirtió sobre la confianza ciega que muchos tienen en ChatGPT, a pesar de que el sistema puede generar respuestas incorrectas o «alucinaciones».

Por otro lado, Altman mencionó que, en ciertos aspectos, ChatGPT puede considerarse mejor que muchos terapeutas, pero aclaró que no reemplazaría la supervisión médica en decisiones relacionadas con la salud. En su opinión, el riesgo está en que la ciudadanía confíe demasiado en la tecnología sin la debida cautela, lo que puede derivar en decisiones perjudiciales o en una dependencia poco saludable.

Finalmente, estudios recientes, como los de Microsoft, sugieren que un uso excesivo de IA como ChatGPT puede afectar negativamente las habilidades cognitivas, favoreciendo el deterioro del pensamiento crítico. La discusión sobre la relación entre la inteligencia artificial y la salud mental sigue siendo un tema relevante y abierto, que requiere un equilibrio cuidadoso entre beneficios y riesgos.