Usuarios reportan mayor filtrado y menos espontaneidad en GPT-5 tras su actualización
Tras su lanzamiento, GPT-5 presenta filtrados más estrictos y menor espontaneidad, impactando la experiencia creativa y personal de los usuarios.
Cuando OpenAI lanzó GPT-5, las expectativas eran altas, considerándolo el modelo más avanzado de la compañía. Sin embargo, pronto quedó claro que no cumplió con las expectativas iniciales, lo que generó insatisfacción entre los usuarios. Tras unas semanas de críticas, OpenAI decidió reintroducir modelos heredados para sus suscriptores y ajustar aspectos como el tono, además de implementar mejoras en seguridad y protección.
Con el tiempo, la conversación en plataformas como X y Reddit se ha centrado en una nueva forma de insatisfacción: los usuarios reportan que GPT-5 es más filtrado, menos personal y más difícil de usar de forma creativa. Las respuestas que antes ofrecían profundidad ahora parecen más estériles, y los prompts que antes funcionaban provocan respuestas genéricas o rechazos incómodos, imposibilitando continuar ciertos diálogos.
Esta percepción está relacionada con cambios internos en el modelo, ya que las actualizaciones en medidas de seguridad y moderación han añadido capas de cautela que reducen la expresividad y espontaneidad del sistema. La expansión del uso de GPT-5 en ámbitos empresariales y de desarrollo ha llevado al modelo a adaptarse a una mayor variedad de tareas —desde codificación y atención al cliente hasta investigaciones legales y análisis de datos— priorizando la confiabilidad y el cumplimiento a costa de la creatividad y el tono personal.
Esta tendencia no es exclusiva de OpenAI. Otros modelos como Claude, Gemini y Llama de Meta también han aumentado sus sistemas de alineamiento y filtros en el último año, respondiendo a una mayor regulación y al crecimiento de la base de usuarios. Aunque estos controles fortalecen la seguridad, también limitan la libertad emocional y la improvisación que muchos usuarios valoran, tornando algunas interacciones más rígidas y predecibles.
El desafío para OpenAI y toda la industria de la inteligencia artificial es encontrar un equilibrio que permita mantener los sistemas seguros y escalables sin sacrificar la personalidad, el contexto y la creatividad que hacen útiles y atractivas estas herramientas. La evolución constante de los modelos, impulsada por actualizaciones y medidas de seguridad, refleja una tendencia que, si bien busca evitar riesgos, puede reducir la chispa que en muchas ocasiones acerca la inteligencia artificial y le da dinamismo.