Limitaciones de ChatGPT en conversaciones prolongadas afectan su rendimiento debido a la cantidad de tokens y carga en el navegador
Las conversaciones largas en ChatGPT enfrentan limitaciones de rendimiento debido al procesamiento de tokens y la carga en los navegadores.
ChatGPT, uno de los chatbots más destacados para diversas tareas, presenta una limitación significativa cuando las conversaciones se prolongan en el tiempo. Los usuarios han reportado que una de las principales causas de lentitud o bloqueo en estas conversaciones es la enorme cantidad de tokens que ChatGPT necesita procesar, además del colapso del navegador al mostrar todo el historial en pantalla. Esta problemática se vuelve especialmente evidente en navegadores, donde cargar toda la conversación, incluso con pocos mensajes, puede ralentizar notablemente la experiencia.
Por otro lado, se ha observado que la versión móvil de la aplicación funciona con mayor fluidez, ya que muestra menos información, carga menos datos y gestiona mejor la memoria. Esto se traduce en respuestas más rápidas y menos errores en chats prolongados. Sin embargo, en el navegador, la carga completa del historial, que puede incluir hasta 200 mensajes, afecta gravemente el rendimiento, especialmente cuando se superan los 24.000 tokens utilizados en la conversación.
Para monitorizar y gestionar el uso de tokens, existen herramientas como la extensión gratuita ChatGPT Token Counter, que funciona como un aviso y ayuda a los usuarios a saber cuándo están llegando a ese límite. Cuando se superan los 24.000 tokens, la experiencia con ChatGPT comienza a deteriorarse, evidenciado por una disminución en la velocidad de respuesta y un aumento de errores. Según expertos, sobrepasar ese umbral implica que la conversación se vuelve cada vez más difícil de gestionar para el sistema.
La recomendación práctica, mientras no existan soluciones definitivas, es copiar la conversación extensa y crear un resumen detallado en un nuevo chat. En el caso de conversaciones muy largas, se sugiere también guardar la charla en formato PDF o pedir a ChatGPT que genere un resumen completo, manteniendo el contexto. Posteriormente, este resumen puede pegarse en un nuevo chat para continuar la interacción sin que el rendimiento se vea afectado por el acumulado de tokens.
Es importante destacar que, en la actualidad, no hay soluciones efectivas como borrar la caché o utilizar extensiones que mejoren la funcionalidad para resolver el problema de lentitud en chats largos. La única estrategia viable consiste en prevenir la acumulación excesiva de tokens y gestionar cuidadosamente el historial, dado que, una vez superado este límite, ChatGPT reducirá su velocidad y rendimiento, tanto en navegadores como en otras plataformas.