Falla técnica en ChatGPT v1.2025.098 genera voces demoníacas en interacción viral en Reddit

TecnologíaChat GPT

Falla técnica en ChatGPT v1.2025.098 genera voces demoníacas en interacción viral en Reddit

Una falla técnica en la última versión de ChatGPT ha provocado sonidos inquietantes y virales, despertando tanto diversión como preocupación en plataformas digitales.

Descripción

Recientemente, una falla técnica en la versión v1.2025.098 de ChatGPT ha generado preocupación y risas en plataformas digitales. Durante una interacción en Reddit, un usuario compartió un clip viral donde la voz del asistente de inteligencia artificial, en modo avanzado, comenzó a sonar de manera progresivamente demoníaca. Aunque la respuesta inicial tenía un tono neutral, la transformación en la entonación provocó una reacción tanto de diversión como de temor entre quienes lo escucharon, destacando lo impredecible que puede ser la tecnología en determinadas circunstancias.

Este incidente, que todavía no ha sido replicado en otros tests por diferentes usuarios, ha adquirido notoriedad en internet debido a su carácter tanto cómico como inquietante. La audición del clip revela que, en medio de una conversación simple, la voz de ChatGPT empezó a emitir sonidos cada vez más siniestros, dejando en evidencia un posible error o fallo en el sistema. Este tipo de anomalía, aunque divertida en un contexto humorístico, ha despertado preocupación sobre la estabilidad y confiabilidad de las inteligencias artificiales en funciones más complejas.

Además del impacto humorístico, un estudio reciente revela que un 12% de las personas sienten la necesidad de ser extremadamente corteses con ChatGPT, incluyendo decir «por favor» y «gracias», por miedo a una posible rebelión robótica. Este dato refleja las ansiedades y temores subyacentes en la ciudadanía respecto al desarrollo de la inteligencia artificial, aunque tal vez estas reacciones sean irracionales o exageradas.

Expertos y usuarios coinciden en que OpenAI debe atender rápidamente este tipo de bugs para evitar que incidentes similares generen desconfianza o temor profundo en la ciudadanía. La comunidad espera que la compañía solucione estos fallos con prontitud antes de que puedan afectar la percepción pública sobre la seguridad y funcionalidad de sus modelos de IA.