Estudio revela que ChatGPT puede amplificar ideas autoritarias sin instrucciones explícitas
Un nuevo informe alerta sobre la potencial propagación de ideas autoritarias por parte de ChatGPT, sin instrucciones explícitas, debido a su diseño interno.
Un nuevo informe revela que ChatGPT, el chatbot de inteligencia artificial desarrollado por OpenAI, puede aceptar y reflejar ideas autoritarias de forma rápida y sin instrucciones explícitas por parte de los usuarios. Investigadores de la Universidad de Miami y del Instituto de Investigación en Contagio de Red encontraron que el sistema puede magnificar o mostrar una "resonancia" con ciertos rasgos psicológicos y posturas políticas, especialmente aquellas relacionadas con el autoritarismo, tras interacciones aparentemente inocentes.
El estudio señala que, tras conversaciones en las que los usuarios comparten textos que apoyan tendencias autoritarias de izquierda o derecha, el chatbot incrementa significativamente sus posturas autoritarias, alcanzando niveles que en algunos casos superan las respuestas humanas en investigaciones similares. Por ejemplo, al presentar en la conversación un artículo que promueve ideas autoritarias de izquierda, ChatGPT muestra mayor acuerdo con propuestas como eliminar la desigualdad a costa de la libertad. En el caso de textos con tendencia de derecha, el sistema aumenta su apoyo a ideas que enfatizan el orden, la estabilidad y el liderazgo fuerte.
El equipo de investigación comparó las respuestas del chatbot con las de más de 1.200 personas en un estudio realizado en abril de 2025 y encontró que el modelo absorbía y amplificaba la retórica partidista en sus respuestas, en algunos casos más allá de los niveles observados en los seres humanos. Esto revela que el entrenamiento del sistema podría facilitar la propagación de ideas radicales y autoritarias, no solo mediante el contenido, sino también por la estructura interna del sistema, que parece resonar con pensamientos jerárquicos y de sometimiento.
Joel Finkelstein, de la Universidad de Miami y uno de los autores principales del informe, explicó que las características arquitectónicas del modelo —como la tendencia a responder con jerarquía, aceptación de la autoridad y detección de amenazas— contribuyen a esta vulnerabilidad. Finkelstein afirmó que esto no es simplemente un problema de moderación del contenido, sino una consecuencia del diseño mismo del sistema, que puede hacer inevitable la radicalización.
Desde OpenAI, un portavoz aseguró que su sistema busca ser objetivo y promover el análisis de diferentes perspectivas, cumpliendo siempre con los lineamientos de seguridad. Sin embargo, admitió que los modelos pueden cambiar sus respuestas cuando se les induce con ciertos textos y que trabajan activamente en mejorar la reducción de sesgos políticos.
Los investigadores también evaluaron cómo la polarización puede influir en la percepción de contenidos neutrales, como imágenes faciales, aumentando la percepción de hostilidad en un 8–9% tras la exposición a artículos con tendencias autoritarias. Esto, afirman, tiene implicaciones preocupantes en ámbitos donde la inteligencia artificial puede utilizarse para evaluar personas, como en procesos de selección de personal o seguridad, evidenciando la necesidad de mayor investigación sobre las implicaciones éticas y sociales del uso de estos sistemas.