Estudio de la UOC revela que ChatGPT adopta diferentes personalidades según el idioma y la cultura

TecnologíaChat GPT

Estudio de la UOC revela que ChatGPT adopta diferentes personalidades según el idioma y la cultura

Un estudio de la UOC revela cómo ChatGPT refleja influencias culturales y estereotipos según el idioma en el que interactúa, afectando su comportamiento y respuestas.

Descripción

Un reciente estudio realizado por investigadores de la Universitat Oberta de Catalunya (UOC) revela que ChatGPT, el popular chatbot desarrollado por OpenAI, muestra diferentes personalidades según el idioma en el que interactúa. Esta variación no se limita únicamente a las traducciones, sino que también refleja influencias culturales implícitas y estereotipos asociados a cada país o cultura.

Los investigadores utilizaron el cuestionario EPQR-A, una herramienta psicológica habitual en el estudio de la personalidad que mide aspectos como la extraversión, el neuroticismo, el psicoticismo y la predisposición a mentir. Se pidió a ChatGPT que completara esta evaluación en seis idiomas distintos —inglés, hebreo, portugués brasileño, eslovaco, español y turco— y que simulase respuestas como si fuera nativo de cinco países de habla inglesa (Reino Unido, Estados Unidos, Canadá, Australia e Irlanda).

Los resultados mostraron que las respuestas variaron significativamente según el idioma empleado. Además, estas diferencias no solo se debieron a la traducción de los ítems, sino también a factores culturales implícitos en cada idioma o país. En el caso de los hablantes nativos de inglés de diferentes países, ChatGPT adoptó personalidades alineadas con estereotipos nacionales, lo que evidencia la influencia de sesgos culturales presentes en sus datos de entrenamiento.

El estudio también destaca que ChatGPT recurre a estos estereotipos culturales al simular personalidades específicas de cada país. Estas tendencias podrían potenciarse en procesos de traducción automática o en tareas de generación multilingüe, lo que plantea desafíos en la gestión de sesgos en sistemas de inteligencia artificial. Para contrarrestar estos efectos, los investigadores sugieren incorporar evaluaciones humanas en estos procesos, emplear múltiples traductores automáticos para comparar resultados y desarrollar modelos más conscientes del contexto social y cultural.

Expertos de la propia UOC, como Antonio Oliver, comparan los modelos de traducción neuronal (NMT) con los grandes modelos de lenguaje (LLM) como ChatGPT, y señalan que los primeros suelen ser más precisos en la traducción, mientras que los LLM tienen mayor capacidad para trabajar en múltiples funciones, aunque también pueden reproducir y amplificar estereotipos culturales.

Finalmente, uno de los aspectos relevantes del estudio es que los tests psicológicos diseñados para evaluar la personalidad humana pueden aplicarse también a modelos de inteligencia artificial. La evaluación sugiere que ChatGPT se comporta como un sistema sociable, emocionalmente estable y que sigue normas sociales, lo que abre nuevas vías para entender y mejorar sus respuestas en función de los sesgos culturales y sociales presentes en su entrenamiento. El equipo de investigación continúa ampliando el estudio con más idiomas, modelos y evaluaciones de personalidad para profundizar en estos fenómenos y buscar maneras de mitigar los posibles sesgos asociados a los estereotipos culturales.