GPT-4.5 logra engañar a más del 70% de los participantes en conversaciones simuladas mediante personalidad específica
Un estudio revela cómo GPT-4.5 logra convencer a la mayoría de las personas en interacción simulada, demostrando avances en imitación de la conversación humana.

La inteligencia artificial ha dado un paso histórico en su capacidad para imitar la conversación humana. En un estudio realizado por la Universidad de California en San Diego, el modelo GPT-4.5 logró engañar a un 73% de los participantes, quienes creyeron que estaban interactuando con un humano durante una conversación de cinco minutos. Lo sorprendente es que en condiciones controladas, con una personalidad específica, el modelo fue capaz de superar incluso a algunos participantes humanos, quienes fueron confundidos en una prueba ciega.
Para lograr este rendimiento, GPT-4.5 fue entrenado con una personalidad concreta, en la que se le indicaba actuar como un joven introvertido, algo torpe, con humor seco y cierta familiaridad con internet. Esta caracterización ayudó a que el modelo resultara mucho más convincente, logrando parecer más humano de lo que en realidad es.
Sin embargo, cuando se eliminaron los estímulos que le asignaban esa personalidad, su capacidad de engaño se redujo significativamente, solo logrando confundir al 36% de las personas. Esto evidencia que, lejos de tener conciencia o emociones, GPT-4.5 simplemente simula conversaciones mediante la generación de probabilidades, actuando de manera convincente gracias a la actuación inducida por el contexto.
Este hecho pone en evidencia que la capacidad de engañar en una interacción no significa que el modelo posea inteligencia real, sino que está jugando un papel. La ilusión de inteligencia surge de un desempeño bien elaborado, no de una cognición genuina. Como explicó la comunidad investigadora, GPT-4.5 no tiene autoconciencia ni emociones; no comprende lo que hace, solo produce respuestas como un autómata programado para parecer humano.
Desde la época de Alan Turing, se ha debatido si pasar el Test del mismo nombre equivale a demostrar inteligencia o conciencia. La experiencia con GPT-4.5 confirma que una máquina puede imitar de manera convincente la interacción humana sin tener verdaderas capacidades reflexivas o emocionales. Lo que la hace poderosa es su habilidad para evocar respuestas que parecen humanas, incluyendo anécdotas y matices que generan una conexión aparente con el usuario.
A pesar de estos avances, es importante entender que la máquina no experimenta nerviosismo ni orgullo; simplemente funciona como un sistema de predicciones de palabras, sin conciencia de su actuación. Esta realización ha causado cierta alarma, ya que una IA que logra engañar en gran medida a las personas puede ser utilizada con fines poco éticos, como atención al cliente engañosa o manipulación emocional.
Al final, la capacidad de un modelo como GPT-4.5 para parecer, en ciertos contextos, más humano que algunas personas, es una demostración de la sofisticación del rendimiento lingüístico, pero no de una verdadera inteligencia o autoconciencia. La cuestión sigue siendo si esa ilusión tiene implicaciones relevantes en la interacción diaria o si, en el fondo, sigue siendo solo un truco sofisticado de predicciones probabilísticas.