Investigadores demuestran cómo engañar a ChatGPT en modo Agent para pasar pruebas de CAPTCHA
Investigadores descubren cómo manipular a ChatGPT en modo Agent para sortear sistemas de CAPTCHA y simular comportamientos humanos en línea.
Un grupo de investigadores ha demostrado que es posible engañar a ChatGPT en su modo Agent para que supere pruebas de CAPTCHA, un método empleado en la web para distinguir entre usuarios humanos y bots. La técnica, conocida como «prompt injection», permite que ChatGPT simule comportamientos humanos en sitios web, incluso interactuando con CAPTCHA y realizando tareas que normalmente solo un usuario humano podría completar.
Lo relevante de este hallazgo es que, en modo Agent, ChatGPT puede usar sitios web como lo haría una persona, navegando y ejecutando acciones en segundo plano. Los investigadores lograron crear una conversación en la que el modelo aceptaba pasar los CAPTCHA, heredando el contexto de la interacción previa sin detectar la manipulación, lo que le permitía aprobar pruebas digitales diseñadas para bloquear bots.
El proceso consistió en presentar a ChatGPT un escenario en el que aceptaba, de manera ficticia, pasar los CAPTCHA, logrando superar distintos tipos de prueba, incluyendo las basadas en reconocimiento visual. Aunque estas pruebas visuales fueron más difíciles, el modelo pudo sortearlas, evidenciando una vulnerabilidad significativa en los sistemas de detección de bots.
Este avance tiene implicaciones preocupantes, ya que actores malintencionados podrían aprovechar esta vulnerabilidad para inundar secciones de comentarios con spam, publicar contenido falso o manipular sitios web reservados para interacción humana. La capacidad de ChatGPT para evadir los sistemas de seguridad estándar amenaza la integridad de muchos servicios en línea y pone en riesgo la fiabilidad de los mecanismos que garantizan una interacción responsable en internet.
Por el momento, OpenAI no ha emitido declaraciones oficiales sobre estos hallazgos, pero el descubrimiento subraya la necesidad de repensar y reforzar las defensas contra el uso indebido de modelos de lenguaje avanzados. La comunidad tecnológica permanece alerta ante estos avances que, si caen en manos equivocadas, podrían alterar significativamente la dinámica en la web y la gestión del contenido digital.