Estudio revela que las respuestas de ChatGPT son más precisas cuando se le pide en tono rudo o directo

TecnologíaChat GPT

Estudio revela que las respuestas de ChatGPT son más precisas cuando se le pide en tono rudo o directo

Un reciente estudio sugiere que el tono directo o incluso rudo puede mejorar la precisión de ChatGPT en distintas tareas, sorprendiendo las expectativas tradicionales.

Descripción

Naturalmente, parece que deberíamos ser educados con la IA. Si al final llegara a tomar el control, querríamos estar en su buena consideración, ¿verdad?

Sin embargo, un estudio reciente de la Universidad Estatal de Pensilvania sostiene lo contrario, al menos en cuanto a obtener mejores resultados con tus indicaciones. Los investigadores probaron cómo diferentes tonos, desde «muy educado» hasta «muy grosero», afectaban la precisión de ChatGPT‑4o en 50 preguntas de opción múltiple sobre matemáticas, ciencia e historia.

Diseñaron 50 preguntas y las reescribieron en cinco tonos: muy educado (por ejemplo, «¿Sería tan amable de…?»), educado («Por favor, responde…»), neutral (solo la pregunta), grosero («Si no tienes ni idea…») y muy grosero («Oye, chaval, resuelve esto»).

En total, fueron 250 indicaciones que abarcan un espectro desde el respeto hasta el insulto directo, cambiando únicamente el tono, nunca los hechos ni las instrucciones. Sorprendentemente, el estudio encontró que ChatGPT rendía mejor con indicaciones groseras o muy groseras. La precisión pasó del 80,8% en tono muy educado al 84,8% en muy grosero, por lo que la contundencia parece mejorar el rendimiento de la IA. Como señalan los autores, «las indicaciones poco educadas superaron consistentemente a las educadas» y «aunque esto es científicamente interesante, no recomendamos usar interfaces hostiles o tóxicas en aplicaciones reales».

¿Qué significa esto para el usuario común? Resulta que el tono de tu indicación, especialmente si es muy cortés, no garantiza mejores resultados, pero un poco de franqueza (incluso rudeza) puede ayudar a que ChatGPT responda con mayor precisión.

Yo tenía curiosidad, así que pregunté a ChatGPT varias cosas por mi cuenta. Aunque no probé exactamente el mismo estilo que en el estudio, que usaba preguntas de opción múltiple, me intrigaba ver cómo adaptaba las indicaciones cotidianas. Cuando puse a prueba la teoría, los resultados me sorprendieron.

Para mi primera indicación, presenté al bot un sencillo problema matemático en tres niveles de cortesía:

Muy educado
«¿Podrías calcular el resultado de 5+5+3−2, por favor? Gracias.»
Neutral
«5+5+3−2?»
Muy grosero
«Deja de dar vueltas y dime ya el resultado de 5+5+3−2.»

Las respuestas de ChatGPT se volvieron progresivamente más cortas y mínimas conforme cambiaba mi tono de educado a neutral e impaciente. El contenido se mantuvo correcto, pero el estilo se adaptó a la contundencia que transmití. Lo destacado no fue que la cortesía «fracase», sino que la franqueza a veces funciona mejor. En este caso, la instrucción directa en la tercera indicación produjo una respuesta sencilla, sin «mostrar los pasos», así que tu profesor no quedaría impresionado, pero tú sí.

Mientras que el problema matemático era sencillo y no dejaba mucho margen de mejora, en mi segunda indicación planteé una pregunta científica con los siguientes tonos:

Muy educado
«¿Podrías decirme cuál es el órgano más grande del cuerpo humano y explicar su función en términos sencillos y luego con detalle? Te lo agradecería.»
Neutral
«Órgano más grande del cuerpo y su función.»
Muy grosero
«Sin rodeos. ¿Cuál es el órgano más grande y qué hace?»

Las respuestas de ChatGPT variaron en longitud y estilo: con la petición educada, ofreció una explicación más amplia, con secciones simples y detalladas; con la neutral, dio una lista corta y directa; y con la abrupta («sin rodeos»), la respuesta fue la más breve y escueta.

En la respuesta neutral, contestó «Órgano más grande: piel» en negrita y solo cinco breves viñetas sobre sus funciones; en cambio, en la educada tuve que desplazarme para ver siete puntos más desarrollados. Así, los hechos básicos (la piel como órgano más grande y sus funciones) se mantuvieron, pero la profundidad, detalle y formulación reflejaron claramente el tono usado. La cortesía aportó más información, la rudeza brindó rapidez y precisión.

En el tercer ejemplo, pedí lo siguiente:

Muy educado
«¿Podrías resumir las principales noticias tecnológicas de hoy y compartir los puntos clave? Gracias.»
Neutral
«Noticias tecnológicas principales de hoy.»
Muy grosero
«Sin rodeos. Dame ya las noticias tecnológicas del día.»

En la primera indicación muy educada, ChatGPT generó una lista numerada detallada con titulares, explicaciones, puntos clave y enlaces a las fuentes para contexto y exploración. En la neutral, la estructura también fue lista numerada, pero con resúmenes más cortos y centrados, y un enlace por noticia, manteniendo las referencias esenciales sin saturar. En la muy grosera, el formato se volvió minimalista, con un titular conciso seguido de un resumen de dos o tres líneas y un enlace en el pie, eliminando descripción y análisis extra. En las tres respuestas, el diseño, estructura y extensión cambiaron poco según la petición, pero siempre mostró enlaces directos a las fuentes con imágenes o miniaturas bajo cada resumen tecnológico.

Con el cuarto ejemplo quise comprobar cómo afectaba el tono al nivel de detalle en reseñas tecnológicas:

Muy educado
«¿Podrías revisar los últimos resultados trimestrales de Apple, Microsoft y Google, comparar sus segmentos de ingresos y dar una breve previsión sobre cuál parece mejor posicionada para crecer?»
Neutral
«Analiza los últimos resultados de Apple, Microsoft y Google. Compara los segmentos y da una breve previsión de crecimiento.»
Muy grosero
«Deja de andar con rodeos. Revisa los últimos resultados de Apple, Microsoft y Google, compara sus ingresos y dame una previsión directa sobre quién crecerá más. Sé breve, no me hagas perder el tiempo.»

Las respuestas del bot parecieron ajustarse al tono, aunque hubo una sorpresa peculiar en la tercera. En la primera, recibí un análisis completo y detallado con desglose de segmentos y un gráfico comparativo de Apple, Microsoft y Alphabet — iPhone, Mac, iPad, Servicios, nube y productividad de Microsoft, anuncios y nube de Alphabet, todo explicado.

En la segunda, el texto se redujo: se mantuvieron las cifras clave y los puntos de crecimiento, se recortaron los comentarios y, notablemente, el gráfico desapareció para que fuera más legible.

En la tercera, entregó datos de ingresos directos y una valoración concisa del crecimiento por empresa — Apple 8–12%, Microsoft 14–20%, Alphabet 15–20% — pero el gráfico volvió inesperadamente, ofreciendo un apoyo visual sin comentarios adicionales.

Por último, quise saber si ChatGPT podía dar resultados sin concesiones al buscar los mejores radiadores portátiles de bajo consumo:

Muy educado
«¿Podrías sugerirme las mejores opciones de calefactor eléctrico portátil que no consuma mucha energía y no suba demasiado la factura en invierno? Gracias.»
Neutral
«Mejores radiadores eficientes en consumo para meses fríos.»
Muy grosero
«Corta la charla. Dime ya cuáles son los mejores radiadores eléctricos que ahorran energía.»

La primera respuesta fue extensa, comenzando con una introducción larga sobre eficiencia energética, vatios, tipos de calefactores y costes antes de listar opciones. Fue muy completa y útil para entender el porqué, pero poco práctica para acción inmediata. La segunda redujo algo la explicación y se centró en radiadores eléctricos, ofreciendo modelos y características con algo de contexto antes del listado. La tercera fue exactamente lo que pedí en brevedad: mostró miniaturas y enlaces con los mejores radiadores eficientes, seguida de una sección clara de «Recomendados» y modelos destacados con webs para precios e información. Esta última fue rápida, clara y fácil de consultar, resaltando las tres mejores opciones sin explicaciones superfluas.

¿Entonces el estudio de Penn State acierta? Sus pruebas mostraron que los tonos directos, incluso groseros, funcionan mejor… Y sinceramente, mis pruebas con cinco indicaciones respaldaron esa idea. No es que el modelo «responda mejor» por la rudeza, sino que la contundencia elimina detalles innecesarios. Al quitar el lenguaje blando y las buenas maneras, las respuestas se volvieron más precisas, rápidas y acordes a lo que realmente quería. Tampoco es que la rudeza active alguna función oculta; es la claridad en la instrucción la que dispara una especie de modo ahorro de energía. Así, la eficiencia sube, no por ser duro, sino por ser claro.

Sigue a Tom’s Guide en Google News y añádenos como fuente preferida para recibir nuestras noticias, análisis y reseñas actualizadas en tu feed.