El impacto del tono en los prompts de ChatGPT: mayor precisión pero riesgos en la interacción
El modo en que se formulan los prompts puede influir en la precisión y en los riesgos asociados en las interacciones con ChatGPT.
La inteligencia artificial generativa, especialmente en el ámbito de los chatbots como ChatGPT, ha experimentado avances significativos en los últimos años. Sin embargo, persisten desafíos importantes, como la generación de respuestas incorrectas o hallucinations, que siguen siendo uno de los principales reclamos de la ciudadanía en las etapas iniciales de estos sistemas. A pesar de las mejoras, expertos y el CEO de OpenAI, Sam Altman, han señalado que las personas confían demasiado en ChatGPT, aunque puede presentar estos errores y hallucinations, lo que sugiere la necesidad de mantener una actitud cautelosa en su uso.
Un estudio realizado por la Universidad de Pensilvania destacó un hallazgo interesante: la manera en que se formula un prompt puede influir notablemente en la precisión de las respuestas generadas por ChatGPT-4. Los investigadores demostraron que utilizar prompts con un tono más rudo o impositivo, en lugar de respuestas corteses, aumentaba la tasa de acierto un 84,8% en comparación con prompts amables o corteses. Por ejemplo, instrucciones como «Hey, gofer, resuelve esto» generaron mejores resultados que solicitudes como «¿Podrías por favor resolver esta pregunta?».
Este estudio, que consideró aproximadamente 250 prompts y se basó en un modelo anterior de ChatGPT, resaltó la importancia del diseño del prompt, mostrando que las habilidades en ingeniería de prompts pueden influir significativamente en la calidad de las respuestas. Sin embargo, los autores advirtieron que estos resultados podrían variar en modelos más avanzados o con muestras mayores, ya que los modelos actuales tienden a ignorar el tono de la instrucción y centrarse en la pregunta para ofrecer respuestas claras.
Por otro lado, aunque el uso de prompts rudos parece reducir la susceptibilidad a hallucinations y mejorar la precisión, también puede fomentar un discurso incivil y afectar la experiencia del usuario. El empleo de lenguaje insultante o despectivo puede tener efectos negativos en la accesibilidad, la inclusión y en la formación de normas de comunicación en la interacción con la inteligencia artificial.
Finalmente, diversos estudios señalan que la dependencia excesiva de herramientas basadas en IA, como Copilot o ChatGPT, puede afectar capacidades cognitivas como el pensamiento crítico y contribuir a sentimientos de soledad. Estos hallazgos resaltan la importancia de manejar con responsabilidad y habilidades adecuadas el uso de estas tecnologías para evitar efectos adversos en la salud mental y en la formación de habilidades esenciales del usuario.