Experimento en Francia revela las limitaciones de la inteligencia artificial en tareas de evaluación filosófica
Un experimento en Francia muestra cómo la inteligencia artificial aún no puede reemplazar la evaluación crítica humana en debates filosóficos complejos.

Un experimento realizado en Francia ha puesto de manifiesto los límites actuales de la inteligencia artificial en tareas que requieren reflexión filosófica profunda. La televisión pública francesa France 3 autorizó a ChatGPT a presentar un ensayo sobre la pregunta «¿La verdad es siempre convincente?» como parte de la evaluación final de estudiantes de filosofía de bachillerato. Aunque otras herramientas basadas en IA consideraron el texto bien estructurado y con una línea argumental clara, la evaluación realizada por una profesora humana detectó errores sustanciales que las máquinas no lograron identificar.
El ensayo generado por ChatGPT contenía una respuesta evasiva a la cuestión planteada y presentaba un razonamiento circular. La clave del análisis fue una afirmación que la docente consideró problemática: «La verdad como acuerdo con la realidad debe ser por supuesto convincente», seguida de la frase «En realidad, las cosas son más complicadas». Esta última le pareció una bandera roja, pues indicaba un razonamiento que daba vueltas sin llegar a una conclusión clara, lo que en filosofía equivale a un argumento vacío o sesgado.
La profesora evaluó el trabajo con una nota de 8 sobre 20, equivalente a un suspenso, señalando que el texto mostraba una estructura aceptable, pero no lograba responder a la cuestión de fondo. En contraste, otros sistemas de inteligencia artificial que analizaron el mismo texto bajo los mismos parámetros lo consideraron adecuado, sin detectar el error de base ni la evasividad del razonamiento, lo que demuestra un sesgo en los algoritmos de evaluación automática.
Este episodio pone de relieve que, a pesar de los avances, las IA aún no pueden sustituir completamente al personal docente en tareas de evaluación que implican juicio subjetivo y análisis crítico. La supervisión humana sigue siendo fundamental para detectar errores y sesgos en textos complejos, especialmente en ámbitos filosóficos donde la profundidad y coherencia son esenciales. La experiencia demuestra que los algoritmos tienen limitaciones importantes en la valoración de trabajos reflexivos y que la intervención humana continúa siendo un elemento irremplazable en el proceso educativo.