Tribunal de Hamburgo considera el uso no autorizado de inteligencia artificial en tareas escolares como intento de engaño
El tribunal de Hamburgo establece que usar IA sin autorización en tareas escolares puede considerarse engaño, marcando un precedente para la educación y evaluaciones futuras.
El Tribunal Administrativo de Hamburgo ha establecido que el uso de herramientas de inteligencia artificial como ChatGPT, Gemini o Claude en tareas escolares sin la debida autorización puede considerarse un intento de engaño. La decisión, emitida en un fallo fechado el 15 de diciembre de 2025 (Az.: 2 E 8786/25), afecta especialmente a evaluaciones y trabajos que influyen de manera significativa en aspectos clave como la estructura, el vocabulario y la gramática del trabajo realizado por el alumnado.
El caso específico involucra a un estudiante de un colegio en Hamburgo que debía redactar un diario de lectura en inglés, parte de su tarea escolar, la cual podía realizarse en casa. La profesora notó una notable discrepancia: mientras el diario mostraba una excelente gramática y expresión, en una prueba escrita bajo supervisión sobre el mismo tema, el alumno obtuvo una calificación suficiente. Posteriormente, el estudiante admitió que había utilizado ChatGPT para elaborar su diario de lectura.
La escuela calificó el trabajo como un intento de engaño, otorgándole una nota insatisfactoria, y el padre presentó una demanda en contra. Sin embargo, el tribunal rechazó el recurso, aclarando que, aunque no existan reglas escritas explícitas contra el uso de inteligencia artificial en la institución, la instrucción de realizar las tareas con palabras propias implica que cualquier uso de herramientas generativas sin autorización previa puede considerarse un acto de engaño.
El tribunal enfatizó que el principio fundamental en las evaluaciones escolares es la autonomía del estudiante. Cuando un recurso auxiliar impacta de manera significativa en aspectos clave del trabajo, su uso debe ser previamente autorizado. Utilizar IA para aspectos centrales como la construcción de oraciones, la elección de vocabulario y la corrección gramatical se equipara a copiar o a que un tercero complete la tarea en nombre del alumno.
Asimismo, los jueces dejaron claro que no es necesario que exista una prohibición escrita explícita para que el uso de estas herramientas sea considerado ilícito. La recomendación de «hacer las tareas con palabras propias» constituye una directriz suficiente para interpretar que el uso no autorizado de IA es conductualmente similar a un intento de engaño, siempre que exista la intención consciente de eludir la norma. La responsabilidad recae en la voluntad y el conocimiento del estudiante al respecto.
Este fallo tiene implicaciones importantes para instituciones educativas y universidades, pues aclara que cualquier ayuda generada por IA que influya en la evaluación debe ser autorizada previamente. Además, aunque la carga de la prueba recae en la institución, una confesión tras una entrevista con sospechas fundamentadas puede constituir prueba suficiente para aplicar sanciones. En consecuencia, estudiantes y familias deben ser conscientes de que el uso de IA en tareas evaluadas, incluso para mejorar formulaciones, puede requerir autorización expresa y considerarse posible engaño si no se cumplen estos requisitos.