En un caso que ha generado un importante debate sobre el uso de la inteligencia artificial (IA) en la educación, Dale y Jennifer Harris, padres de un estudiante de la escuela secundaria Hingham, presentaron una demanda contra la institución educativa. La acusación se refiere a que su hijo fue señalado de hacer trampa en un proyecto académico al utilizar IA generativa para completar su tarea. La familia asegura que la sanción fue injusta debido a la falta de normas claras sobre el uso de esta tecnología en el manual escolar.
El caso comenzó en diciembre de 2023, cuando el estudiante de tercer año fue acusado de copiar y pegar texto generado por IA para un proyecto de Historia de Estados Unidos de nivel avanzado. Los funcionarios escolares descubrieron que el contenido incluía citas ficticias de libros inexistentes, conocidas como «alucinaciones» de la IA, lo que llevó a la escuela a concluir que los estudiantes habían violado las políticas académicas al presentar como propio un trabajo generado artificialmente.
Aunque la escuela permitía el uso de la IA para generar ideas y localizar fuentes, los funcionarios señalaron que el estudiante había infringido las reglas al no atribuir correctamente el trabajo generado por la herramienta. Además, el tiempo que los estudiantes emplearon en la tarea, aproximadamente una hora, fue significativamente menor en comparación con el promedio de más de siete horas que otros estudiantes dedicaron al proyecto.
En respuesta a la sanción, los padres demandaron a la escuela, solicitando que se modificara la calificación de su hijo y que el incidente fuera eliminado de su expediente disciplinario antes de que iniciara el proceso de solicitud a universidades. Argumentaron que el manual escolar no especificaba normas contra el uso de IA y, por lo tanto, la sanción no era válida.
Por su parte, los funcionarios de la escuela defendieron su decisión, subrayando que el uso no autorizado de tecnologías, incluida la IA, estaba implícitamente prohibido en las políticas generales del centro. Además, afirmaron que el objetivo de la medida disciplinaria no era castigar, sino educar sobre la importancia de la honestidad académica y el uso ético de las herramientas tecnológicas.
En el fallo judicial, el magistrado federal Paul Levenson rechazó la demanda, indicando que los argumentos de la escuela prevalecían tanto en los hechos como en la interpretación legal. Destacó que la falta de una regla explícita sobre el uso de la IA no eximía a los estudiantes de cumplir con los principios generales de honestidad académica. Según el tribunal, el uso de texto generado por IA, que incluye información errónea, es incompatible con los estándares educativos de la actividad académica.
Este caso ha abierto un debate sobre cómo las instituciones educativas deben regular el uso de tecnologías como la inteligencia artificial en las aulas. A medida que aplicaciones generativas como ChatGPT ganan popularidad, muchos educadores enfrentan el desafío de equilibrar el aprovechamiento de estas herramientas con la necesidad de mantener la integridad académica. Sin embargo, la falta de directrices claras en muchas escuelas podría dar lugar a situaciones similares en el futuro, lo que subraya la urgencia de establecer políticas definitivas sobre el uso de la IA en la educación.