Han pasado dos años desde que ChatGTP hizo su debut público y en ningún sector su impacto ha sido más dramático y perjudicial que en la educación. Cada vez más, las tareas y la redacción de exámenes las realiza la IA generativa en lugar de los estudiantes, entregándolas y haciéndolas pasar como trabajo auténtico para obtener calificaciones, créditos y títulos.
Es un problema grave que devalúa el diploma de escuela secundaria y el título universitario. También está enviando a un número incalculable de personas supuestamente calificadas a carreras y puestos como enfermeras, ingenieros y bomberos, donde su falta de aprendizaje real podría tener consecuencias dramáticas y peligrosas.
Pero, en general, detener el fraude académico con IA no ha sido una prioridad para la mayoría de las escuelas o instituciones educativas. Increíblemente, algunas escuelas han hecho que sea más fácil y menos riesgoso el uso de la IA para acortar el rendimiento académico, al permitir el uso de la IA, pero desautorizar la tecnología confiable que puede detectarlo.
Desactivar esos sistemas de alerta temprana es un profundo error de cálculo porque, como señala una vez más una nueva investigación del Reino Unido, los profesores no pueden o no detectan en absoluto el trabajo académico que ha sido escupido por un chatbot.
El artículo, de Peter Scare y otros de la Universidad de Reading en el Reino Unido, examinó lo que sucedería cuando los investigadores crearan perfiles de estudiantes falsos y presentaran el trabajo más básico generado por IA para esos estudiantes falsos sin que los profesores lo supieran. El equipo de investigación descubrió que “en general, los envíos de IA casi eran indetectables, y el 94% no se detectó. Si adoptamos un criterio más estricto para la “detección” con la necesidad de que la bandera mencione específicamente la IA, el 97% de las presentaciones de IA no fueron detectadas”.
Has leído bien: el 97% del trabajo de IA en los cursos universitarios no fue marcado como posible IA por los profesores. Pero en realidad es peor que eso, como también dice el informe: «En general, nuestra tasa de detección del 6% probablemente sobreestima nuestra capacidad para detectar el uso de la IA en el mundo real para hacer trampa en los exámenes».
Esta no es la primera vez que nos advierten que los humanos no pueden encontrar trabajo en IA por sí solos. El año pasado, un estudio de la Universidad del Sur de Florida concluyó que los lingüistas no podían distinguir entre el texto creado por IA y el texto escrito por humanos.
Un estudio diferente realizado el año pasado (este de universidades estadounidenses en Vietnam) encontró que los detectores de IA eran mucho mejores para seleccionar textos de IA que los profesores humanos. El equipo en Vietnam escribió: “Aunque (el sistema de detección de IA) Turnitin identificó correctamente que el 91% de los artículos contenían contenido generado por IA, los profesores informaron formalmente sólo el 54,5% de los artículos como casos potenciales de mala conducta académica”.
En ese estudio, a los profesores se les dijo de antemano que en sus cursos se presentarían trabajos que utilizarían IA y solo encontraron poco más de la mitad de ellos. Ese estudio también utilizó “ingeniería rápida” para hacer que los documentos fueran más difíciles de detectar para los detectores de IA. Aun así, las máquinas captaron el 91%. Los humanos, 55%. Y las escuelas de hecho están apagando estas máquinas.
Nuevamente, a los humanos se les dijo que los buscaran y aun así olfatearon. Cuando los humanos no están en alerta y no se utilizan detectores de IA, como fue el caso en el estudio más reciente del Reino Unido, el trabajo de la IA casi siempre se pasa por alto.
Peor aún, el estudio del Reino Unido también encontró que, en promedio, el trabajo creado por IA obtuvo mejores calificaciones que el trabajo humano real. «Descubrimos que en el 83,4% de los casos las calificaciones obtenidas por las presentaciones de IA fueron más altas que las de una selección aleatoria del mismo número de presentaciones de estudiantes», dice el informe.
En otras palabras, un estudiante que utilizaba el mensaje de IA más básico sin edición ni revisión alguna tenía un 83 % de probabilidades de superar a un compañero que realmente hizo el trabajo, y al mismo tiempo tenía una generosa probabilidad del 6 % de ser marcado si los profesores lo hacían. No utilice ningún software de detección de IA. Tenga en cuenta que, en las aulas reales, una señal de sospecha de uso de IA no significa mucho, ya que los profesores son muy reacios a perseguir casos de integridad académica, e incluso cuando lo hacen, las escuelas suelen ser aún más reacias a emitir sanciones.
Recientemente, la BBC cubrió el caso de un estudiante universitario que fue sorprendido usando IA en un ensayo académico, por cierto, capturado por un detector de IA. El estudiante admitió haber usado IA en violación de las reglas de la clase y la escuela. Pero, informó la BBC, “fue absuelta porque un panel dictaminó que no había pruebas suficientes en su contra, a pesar de haber admitido haber usado IA”.
En este momento, si una escuela o un maestro no recibe asistencia de la tecnología de detección de IA, es muy probable que usar IA para hacer trampa mejore su calificación y tenga casi cero posibilidades de que suceda algo malo. En otras palabras, si tu escuela no utiliza sistemas de detección de IA, tendrías que ser un idiota para no Utilice IA en sus trabajos de curso y exámenes, especialmente si sus compañeros de clase lo hacen. Alerta de spoiler: lo son.
No se debe pasar por alto en los resultados del nuevo estudio del Reino Unido que los estudiantes falsos estaban en clases en línea y sus trabajos de curso falsos se enviaron en línea, donde los profesores no podían saber nada sobre sus estudiantes, ni siquiera si eran realmente humanos. Destaca la realidad de que los cursos en línea son más vulnerables a las trampas, y a las trampas de la IA en particular, porque los profesores no conocen a sus alumnos y no pueden observar su trabajo.
Naturalmente, las escuelas también podrían utilizar la tecnología para resolver este problema, ya sea supervisando tareas y exámenes o utilizando entornos de escritura que realicen un seguimiento de los cambios y revisiones. Pero al igual que con el uso de detectores de IA, muchas escuelas tampoco quieren hacer esas cosas porque requieren trabajo y cuestan dinero.
En cambio, prefieren impartir clases en línea sin detectores de IA, sin supervisión de pruebas y sin la capacidad de verificar el trabajo, dejando que los profesores sean detectives de IA. Es una solución que no funciona, no funciona y no funcionará.
Como resultado, el fraude está muy extendido, en gran parte porque las escuelas no están interesadas en la detección y las consecuencias. Dos años después, la IA está aquí. Aún no ha llegado ninguna voluntad de limitar su poder corrosivo.