
Detectar con certeza si una tarea fue hecha con IA es imposible; lo importante es enseñar a los estudiantes a pensar y aprender.
Que los estudiantes busquen atajos para hacer su tarea no es nada nuevo. Seguramente cuando eras estudiante también lo hiciste: pedías a un amigo que te prestara su tarea, copiabas fragmentos de Wikipedia o buscabas la forma de que alguien más lo hiciera por ti. Hoy no es diferente, ya que muchos estudiantes siguen buscando lo mismo, hacer más rápido sus tareas. Quizás lo único que ha cambiado es que ahora la inteligencia artificial los ayuda.
Uno de los usos más comunes de herramientas como ChatGPT es ser un asistente para hacer las tareas, o incluso, en algunos casos, quien haga toda la tarea. Muchas veces a los profesores no les gusta que sus estudiantes usen estas herramientas y termina por prohibirlas, porque al final del día no cumplen con el objetivo de la tarea: reforzar lo aprendido en clase, desarrollar el pensamiento crítico y, sobre todo, aplicar los conocimientos adquiridos.
Hoy en día, un profesor puede detectar con cierta facilidad si un estudiante copió y pegó un texto generado por IA. El estilo suele ser demasiado limpio, genérico y con una estructura repetitiva. También es común encontrar un vocabulario demasiado neutro, frases que suenan correctas pero vacías de contenido, ejemplos que no encajan con el contexto de la clase o explicaciones que repiten lo mismo con distintas palabras. Sin embargo, cada vez más estudiantes han aprendido a “humanizar” los textos: varían la longitud de las oraciones, usan una voz más personal, introducen anécdotas o cometen errores intencionales. Lo que para un detector es una “imperfección” que prueba humanidad, para un estudiante es simplemente un truco más.
Muchos profesores buscan una herramienta infalible que les diga con certeza si un texto fue escrito por una IA. Pero la verdad es que, ni ahora ni en los próximos años, existirá una forma de saberlo con un 100% de seguridad. La idea de una herramienta perfecta es irreal tanto técnica como conceptualmente. Los modelos de lenguaje como ChatGPT o Gemini no dejan huella digital. No copian, generan. Su función es predecir la siguiente palabra en una secuencia, basándose en millones de ejemplos. El resultado no tiene un sello artificial, sino una imitación de los estilos humanos. Esto significa que un texto creado por IA no siempre puede rastrearse de manera directa.
Los detectores de IA disponibles en el mercado son, en realidad, clasificadores que estiman si un texto parece más humano o artificial. Esa estimación tiene dos puntos débiles: los falsos positivos, cuando un texto legítimamente escrito por un estudiante se marca como artificial y los falsos negativos, cuando un texto generado por IA pasa desapercibido. Sin embargo, esas métricas no son exclusivas de la escritura artificial: un estudiante con un estilo muy ordenado puede ser etiquetado como IA, mientras que un modelo entrenado para imitar errores humanos puede pasar desapercibido. En esencia, el sistema no detecta “IA”, sino busca patrones estadísticos que se imitan la forma en que también escribimos los humanos.
A medida que la IA se vuelve más sofisticada, sus resultados se asemejan cada vez más a la escritura humana. Esto hace obsoletas las métricas en las que confían los detectores. Si realmente quisiéramos tener una herramienta que detectara si un estudiante escribió un documento con la ayuda de la IA, las universidades tendrían que registrar previamente el estilo de escritura de cada estudiante y acumular una especie de “huella” de referencia. Pero además de ser técnicamente complejo, plantea dilemas éticos y de privacidad. Requeriría almacenar grandes volúmenes de textos personales a lo largo del tiempo. También implicaría asumir que el estilo de escritura de un estudiante es fijo, cuando en realidad evoluciona con la práctica y la experiencia.
Esto nos lleva a replantear la verdadera pregunta: si nunca podremos estar seguros de si un documento fue escrito con IA, ¿tiene sentido seguir intentando descubrirlo? Tal vez como profesores deberíamos dejar de obsesionarnos con tratar de identificar textos generados por ChatGPT y enfocarnos más en el proceso que en el resultado. Una tarea debe retar a los estudiantes a pensar, a demostrar que comprendieron y, sobre todo, a aplicar lo aprendido en situaciones nuevas.
Por supuesto, esto también abre un dilema real: la IA puede fomentar dependencia, atrofiar la memoria y simplificar en exceso el aprendizaje. Pero también puede enseñar a los estudiantes a dialogar con la tecnología, a cuestionarla y a moldearla en lugar de simplemente hacer un copy-paste. El verdadero reto no es atrapar a estos estudiantes que buscaron un camino rápido para hacer sus tareas, sino rediseñar las clases para que el valor no esté en entregar un texto final, sino en mostrar cómo se llegó a él.
Al menos en el mediano plazo, ninguna plataforma podrá decirnos con certeza si un artículo fue hecho con IA sin afectar la privacidad de los estudiantes. Lo que sí podemos saber es algo más importante: si aprendieron a pensar. Tal vez el verdadero aprendizaje no está en entregar una tarea “pura”, sino en mostrar cómo se llegó al resultado. Al final, más que tratar de atrapar a nuestros estudiantes, nuestra tarea como profesor es acompañar a los estudiantes a desarrollar una mente curiosa, crítica y capaz de dialogar con la tecnología.
Sobre el autor
Hugo López Alvarez es profesor en el Departamento de Mercadotecnia y Director de Plataformas Web y Evolución Digital en la Universidad de las Américas Puebla. Cuenta con más 20 años de experiencia en el área de Tecnología de Información y 10 años en mercadotecnia digital. En los últimos años, ha centrado sus esfuerzos en impulsar la transformación digital de empresas e instituciones. Contacto: hugo.lopez@udlap.mx.
