AI Acusaciones, Crisis Mental: Falsas Acusaciones y Ruina Académica

El auge de la inteligencia artificial ha desatado una ola de preocupaciones sobre la integridad académica en la educación superior. A medida que las universidades lidian con el potencial de trabajos generados por IA, existe un riesgo creciente de acusaciones falsas contra estudiantes, lo que conlleva graves consecuencias como la pérdida de becas y el deterioro de la salud mental. Este artículo explora las experiencias de estudiantes injustamente acusados de usar IA para hacer trampa, los desafíos de probar la inocencia y la necesidad de políticas más claras y enfoques más matizados para la detección de IA en la educación.

Marley Stevens, estudiante de la Universidad de North Georgia, enfrentó una experiencia devastadora cuando fue acusada de usar IA para hacer trampa, lo que le acarreó importantes repercusiones en su rendimiento académico y su salud mental. Este incidente pone de manifiesto una preocupación creciente entre los estudiantes que son falsamente acusados de mala conducta relacionada con la IA.

El núcleo del problema surgió del uso que Stevens hizo de Grammarly, una herramienta de corrección ortográfica que utiliza IA. A pesar de que la universidad incluyó a Grammarly como un recurso recomendado, su profesor le puso una nota de suspenso y la acusó de deshonestidad académica. Esto condujo a la libertad condicional académica y a la pérdida de su beca, lo que afectó significativamente a su GPA. Las consecuencias se extendieron más allá de lo académico, ya que la experiencia exacerbó su ansiedad preexistente y su afección cardíaca crónica, lo que provocó una caída en picado de su salud mental. Informó que sufría insomnio, dificultad para concentrarse y sentimientos de impotencia.

El auge de herramientas impulsadas por IA como ChatGPT ha impulsado a las universidades a implementar software de detección de IA para combatir la deshonestidad académica. Sin embargo, esto ha provocado, de forma inadvertida, un aumento de las falsas acusaciones, y estudiantes como Stevens están sufriendo las consecuencias de las detecciones inexactas.

Lucie Vágnerová, consultora educativa, ha visto un aumento de los casos de mala conducta relacionados con la IA, y un número creciente de clientes informan de falsos positivos. Estas falsas acusaciones pueden tener graves consecuencias, como la pérdida de becas, problemas de visado para estudiantes internacionales y un estrés importante. Los casos pueden tardar semanas o meses en resolverse y, en casos extremos, los estudiantes se han enfrentado a acusaciones de plagio incluso después de graduarse, lo que aumenta la presión. Vágnerová hace hincapié en la prevalencia de la ansiedad entre los estudiantes que se enfrentan a estas situaciones, y muchos informan de problemas con la alimentación y el sueño.

Las limitaciones del software de detección de IA se ilustran aún más con el caso de varios estudiantes de último curso de la Universidad de Texas A&M–Commerce, a quienes se les denegó temporalmente el título después de que un instructor acusara a toda una clase de usar ChatGPT. La conclusión del profesor se basó en la ejecución del trabajo de los estudiantes a través del propio ChatGPT, lo que, según los expertos, es un método poco fiable para detectar la escritura generada por IA.

Los desafíos que enfrentan los estudiantes para defenderse de estas acusaciones se ven agravados por las barreras financieras y logísticas para buscar ayuda externa.

Maggie Seabolt, estudiante universitaria de primera generación en la Universidad Liberty, experimentó esto de primera mano cuando su trabajo fue marcado por un 35% de contenido generado por IA. A pesar de haber escrito el trabajo ella misma en Microsoft Word, se sintió sola y no estaba segura de cómo demostrar su inocencia. Aunque su profesor no tomó medidas disciplinarias formales, perdió el 20% de su nota.

El artículo destaca la importancia de que las universidades tengan políticas claras sobre el uso de la IA y las limitaciones de las herramientas de detección actuales. La Universidad Liberty, por ejemplo, no prohíbe las ayudas de escritura de IA, pero aclara que los estudiantes no deben usar la IA parafraseando extensamente o generando nueva escritura.

Turnitin, una popular herramienta de detección de IA, es conocida por producir una mayor incidencia de falsos positivos cuando el porcentaje de escritura generada por IA es bajo. La propia empresa aconseja no utilizar su modelo de detección como única base para las acciones disciplinarias, haciendo hincapié en la importancia de que los educadores tengan en cuenta el estilo de escritura de un estudiante y entablen un diálogo abierto.

La Universidad de North Georgia, aunque no puede discutir los detalles del caso de Stevens debido a las leyes de privacidad, compartió su política de integridad académica, que incluye directrices sobre IA y plagio. Grammarly, en respuesta a la situación de Stevens, donó a su GoFundMe y la invitó a hablar en una conferencia sobre innovación en IA e integridad académica. También han lanzado una nueva función, Authorship, diseñada para abordar los falsos positivos de las herramientas de detección de IA.

El artículo hace hincapié en los problemas inherentes a la confianza exclusiva en los detectores de IA para determinar la integridad académica.

El software de detección de IA está diseñado para identificar patrones de “explosividad” y “perplejidad” en la escritura, que pueden interpretarse erróneamente como contenido generado por IA. Sin embargo, estas herramientas se dejan engañar fácilmente por las variaciones en la ortografía, el uso de símbolos y el espaciado, lo que las hace poco fiables para fines disciplinarios.

Expertos como Casey Fiesler, investigador en ética de la tecnología, advierten que tomar decisiones sobre la integridad académica basándose únicamente en los detectores de IA es irresponsable debido a sus sesgos sistemáticos. El riesgo de falsos positivos es demasiado alto y es difícil para los estudiantes defenderse de un algoritmo defectuoso.

El rápido desarrollo de la IA ha superado la capacidad de las universidades para crear e implementar políticas estandarizadas, lo que ha provocado incoherencias entre las instituciones e incluso dentro de los departamentos.

El estudio EDUCAUSE AI Landscape de 2024 reveló que casi la mitad de los líderes, profesores y personal de educación superior están en desacuerdo o muy en desacuerdo con que sus instituciones tengan directrices adecuadas para el uso de la IA. Solo un pequeño porcentaje cree que sus políticas de ciberseguridad y privacidad son adecuadas para abordar los riesgos relacionados con la IA.

Jenay Robert, investigadora principal de Educause, hace hincapié en la necesidad de políticas de IA que equilibren la estandarización y la personalización para dar cabida a las diferencias disciplinarias y a la autonomía de los profesores.

Kathryn Conrad, profesora de inglés de la Universidad de Kansas, subraya la importancia de que los educadores comprendan las diferencias entre las herramientas de detección de IA y las herramientas de detección de plagio. Recomienda que los profesores expongan explícitamente las directrices sobre IA en sus cursos para evitar confusiones.

El artículo concluye con consejos prácticos para los estudiantes acusados de usar IA para hacer trampas.

Los estudiantes deben ser conscientes de las políticas de IA de su curso para evitar falsas acusaciones.

Un registro en papel del trabajo, incluidos los borradores guardados en software de escritura como Google Docs o Microsoft Word, puede ayudar a demostrar la originalidad de su trabajo. La utilización de recursos como las horas de oficina y los servicios de escritura de la universidad también puede ayudar. Los estudiantes también pueden tomar proactivamente capturas de pantalla del historial de búsqueda en Internet para documentar su proceso de investigación.

El abogado defensor de estudiantes Richard Asselta aconseja a los estudiantes que mantengan la calma, busquen apoyo de personas de confianza y sigan correctamente el proceso de mala conducta académica de su escuela. Subraya la importancia de evitar respuestas apresuradas que puedan ser malinterpretadas.

El auge de las herramientas de detección de IA en la educación está generando falsas acusaciones contra estudiantes, afectando negativamente su salud mental, rendimiento académico e incluso becas. Estas herramientas son a menudo poco fiables, sesgadas y carecen de estandarización, creando un ambiente estresante y confuso. Políticas de IA más claras, el diálogo entre estudiantes y profesores, y la confianza en procesos de trabajo demostrables son cruciales. Prioricemos la comprensión sobre la acusación y garanticemos la equidad en la era de la IA.

Comments

Leave a Reply

Your email address will not be published. Required fields are marked *