Los profesores dicen que los programas capaces de escribir cursos de estudiantes competentes amenazan la integridad académica
dom 19 mar 2023 07.00 GMT
Un artículo académico titulado Chatear y hacer trampa: garantizar la integridad académica en la era de ChatGPT fue publicado este mes en una revista de educación, describiendo cómo inteligencia artificial Las herramientas de IA “plantean una serie de desafíos y preocupaciones, particularmente en relación con la honestidad académica y el plagio”.
Lo que los lectores, y de hecho los revisores pares que aprobaron su publicación, no sabían que el artículo en sí había sido escrito por la controvertida IA. chatbot ChatGPT.
“Queríamos demostrar que ChatGPT está escribiendo a un nivel muy alto”, dijo la profesora Debby Cotton, directora de prácticas académicas de la Universidad de Plymouth Marjon, quien fingió ser la autora principal del artículo. “Esta es una carrera armamentista”, dijo. “La tecnología está mejorando muy rápido y va a ser difícil para las universidades superarla”.
Cotton, junto con dos colegas de la Universidad de Plymouth que también afirmaron ser coautores, avisaron a los editores de la revista Innovaciones en Educación y Enseñanza Internacional. Pero los cuatro académicos que lo revisaron por pares asumieron que fue escrito por estos tres académicos.
Durante años, las universidades han estado tratando de desterrar la plaga de molinos de ensayo vender ensayos preescritos y otros trabajos académicos a cualquier estudiante que intente engañar al sistema. Pero ahora los académicos sospechan que incluso las fábricas de ensayos están usando ChatGPT, y las instituciones admiten que están compitiendo para alcanzar, y atrapar, a cualquiera que haga pasar el trabajo del popular chatbot como propio.
El Observador ha hablado con varias universidades que dicen que planean expulsar a los estudiantes que son sorprendidos usando el software.
Thomas Lancaster, científico informático y experto en trampas por contrato en el Imperial College London, dijo que muchas universidades estaban “en pánico”.
“Si todo lo que tenemos frente a nosotros es un documento escrito, es increíblemente difícil demostrar que ha sido escrito por una máquina, porque el estándar de escritura suele ser bueno”, dijo. “El uso del inglés y la calidad de la gramática suelen ser mejores que los de un estudiante”.
Lancaster advirtió que la última versión del modelo de IA, ChatGPT-4que se lanzó la semana pasada, estaba destinado a ser mucho mejor y capaz de escribir de una manera que se sintiera “más humana”.
No obstante, dijo que los académicos aún pueden buscar pistas de que un estudiante haya usado ChatGPT. Quizás el mayor de ellos es que no comprende correctamente las referencias académicas, una parte vital del trabajo universitario escrito, y a menudo usa referencias “sospechosas” o las inventa por completo.
Cotton dijo que para asegurarse de que su artículo académico engañara a los revisores, se tuvieron que cambiar y agregar referencias.
Lancaster pensó que ChatGPT, que fue creado por la empresa de tecnología OpenAI con sede en San Francisco, “probablemente haría un buen trabajo con tareas anteriores” en un curso de grado, pero advirtió que al final los decepcionaría. “A medida que su curso se vuelva más especializado, será mucho más difícil externalizar el trabajo a una máquina”, dijo. “No creo que pueda escribir toda tu disertación”.
La Universidad de Bristol es una de varias instituciones académicas que ha emitido una nueva guía para el personal sobre cómo detectar que un estudiante ha usado ChatGPT para hacer trampa. Esto podría conducir a la expulsión de los infractores reincidentes.
La profesora Kate Whittington, vicerrectora profesional asociada de la universidad, dijo: “No es un caso de una ofensa y estás fuera. Pero tenemos muy claro que no aceptaremos hacer trampa porque necesitamos mantener los estándares”.
Agregó: “Si hace trampa para obtener un título, puede obtener un trabajo inicial, pero no lo hará bien y su carrera no progresará de la manera que desea”.
Irene Glendinning, directora de integridad académica de la Universidad de Coventry, dijo: “Estamos redoblando nuestros esfuerzos para transmitir el mensaje a los estudiantes de que si usan estas herramientas para hacer trampa, pueden retirarse”.
Cualquier persona atrapada tendría que recibir capacitación sobre el uso apropiado de la IA. Si continuaban haciendo trampa, la universidad los expulsaría. “Mis colegas ya están encontrando casos y lidiando con ellos. No sabemos cuántos nos faltan, pero estamos recogiendo casos”, dijo.
Glendinning instó a los académicos a estar atentos al lenguaje que un estudiante normalmente no usaría. “Si no puede escuchar la voz de su estudiante, eso es una advertencia”, dijo. Otro se contenta con “muchos hechos y poca crítica”.
Ella dijo que los estudiantes que no pueden detectar las debilidades en lo que produce el bot pueden cometer errores. “En mi materia de informática, las herramientas de IA pueden generar código, pero a menudo contienen errores”, explicó. “No puedes depurar un programa de computadora a menos que comprendas los conceptos básicos de la programación”.
Con tarifas de £ 9,250 al año, los estudiantes solo se engañaban a sí mismos, dijo Glendinning. “Están desperdiciando su dinero y su tiempo si no usan la universidad para aprender”.
{{arriba a la izquierda}}
{{abajo a la izquierda}}
{{parte superior derecha}}
{{abajo a la derecha}}
{{/corazón}}
{{título}}
{{#párrafos}}
{{.}}
{{/párrafos}}{{texto resaltado}}
{{#choiceCards}}{{/choiceCards}}