Dos profesores, que, según ellos, atraparon a los estudiantes en la escritura del ensayo usando chatgpt, explican por qué el plagio usando inteligencia artificial es difícil de demostrar

Sobre de icono de correo electrónico. Significa la posibilidad de enviar correo electrónico.

La flecha curva de «compartir» dirigida a la derecha.
Twitter ícono pájaro estilizado con boca abierta, escribiendo un tweet.

El icono Twitter vincula la palabra «in».

LinkedIn Fliboard Icon Letter Stylized F.

Flipboard Facebook Icon Letter F.

Facebook E-Mail Icon Sobre. Indica la posibilidad de enviar un correo electrónico.

Imagen de icono de enlace de correo electrónico de un enlace de cadena. Simboliza el sitio web de URL del sitio web.

Imagen de un teléfono con el chat ChatGPT y el logo de OpenAI.

Comprar ahora

  • Dos profesores filósofos dijeron que atraparon a sus estudiantes sobre el hecho de que aprobaron los ensayos escritos en ChatGPT.
  • Según ellos, ciertas «banderas rojas» les advirtieron sobre el uso de la inteligencia artificial.
  • Si los estudiantes no admiten el uso del programa, entonces, según los profesores, esto puede ser difícil de probar.

Insider recomienda despertarse con la cerveza matutina, el correo diario.

La carga de algo se está cargando.
¡Gracias por firmar!
Obtenga acceso a sus temas favoritos en una cinta personalizada cuando esté en camino. Descargar aplicación

Unas semanas después del lanzamiento del chatgpt ii-thatt, Darren Hick, profesor de filosofía de la Universidad de Furman, dijo que había encontrado un estudiante por aprobar un ensayo generado por AI.

Según Hik, tenía sospechas cuando el estudiante envió un ensayo sobre un tema determinado que contenía una información errónea bien escrita.

Después de verificarlo utilizando el detector de chatgpt de Open AI, recibió los resultados según los cuales, con una probabilidad del 99% del ensayo, fue generado por inteligencia artificial.

Antoni Aumann, maestra de estudios religiosos y filosofía en la Universidad del Norte de Michigan, le dijo a Insider que logró atrapar a dos estudiantes que enviaron un ensayo escrito por ChatGPT.

Después de que el estilo de escritura causó una alarma, Aumann los envió de regreso al chatbot, preguntando qué tan probable es que el programa escribiera. Cuando Chatbot respondió que estaba 99% seguro de que el ensayo fue escrito por ChatGPT, envió los resultados a los estudiantes.

Según Hik y Aumann, tuvieron una conversación con sus alumnos, y todos finalmente admitieron que violaron. La estudiante Hika no pasó, y Aumann obligó a sus alumnos a reescribir los ensayos desde cero.

«Se escribió realmente incorrectamente un ensayo».

En el ensayo, se descubrieron algunas «señales alarmantes» que llevaron a los maestros a pensar en usar inteligencia artificial. Según Hik, los ensayos que encontró dieron referencias a varios hechos que no se mencionaron en el aula, y se hizo una declaración ridícula.

«Palabra por palabra, fue un ensayo bien escrito», dijo, pero luego de una inspección más cercana, una de las afirmaciones sobre el prolífico filósofo David Hume «no tenía sentido» y era «simplemente categóricamente incorrecta».

«Un error muy bien escrito fue la mayor bandera roja», dijo.

Según Aumann, el chatbot es simplemente demasiado bueno para escribir.»Creo que el chat escribe mejor que el 95% de mis alumnos», dijo.

“De repente, una persona que no demuestra la capacidad de pensar o escribir a este nivel escribe algo que se ajusta perfectamente a todos los requisitos, con una gramática compleja y pensamientos complejos que están directamente relacionados con la tarea del ensayo”, dijo.

Christopher Barthel, profesor de filosofía en la Universidad Estatal de los Apalaches, dice que si bien la gramática en los ensayos generados por IA es casi perfecta, el contenido tiende a carecer de detalles.

Él dijo: «Son muy esponjosos. No tienen contexto, ni profundidad, ni perspicacia».

Difícil de probar el plagio

Si los estudiantes no admiten el uso de inteligencia artificial para escribir ensayos, esto puede poner a los científicos en una posición difícil.

Según Barthel, las reglas de algunas instituciones educativas no fueron diseñadas para hacer frente a este tipo de fraude. Si un estudiante elige silenciar el caso y negar el uso de IA, esto puede ser difícil de probar.

Barthel señaló que los detectores de IA propuestos son «buenos, pero no perfectos».

«Ofrecen un análisis estadístico de la probabilidad de que un texto sea generado por IA, y eso nos coloca en una posición difícil si nuestras políticas están estructuradas de tal manera que tenemos que tener pruebas definitivas y demostrables de que el escrito es falso». , dijo. .“Si, como resultado de la verificación, resulta que con una probabilidad del 95 % el ensayo fue generado por inteligencia artificial, entonces todavía hay un 5 % de posibilidades de que no sea así”.

En el caso de Hick, a pesar de que el descubridor del sitio afirmó que estaba «99% seguro» de que el ensayo fue generado por inteligencia artificial, dijo que sin admitirlo no era suficiente para él.

«La confesión fue importante porque todo lo demás parece evidencia circunstancial», dijo.»En el caso del contenido generado por IA, no hay evidencia tangible, y la evidencia tangible tiene mucho más peso que la evidencia circunstancial».

Aumann señaló que, si bien cree que el análisis del chatbot es evidencia lo suficientemente sólida como para tomar medidas disciplinarias, el plagio generado por IA sigue siendo un problema nuevo para las universidades.

Él dijo: “A diferencia de los viejos casos de plagio en los que simplemente podías decir: ‘Oye, aquí hay un párrafo de Wikipedia’.

Chat GPT: red neuronal en español. servicio online en españa