Las escuelas deben obligar a los estudiantes a llevar a cabo algunos cursos «en el aula bajo control directo», dijeron las comisiones de examen, en medio de temores de que los estudiantes engañen en el proceso de aprendizaje. Recientemente, los descubrimientos en el campo de la inteligencia artificial, como ChatGPT, han causado temores de que los jóvenes puedan usarlos para obtener altas evaluaciones. El programa puede crear obras escritas y otros materiales, como documentos de término o ensayos, prácticamente no distinguibles de los humanos. El Consejo Unido para Calificaciones (JCQ), que representa las principales comisiones de examen de Gran Bretaña, publicó un liderazgo para maestros y expertos en «proteger la integridad de las calificaciones» en el contexto del uso de la IA. Las escuelas deben informar a los estudiantes sobre los riesgos de utilizar la inteligencia artificial y las posibles consecuencias de su aplicación «inapropiada» en la evaluación, dice el liderazgo.
Según las comisiones de examen, los estudiantes deben llevar a cabo algunos cursos «en la clase bajo control directo», en medio de temores de que los estudiantes estén engañando en el proceso de aprendizaje (imagen de stock)
- En los próximos años, hasta el 80% de los lugares de trabajo pueden verse influenciados por la inteligencia artificial, similar a ChatGPT, advierte el estudio – Leer más
- Breves hechos sobre chatgpt: lo que necesita saber
- El odio de Elon a la inteligencia artificial se explica: el multimillonario cree que se convertirá en un presagio del fin de la humanidad, y comparte el temor de Stephen Hawking
En los próximos años, hasta el 80% de los lugares de trabajo pueden verse influenciados por la inteligencia artificial, similar a ChatGPT, advierte el estudio – Leer más
Los sistemas de IA similares de chatgpt afectarán al 80 por ciento de los empleos en los Estados Unidos, y en primer lugar, afectará a consultores financieros y corredores, aseguradores y especialistas en procesamiento de datos personales
Publicidad
También dice: «Los estudiantes que abusan de la IA de tal manera que su trabajo, presentado en la evaluación, no es suyo, práctica sin escrúpulos de acuerdo con las reglas JCQ y puede ser sometida a sanciones graves». Los expertos advierten que las escuelas pueden tener que pasar a una opción de evaluación más «tradicional» en forma de exámenes, no cursos para garantizar que el trabajo realizado sea su propio trabajo del estudiante. Daisy Christodoulou, directora de educación, no más marcado, que una vez fue llamado la «estudiante más brillante de Gran Bretaña», dijo que los maestros apenas se distinguen por un breve ensayo escrito por estudiantes de octavo grado de Chatgpt. Hablando en el Comité de Ciencia y Tecnologías de la Comunidad, dijo: «Le preguntamos a nuestros maestros cuándo los evaluaron, si pueden notarlos (respuestas de ChatGPT), y básicamente no podían», dijo. Es más probable que elijan un ensayo escrito por un niño real y dicen que fue escrito en ChatGPT. «Por lo tanto, escribe muy buenas obras que son muy difíciles de detectar». Sé que estos fueron solo ocho niños de año, pero vamos a repetir esto con estudiantes mayores «. Cuando se le preguntó si esta tecnología significa que las escuelas tendrán que introducir exámenes y examen más intensos, ella respondió:» Sí, sí, «Sí, creo que sí, y creo que debería ser así».
Recientemente, los avances en el campo de la inteligencia artificial, como ChatGPT, han causado temores de que los jóvenes puedan usarlos para obtener evaluaciones más altas.
Breves hechos sobre chatgpt: lo que necesita saber
- Este es un chatbot construido sobre la base de un modelo de lenguaje grande, capaz de emitir un texto humanoide y comprender las solicitudes complejas.
- Lanzado el 30 de noviembre de 2022
- Para enero de 2023, tenía 100 millones de usuarios, más rápido que Tiktok o Instagram.
- La compañía que lo creó es OpenAi
- Operai recibió inversiones de Microsoft por un monto de $ 10 mil millones.
- Otras «grandes tecnologías», como Google, tienen sus propios competidores, por ejemplo, Bardo de Google
Publicidad
Creo que la apariencia de ChatGPT significa que cualquiera de estas evaluaciones en condiciones no controladas simplemente lo coloca en una situación en la que no sabe si el trabajo fue realizado por un estudiante o no. Por lo tanto, creo que los exámenes son necesarios «.
“Realmente necesitamos mirar cuidadosamente cómo evaluamos, y creo que ChatGPT es de gran importancia para los cursos con una evaluación continua. Creo que es muy difícil imaginar cómo continuará «.
Creo que algunas personas que toman decisiones no entienden cuán poderoso es el chatGPT: es capaz de crear respuestas originales, muy difíciles de detectar y de calidad relativamente alta a cualquier pregunta.
No serán perfectos, pero serán lo suficientemente buenos para muchos estudiantes. Y creo que esto significa que las calificaciones incontroladas, cuando no estás seguro de cómo el estudiante creó este trabajo, se vuelve muy, muy problemático «.
Por lo tanto, creo que debemos pensar que hay un valor en realizar exámenes y exámenes tradicionales cuando sabe que este es su propio trabajo y su propio pensamiento «.
‘Es muy, muy difícil detectar ChatGPT’. Tareas.
Rose Luckin, profesora del Departamento de Diseño, centrada en los estudiantes, University College of London, no está de acuerdo con esta opinión.
«Los exámenes causan estrés, no dan resultados precisos, están desactualizados y no son parte del proceso educativo», dijo a los miembros del Parlamento.
No necesitamos estos exámenes finales «.
Hablando más tarde, el maestro de ciencias naturales Joel Kenyon de la escuela secundaria de los Dormers Wells en Sautolá dijo: «No creo que alguna vez aprendas la cantidad de personas que usan este sistema».
En cuanto al riesgo de formación de estudiantes, es relativamente pequeño en mi tema, pero principalmente debido al hecho de que enseño, y porque se evalúa porque evalúa el examen ”.
‘No tienen acceso a todo esto (chatgpt). Y las evaluaciones que pongo en las lecciones, y las preguntas que hago en las lecciones también son inaccesibles para ellas «.
«Creo que los elementos basados en documentos a término sufrirán mucho más».
El Dr. Matthew Glanville, jefe del Departamento de Principios y Práctica de evaluar el pregrado internacional, agregó: «Esto tendrá un impacto mucho mayor en algunas áreas de los cursos».
El odio de Elon a la inteligencia artificial se explica: el multimillonario cree que se convertirá en un presagio del fin de la humanidad, y comparte el temor de Stephen Hawking
Elon Musk busca llevar la tecnología al límite absoluto, desde vuelos espaciales hasta autos autogobinadores, pero pone fin a la inteligencia artificial.
Por primera vez, el multimillonario expresó su rechazo a la inteligencia artificial en 2014, llamándolo la «amenaza existencial más grande» con la humanidad y comparándolo con el «desafío del demonio».
Luego, Musk dijo que invierte en empresas involucradas en el desarrollo de la inteligencia artificial, no para ganar dinero, sino para monitorear el desarrollo de la tecnología en caso de que se salga de control.
Su principal temor es que con el enfoque incorrecto, si AI se vuelve más perfecto, puede adelantar a una persona y poner fin a la humanidad, que se llama «singularidad».
Esta preocupación es compartida por muchas mentes sobresalientes, incluido el difunto Stephen Hawking, quien en 2014 dijo en una entrevista con BBC: «El desarrollo de la inteligencia artificial completa puede significar el final de la raza humana.
Él despegará por sí solo y se rehacerá a una velocidad cada vez mayor «.
A pesar de su miedo a la inteligencia artificial, Musk invirtió fondos en el grupo indirecto con sede en San Francisco, en Deepmind, que posteriormente fue adquirido por Google y en OpenAI, creando un programa de chatgpt popular, que ha capturado el mundo entero en los últimos meses.
En una entrevista con 2016, Musk señaló que él y OpenAi crearon una compañía para «democratizar las tecnologías de IA para que sean ampliamente accesibles».
Musk fundó Openai, junto con Sam Altman, director general de la compañía, pero en 2018 el multimillonario trató de obtener el control sobre la startup.
Su solicitud fue rechazada, lo que lo obligó a abandonar Openai y continuar trabajando en otros proyectos.
En noviembre, Operai lanzó ChatGPT, que instantáneamente comenzó a disfrutar del éxito en todo el mundo.
ChatBot utiliza un «modelo de lenguaje grande» para el autopruebo, explorando una gran cantidad de datos de texto para aprender a generar un texto humano terriblemente similar en respuesta a una solicitud determinada.
ChatGPT se utiliza para escribir documentos científicos, libros, artículos de noticias, correos electrónicos, etc.
Pero mientras Altman se calienta en los rayos de la gloria, Musk ataca a Chatgpt.
Afirma que esta IA está «anticuada» y se desvía de la misión inicial sin fines de lucro de OpenAI.
Operai fue creado como una empresa de código abierto (por lo que la llamé «abierto» ai) para servir como un contrapeso de Google, pero ahora se ha convertido en una compañía cerrada con una ganancia máxima que realmente está controlada por Microsoft «, Musks», Musk escribió en su febrero en su propio Twitter.
El término «singularidad» está ganando impulso en todo el mundo, ya que la inteligencia artificial se desarrolla como sucede solo en la ciencia ficción, pero ¿qué significa realmente?
En pocas palabras, esta es una descripción del futuro hipotético en el que la tecnología superará la inteligencia humana y cambiará el camino de nuestra evolución.
Según los expertos, cuando la IA llegará a este punto, podrá introducir innovaciones mucho más rápido que una persona.
Hay dos opciones para el desarrollo de eventos, la primera de las cuales conducirá al hecho de que las personas y los automóviles trabajarán juntos, creando un mundo que es más adecuado para la humanidad.
Por ejemplo, las personas podrán escanear su conciencia y almacenarla en una computadora en la que vivirán para siempre.
El segundo escenario es que la IA se volverá más poderosa de lo que una persona tomará el control de las personas y los convertirá en sus esclavos, pero si esto sucede, entonces en un futuro lejano.
Actualmente, los investigadores buscan signos del logro de la «singularidad» de la IA, por ejemplo, la capacidad de la tecnología para traducir el habla con la precisión de una persona y cumplir con las tareas más rápido.
El ex ingeniero de Google, Ray Kurzweil, predice que esto sucederá para 2045.
Desde principios de la década de 1990, realizó 147 pronósticos con respecto al desarrollo de la tecnología, y el 86% de ellos resultó ser cierto.