Sobre de icono de correo electrónico. Indica la capacidad de enviar un correo electrónico.
Compartir icono Una flecha curva que apunta hacia la derecha.
Icono de Twitter Un pájaro estilizado con la boca abierta tuiteando.
Twitter Icono de LinkedIn La palabra «en».
Icono de Fliboard de LinkedIn estilizado F.
Flipboard Facebook Icono Letra F.
Sobre de icono de correo electrónico de Facebook. Indica que se puede enviar un correo electrónico.
Icono de enlace de correo electrónico Una imagen de un enlace de cadena. Simboliza la URL de un sitio web.
Usar ahora
- Tal vez ChatGPT esté engañando a la gente para que piense que es más inteligente de lo que realmente es.
- Los investigadores han descubierto que los programadores a menudo prefieren las respuestas de ChatGPT (incorrectas) a las preguntas de codificación.
- En su opinión, esto se debe a que ChatGPT suena «claro».
Insider recomienda despertarse con Morning Brew, un boletín diario.
Cargando Algo se está cargando.
Gracias por registrarte!
Acceda a sus temas favoritos en un feed personalizado cuando esté en movimiento. descargar aplicación
Parece que ChatGPT ha logrado convencer a la gente de que es inteligente. Pero, ¿y si, de hecho, los engaña para que lo hagan?
El chatbot, creado por OpenAI, ha cambiado la sociedad desde su presentación en noviembre, apareciendo con frecuencia en conversaciones sobre ganancias con los directores ejecutivos e interrumpiendo todo, desde la educación hasta las industrias creativas.
Pero una preimpresión publicada este mes sugiere que ChatGPT tiene un pequeño truco para convencer a la gente de que es inteligente: un enfoque peculiar de «estilo sobre sustancia».
Investigadores de la Universidad de Purdue analizaron las respuestas de ChatGPT a 517 preguntas publicadas en Stack Overflow, un sitio de preguntas y respuestas para desarrolladores e ingenieros.
Después de evaluar las respuestas del bot en cuanto a «corrección, consistencia, integridad y concisión», los investigadores encontraron que el 52 % de las respuestas estaban completamente equivocadas y el 77 % eran prolijas.
Otra investigación mostró que los usuarios de ChatGPT prefieren sus respuestas a las preguntas sobre las respuestas humanas en Stack Overflow el 40% del tiempo, a pesar de todos los errores que produce.
«Cuando se les preguntó por qué preferían las respuestas de ChatGPT, incluso si eran incorrectas, los participantes sugirieron que la razón de su preferencia era la integridad y la articulación de las estructuras del lenguaje de las respuestas», señala el estudio.
Una reserva: solo 12 programadores participaron en este análisis de usuarios, a quienes se les pidió que evaluaran si prefieren ChatGPT o respuestas escritas por personas para apilar desbordamiento para 2000 preguntas seleccionadas al azar. Pero OpenAi advirtió que el bot podría escribir «respuestas de sonido creíble, pero incorrecta o sin sentido».
Operai no respondió a la solicitud de Insider para comentar sobre los resultados del estudio en horas que no funcionan.
Según lo informado por Insider, Alistair Barr y Adam Rogers, Stack Overflow se convirtió en un ejemplo de lo que Elon Musk llamó «Death From LLM»: en abril, un mes después de que OpenAi lanzó su modelo premium del GPT-4, la asistencia del sitio cayó 13 % en comparación con el año pasado.
Las conclusiones hechas en la Universidad de Perdiu siguen la investigación de científicos de Stanford y la Universidad de California en Berkeley, lo que indica que los modelos de idiomas grandes se están volviendo más estúpidos.
La velocidad con la que ChatGPT parece haberse introducido en Internet sin mucha atención, causó ansiedad e irritación entre los especialistas en ética de IA y programadores.
En respuesta al estudio de Purdue, un científico informático y experto en IA Timin Goebra escribió en Twitter de la siguiente manera: «Es genial que el desbordamiento de la pila sea destruido por OpenAI +Friends».