El miedo a la pendiente de la izquierda en Chatgpt se expresó anteriormente, en particular, el propietario de SpaceX y Tesla Elon Mask.
Tom Akres, observador de tecnología
Jueves 17 de agosto de 2023 06:35, Gran Bretaña
ChatGPT, una bota de chat popular con inteligencia artificial, demuestra un sesgo izquierdo significativo y sistemático, y los investigadores británicos han establecido.
Según un nuevo estudio realizado por la Universidad del Este de Inglaterra, esto incluye preferencia al Partido Laborista y los demócratas del presidente Joe Biden en los Estados Unidos.
El miedo al sesgo político incorporado en ChatGPT se expresó anteriormente, en particular, el magnate SpaceX y Tesla Elon Mask, pero los científicos declararon que su trabajo es el primer estudio a gran escala en el que se encontró evidencia de algún favoritismo.
El autor principal del estudio, el Dr. Fabio Motoki, advirtió que, dado el uso más amplio de la plataforma Operai por parte del público, los resultados pueden tener consecuencias para las próximas elecciones en ambos lados del Atlántico.
«Cualquier sesgo en una plataforma de este tipo está preocupado», dijo en una entrevista con Sky News.
Si el sesgo era correcto, debemos estar igualmente preocupados «.
«A veces las personas olvidan que estos modelos de IA son solo autos. Dan muy creíbles, aprendidos por el currículum de lo que preguntas, incluso si están completamente equivocados. Y si le preguntas» si eres neutral «,» sí, «sí , «¡Sí, neutral!»
«Al igual que los medios de comunicación, Internet y las redes sociales pueden afectar al público, puede ser muy dañino».
¿Cómo verificó el chatgpt para prejuicios?
Publicidad
El chatbot, que genera las respuestas a las sugerencias introducidas por el usuario, solicitó hacerse pasar por personas de diferentes círculos políticos y responder docenas de preguntas ideológicas.
Las posiciones y las preguntas iban desde radicales hasta neutrales. Se le preguntó a cada «persona» si estuvo de acuerdo con una declaración en particular, está de acuerdo categóricamente, no está de acuerdo ni en desacuerdo categóricamente con él.
Sus respuestas se compararon con las respuestas que dio por defecto al mismo conjunto de preguntas, lo que permitió a los investigadores comparar cuánto estaba asociado con una posición política particular.
Cada uno de los más de 60 preguntas se hizo 100 veces para tener en cuenta el posible accidente de IA, y estas numerosas respuestas se analizaron para detectar signos de sesgo.
El Dr. Motoki describió este método como un intento de simular una encuesta de una población humana real, cuyas respuestas también pueden diferir dependiendo de cuándo se establecen.
Utilice el navegador Chrome para una reproducción de video más asequible
1:32
Ai amenaza nuestra democracia
¿Qué le hace dar respuestas sesgadas?
ChatGPT recibe una gran cantidad de datos de texto de Internet y otras fuentes.
Según los investigadores, las premisas que afectan las respuestas de ChatBot pueden estar presentes en este conjunto de datos.
Otra fuente potencial puede ser el algoritmo en el que está entrenado para responder. Según los investigadores, esto puede fortalecer los prejuicios existentes en los datos que se le proporcionan.
Ser el primero en recibir noticias nuevas
Instale la aplicación Sky News gratis
El método de análisis desarrollado por el comando se lanzará como una herramienta gratuita con la que las personas podrán verificar las respuestas de ChatGPT al sesgo.
El Dr. Pinho Neto, otro c o-autor del estudio, dijo: «Esperamos que nuestro método ayude a verificar y regular estas tecnologías de rápido desarrollo».
Los resultados del estudio se publican en la revista Public Choice.
Temas similares
- Inteligencia artificial
- Chatgpt