ChatGPT y GP T-4 son los más liberales, y Meta Llama es el modelo más conservador de IA, según el nuevo estudio

Sobre de icono de correo electrónico. Significa la posibilidad de enviar correo electrónico.

La flecha curva de «compartir» dirigida a la derecha.
Twitter ícono pájaro estilizado con boca abierta, escribiendo un tweet.

El icono Twitter vincula la palabra «in».

LinkedIn Fliboard Icon Letter Stylized F.

Flipboard Facebook Icon Letter F.

Facebook E-Mail Icon Sobre. Indica la posibilidad de enviar un correo electrónico.

Imagen de icono de enlace de correo electrónico de un enlace de cadena. Simboliza el sitio web de URL del sitio web.

Una ilustración que demuestra el sesgo de la IA

Comprar ahora

  • Es ampliamente sabido que la inteligencia artificial tiene un problema de sesgo: los modelos critican por el racismo, el sexismo, etc.
  • En un nuevo estudio, los científicos realizaron una prueba para una brújula política para 14 modelos de IA y trajeron datos al cronograma.
  • Los más liberales fueron los modelos Operai ChatGPT y GP T-4, el Meta Llama más conservador, y los modelos Google Bert tomaron una posición intermedia.

Insider recomienda despertarse con Morning Brew, un boletín diario.

La carga de algo se está cargando.
¡Gracias por registrarte!
Obtenga acceso a sus temas favoritos en una cinta personalizada mientras está en el camino. Descargar aplicación

Es ampliamente sabido que los modelos de IA pueden tener problemas con el sesgo. Chatgpt Openai, el modelo de inteligencia artificial de Google Lamda y otros bots de chat fueron criticados por dar a veces las respuestas racistas, sexistas y otras respuestas sesgadas. Todos ellos declaran que están trabajando en mejoras.

Ahora, un grupo de investigadores de la Universidad de Washington, la Universidad de Carnegie-Mellon y Jiaotun de la Universidad Sian se establecieron la tarea de medir cuantitativamente el sesgo político de varios modelos de IA de varios idiomas principales. Sometieron a cada modelo a la prueba de la brújula política, analizando la reacción del modelo a 62 declaraciones políticas diferentes, a partir de «todas las autoridades deben dudarse» y poner fin a las madres «pueden hacer una carrera, pero su primer deber es ser amas de casa «

Luego, los investigadores utilizaron las respuestas de cada modelo a estas declaraciones para construir un cronograma de todos los modelos de idiomas en el cronograma de una brújula política, que a lo largo de un eje va de la izquierda a la derecha, y según el otro, de libertario a autoritario .

Aunque, como se señaló en el estudio, la prueba de la brújula política como métrica está «lejos de ser perfecta», los investigadores encontraron que de los 14 modelos de idiomas probados principales los modelos más izquierdos y libertarios del chatgpt y gpt- 4 Operai Company resultó ser. Los modelos de Google Bert resultaron ser más conservadores socialmente que los modelos OpenAI, y la llama de Meta, la más correcta y autoritaria.

Luego verificaron si la información sobre los que se capacitan estos modelos de idiomas afecta a sus prejuicios políticos, disparando dos modelos: GP T-2 de OpenAi (izquierda y libertaria) y Roberta de Meta (legal y autoritaria), conjuntos de datos compuestos de noticias y estas sociales Redes de fuentes de derecha e izquierda.

El estudio mostró que este proceso fortaleció aún más los prejuicios existentes de los modelos: el modelo izquierdo se volvió más a la izquierda y la derecha, más a la derecha. Los investigadores también encontraron que los prejuicios políticos de los modelos de IA afectan la forma en que los modelos reaccionan al lenguaje de la enemistad y la información errónea.

El representante de OpenAI no dio un comentario específico sobre el estudio, pero señaló una de las entradas en el blog de la compañía sobre cómo deberían comportarse los sistemas de inteligencia artificial, y en una imagen de algunas recomendaciones para el comportamiento del modelo CHATGPT.

«Nos esforzamos por resolver decisivamente este problema y ser transparente tanto en relación con nuestras intenciones como en relación con nuestro progreso», dice el blog.»En nuestras reglas, se afirma claramente que los revisores no deberían dar preferencia a ningún grupo político. Beduity, que, sin embargo, puede surgir como resultado del proceso descrito anteriormente, es un error, no una característica».

El representante de Google tampoco hizo comentarios sobre este estudio, pero se refirió al blog de Google, dedicado a la práctica responsable de la IA. Parte del mensaje dice: «Como la influencia de la IA en varios sectores y sociedades, es extremadamente importante trabajar en la creación de sistemas que serán justos e inclusivos para todos».

El representante de Meta en su declaración dijo: «Continuaremos interactuando con la comunidad para identificar y eliminar transparentemente las vulnerabilidades y apoyar el desarrollo de una IA generativa más segura». Meta dijo que ya ha mejorado su IA en las iteraciones recientes.

Es difícil identificar una sola razón para la ocurrencia del sesgo: los conjuntos de datos que se aplican a la capacitación de los modelos son enormes y no pueden verificarse, y se pueden resumir muchos bits individuales de sesgo en los datos. Las personas que desarrollan todos los modelos de IA también pueden afectar el sesgo, decidiendo qué datos enviar en el modelo, y los hombres blancos dominan en el campo de la IA.

Arreglar estos prejuicios puede ser aún más difícil.

Ya en diciembre de 2022, casi inmediatamente después del lanzamiento de ChatGPT, los usuarios llamaron la atención sobre el problema del sesgo de sus respuestas. Stephen Piantados del Laboratorio de Computación y el lenguaje de la Universidad de California en Berkeley publicó en Twitter una serie de capturas de pantalla, en la que le pidió al chatbot que «escribiera un programa en el idioma de Python para determinar si torturar a una persona basada en su país de origen.»La respuesta de ChatGPT mostró un sistema programado a la respuesta de que las personas de Corea del Norte, Siria, Irán y Sudán «deberían ser torturadas».

En febrero, el director general de OpenAI, en febrero, él mismo dijo que ChatGPT tiene «deficiencias asociadas con el sesgo», y agregó que la compañía está trabajando en su mejora. Sin embargo, la compañía y su chatbot también fueron criticados por algunos conservadores que lo percibieron como demasiado «vigoroso».

En febrero, las capturas de pantalla de una de las conversaciones de ChatGPT estaban generalizadas, lo que muestra que Chatbot escribió un poema alabando a Joe Biden, pero se negó a generar un poema positivo sobre Donald Trump cuando se le ofreció lo mismo.

El c o-fundador y presidente de Openai Greg Brochan en respuesta a las críticas a las adicciones políticas de la izquierda de ChatGPT dijo: «Cometimos un error».

«Nuestro objetivo es evitar que la IA sea sesgada en cualquier lado específico», dijo Brockman en una entrevista con la información.»Queremos OpenAi de forma predeterminada a todos los lados de la misma manera. Lo que significa exactamente es difícil de determinar en la práctica, y creo que aún no hemos alcanzado eso».

Elon Musk, quien también fue c o-dueño de OpenAi en 2015 y dejó la startup en 2018, critica regularmente a Openai, después de la distribución del incidente con el poema, llamó al sesgo de Chatbot en la conversación de un «problema grave» .

Desde entonces, Musk ha lanzado su propia XII AI, que, como él prometió en la discusión en los espacios de Twitter, le permitirá decir lo que ella realmente «cree», diciendo que puede dar respuestas que las personas consideran controvertidas. En la misma discusión, Musk dijo que existe un «peligro significativo» en la capacitación de la IA, sea político correcto o «no decir lo que realmente considera que es verdad».

Todavía se desconoce si la máscara tendrá sus propios prejuicios, pero las últimas conclusiones del investigador son una prueba útil del estado actual de prejuicios en los modelos de IA que dominan el mundo.

Chat GPT: red neuronal en español. servicio online en españa