Sin kevordo

Ellos, como todos los demás desarrolladores de IA, descubrieron que esto es imposible.

El desarrollo de cualquier cosa, software o no, requiere un compromiso y elección, una elección política, con respecto a para quién trabajará el sistema y cuyos valores representará.

En este caso, la respuesta obviamente es «no muy lejos». Por supuesto, no sé si un resultado «en bruto» similar del trabajo de ChatGPT o el resultado de la intervención de los desarrolladores que intentaron prevenir la situación con Tay [cuando Chatbot con la inteligencia artificial de Microsoft cambió a la posición de superioridad de la raza blanca], pero en cualquier caso era necesario tomar decisiones y, como está claro por las quejas, estas decisiones tienen valores políticos, lo cual es inevitable y necesario «.

Este es un ejemplo de por qué expertos como Kiz y Arthur Holland Michelle, investigadora senior del Consejo Carnegie sobre Ética y Relaciones Internacionales, han sido alarmantes sobre el sesgo de los sistemas de inteligencia artificial durante varios años.

El gobierno de los Estados Unidos, que ha abogado repetidamente por la introducción de sistemas de reconocimiento de personas en lugares como aeropuertos y la frontera sur, incluso reconoció el sesgo racial inherente a tales tecnologías en 2019.

Según Michel, la discusión del sesgo político ant i-conservador del chatbot puede distraer de otras discusiones sobre el sesgo de los sistemas de inteligencia artificial existentes, como el sesgo en el reconocimiento de las personas, de los cuales los negros sufren en gran medida, agregó.

Según él, estos sistemas ayudan a la policía a identificar a las personas y decidir a quién arrestar y acusar a delitos, y hubo muchos ejemplos cuando el reconocimiento de personas reveló hombres negros inocentes.

No creo que esta sea una buena noticia para la discusión sobre el sesgo de estos sistemas ”, dijo Michelle a la publicación.

Creo que esto puede distraer de problemas reales relacionados con este sistema, lo que puede ser propenso a dañar sistemáticamente a ciertos grupos, especialmente aquellos que están históricamente en una posición desfavorable. Todo lo que distrae de esto, en mi opinión, es problemático «.

Tanto Kiz como Michelle también señalaron que las discusiones sobre el atributo de chatgpt «despierto» atribuyen más autoridad de la bott de la que realmente existe.

Es muy difícil mantener una discusión tranquila cuando se trata de algo que tiene todas estas asociaciones emocionales y psicológicas, como inevitablemente le está sucediendo a la IA ”, dijo Michelle.

Es fácil antropomorfluir el sistema y decir: «Bueno, la IA tiene adicciones políticas».

Esto sugiere principalmente que las personas no entienden cómo [funciona el aprendizaje automático] o cómo funciona la política ”, dijo Kis.

Keys continuó afirmando que es imposible que los bots sean «valores neutrales» como si «el mundo no fuera político».

«En mi opinión, esto sugiere que la gente todavía no entiende que la política es un factor fundamental en la creación de cualquier cosa y es imposible evitarlo», dijo.

En este caso, parece una forma deliberada y deliberada de ignorancia: creer que la tecnología puede ser apolítica es muy conveniente para las personas en posiciones de poder, ya que les permite creer que los sistemas con los que están de acuerdo funcionan de la manera en que lo hacen. «Así es como funciona el mundo».

Chat GPT: red neuronal en español. servicio online en españa