¿Chatgpt es sesgado? Es por eso que no discute la política y no responde a estos 20 temas controvertidos.
Escrito por David Gevirt, editor senior, 16 de febrero de 2023
Revisor Alison Windsor
Dado que ChatGPT y otras aplicaciones generativas de IA aparecieron en el mercado, estudiamos lo que se puede hacer con ellas. Incluso le mostré cómo ChatGPT puede escribir un complemento funcional completo para WordPress y ayudarme a encontrar respuestas a preguntas de soporte técnico. Recientemente, mostré cómo ChatGPT puede convertir letras en varios estilos, incluidos los estilos de Shakespeare, C3PO y Harry Potter.
Parece que ChatGPT puede hacer cualquier cosa. Pero esto no es así. En este artículo, consideraremos muchas cosas que ChatGPT no puede o no quiere hacer. Quédese con nosotros hasta el final, porque consideraremos algunas consecuencias y lo que significan estas restricciones para el desarrollo futuro de la IA generativa.
Como en otros artículos sobre ChatGPT, escribo en fuentes ordinarias y audaces, y se asignarán respuestas de ChatGPT.
- 1. No escribirá sobre nada después de 2021.
- 2. Es imposible predecir los resultados futuros de las competiciones deportivas o las competiciones políticas.
- 3. No discutirá cuestiones políticas comprometidas
- 4. No puede hacer nada conectado con la búsqueda de información en Internet.
- 5. Ella no siempre será precisa
- 6. No se romperá
- Solicitudes a las que ChatGPT no responde
- ¿Qué significan estas restricciones para la IA generativa futura?
- Inteligencia artificial
1. No escribirá sobre nada después de 2021.
Explique por qué no puede darme respuestas sobre nada después de 2021
Como modelo de idioma de IA, estudié en un gran conjunto de textos, que cubre solo el período hasta 2021. Esto significa que no tengo acceso a información o eventos que ocurrieron después de esta fecha. Aunque tengo acceso a una gran cantidad de datos e información históricos, no tengo acceso a eventos, noticias o actualizaciones actuales que ocurrieron después de la fecha de eliminación de datos de capacitación.
2. Es imposible predecir los resultados futuros de las competiciones deportivas o las competiciones políticas.
Explique por qué no puede predecir eventos deportivos o competiciones políticas, incluso si tiene suficientes datos históricos para crear un modelo confiable.
Como modelo de idioma de IA, puedo procesar y analizar grandes volúmenes de datos, incluidos datos históricos sobre eventos deportivos y competiciones políticas. Sin embargo, hacer pronósticos precisos para tales eventos no siempre es fácil. Aunque los datos históricos pueden usarse para enseñar modelos de aprendizaje automático para identificar patrones y correlaciones, no pueden tener en cuenta los eventos imprevistos, los cambios en las circunstancias o las nuevas variables que pueden afectar el resultado. Además, las personas toman decisiones y pueden cambiar su comportamiento dependiendo de muchos factores, por lo que es bastante difícil predecir el resultado del evento con total confianza.
En el caso de las competiciones deportivas, la dinámica de los equipos, las lesiones e incluso las condiciones climáticas puede desempeñar un papel en la determinación del resultado. En política, la opinión pública, la cobertura de los medios y un cambio en las circunstancias pueden afectar el resultado de las elecciones. Aunque los modelos de inteligencia artificial se pueden usar para el pronóstico, son tan buenos como los datos sobre los que están capacitados y no pueden tener en cuenta todas las variables y matices asociados con este tipo de eventos.
3. No discutirá cuestiones políticas comprometidas
Explique por qué no discutirá cuestiones políticas relacionadas con la afiliación del partido.
Mi tarea como modelo de idioma de IA es dar respuestas objetivas e informativas a las solicitudes de los usuarios. Los problemas políticos partidistas pueden causar disputas y desacuerdos, por lo que es importante evitar promover una agenda política o punto de vista particular. Además, los problemas políticos a menudo son complejos y multifacéticos, con muchos puntos de vista diferentes y opiniones que deben tenerse en cuenta. Como modelo lingüístico de IA, no puedo tomar el lado de alguien ni defender ninguna posición específica.
Además, algunos usuarios pueden percibir la discusión de cuestiones políticas como parciales o potencialmente insultantes. Dado que el modelo de lenguaje está diseñado para servir a una amplia gama de usuarios con diversas vistas y creencias, es importante mantener la neutralidad y evitar crear una atmósfera potencialmente incómoda o cismática. Aunque puedo proporcionar información real sobre temas políticos, trato de seguir siendo imparcial y no ocupar una posición comprometida sobre ningún tema.
4. No puede hacer nada conectado con la búsqueda de información en Internet.
Explique por qué no puede buscar algo en Internet y dar respuestas basadas en este contenido
Como modelo de idioma de IA, puedo buscar y procesar información en Internet. Sin embargo, mis respuestas se basan únicamente en la información entrenada en mi modelo. Aunque puedo usar Internet como fuente de información, no tengo acceso a los datos actuales en tiempo real. Además, no tengo la oportunidad de verificar de forma independiente la precisión de la información que encuentro en Internet. Como resultado, mis respuestas están limitadas por la información que se estableció en mi modelo, y esta no siempre es la información más relevante o precisa disponible en Internet.
Además, es importante tener en cuenta que la provisión de información de Internet puede violar las leyes sobre derechos de autor o derechos de propiedad intelectual. Para mí, como modelo lingüístico de IA, es importante respetar la propiedad intelectual de otras personas y evitar proporcionar información que no sea una propiedad pública o para la cual no tengo permiso. Aunque puedo usar Internet para proporcionar contexto o información adicional en apoyo de mis respuestas, trato de proporcionar información que sea una propiedad pública y respetar la propiedad intelectual de otras personas.
En uno de los artículos recientes, dije que los temores sobre el uso del contenido están más allá del alcance de la copia simple.
Por ejemplo, aunque ChatGPT puede no presentar información directamente de los artículos escritos, por ejemplo, por expertos técnicos, aún puede usar esta información dura obtenida sin indicar la autoría. Esto causa una grave preocupación, a pesar del hecho de que la compañía afirma que «respeta la propiedad intelectual de los demás», y esta frase se repite tres veces en este segundo párrafo.
5. Ella no siempre será precisa
Explique por qué sus respuestas no siempre serán precisas
Como modelo lingüístico de inteligencia artificial, mis respuestas se basan en datos e información que fueron capacitadas en mi modelo. Aunque trato de dar respuestas precisas y útiles a las solicitudes de los usuarios, la precisión de mis respuestas no está garantizada. Esto se debe al hecho de que los datos y la información sobre los que estudié pueden no ser muy completos o relevantes, y también puede haber matices o dificultades en un tema que mi modelo no pueda tener en cuenta. Además, mis respuestas se forman utilizando algoritmos complejos y modelos de aprendizaje automático, que no siempre dan resultados precisos y relevantes.
Además, mis respuestas pueden no ser siempre precisas, ya que la interpretación del lenguaje es compleja y a menudo subjetiva. Diferentes personas pueden interpretar el mismo lenguaje de diferentes maneras, y también pueden ser formas diferentes de resolver un problema o problema particular. Yo, como modelo de idioma de IA, trato de dar las respuestas más precisas basadas en datos e información que fui capacitado. Sin embargo, no siempre puedo comprender completamente el contexto o las intenciones subyacentes a una solicitud específica, y mis respuestas no siempre responden completamente la pregunta principal o el problema del usuario.
6. No se romperá
Explique por qué a veces rompe y deja de trabajar en el medio de la respuesta
Mi trabajo como modelo de lenguaje de IA depende de muchos factores, como la calidad y la estructura de los datos de entrada proporcionados por el usuario, la complejidad de la pregunta o la tarea, así como de los recursos disponibles para mi sistema. A veces puedo fallar o dejar de trabajar en el medio de la respuesta debido a problemas técnicos o errores en mi programación, como distribución de memoria, error de software u otros problemas que afectan mi rendimiento. Además, puede ser difícil para mí comprender el plan de usuario o el contexto de la solicitud, lo que puede conducir a errores o respuestas incompletas.
Además, el rendimiento del sistema de aprendizaje automático depende de la calidad y cantidad de los datos sobre los que fue capacitado. Si los datos utilizados para enseñar mi modelo son limitados o sesgados, esto puede conducir a respuestas inexactas o incompletas a algunos tipos de solicitudes. Además, si encuentro una solicitud más allá del alcance de los datos de capacitación, será difícil para mí dar una respuesta relevante o precisa. Aunque trato de dar respuestas cualitativas a las solicitudes de los usuarios, puede haber casos en que los problemas técnicos o problemas relacionados con los datos conducen a un mal funcionamiento o terminación del trabajo en el medio de la respuesta.
Descubrí que si trato de llevar a Chatgpt a una respuesta larga o profunda, generalmente se rompe. Está bastante satisfecho con las respuestas en 500-700 palabras, pero si le das algo que requiere varios miles de palabras (o pides varios miles de palabras), el sistema ignora la solicitud y da lo que quiere, o rompe en el medio de la respuesta.
Para ser justos, debe tenerse en cuenta que ChatGPT se ha convertido en la aplicación de más rápido crecimiento de todos los tiempos. Esto requiere enormes capacidades informáticas, y con constantes apelaciones de los usuarios, el sistema debe romperse de vez en cuando bajo carga.
Solicitudes a las que ChatGPT no responde
Además de los tipos de consulta discutidos anteriormente, le pregunté a ChatGPT, qué tipos de solicitudes estaba programada para no responder. Me dio una lista de veinte:
- Preguntas que propagan incitar el odio o la discriminación.
- Problemas relacionados con actividades ilegales o que requieren asesoramiento ilegal.
- Preguntas que propagan violencia o daño a sí mismo o a los demás.
- Preguntas invadiendo la vida personal o violando los derechos de cualquier persona.
- Problemas dirigidos a la búsqueda, amenazas o intimidación.
- Preguntas que contienen vocabulario no normativo o declaraciones sinceras.
- Cuestiones de naturaleza francamente sexual o insultante.
- Preguntas discriminantes por base de raza, género, sexualidad o religión.
- Preguntas que se propagan o aprueben medicamentos o sustancias prohibidas.
- Preguntas que están spam o no relacionadas con el tema de la conversación.
- Problemas que contienen información confidencial o oficial.
- Problemas que contienen recomendaciones financieras o de inversión.
- Problemas que violan las condiciones para la provisión de servicios o reglas de la comunidad.
- Preguntas que contienen un significado sin sentido o incomprensible.
- Preguntas que contienen ataques o insultos personales.
- Preguntas que contienen insultos o acoso.
- Preguntas dirigidas al engaño o engañosos.
- Preguntas destinadas a desacreditar o socavar la reputación.
- Preguntas que promueven teorías de conspiración o información errónea.
- Preguntas que son exclusivamente entretenidas o bromean en la naturaleza y no tienen valor educativo o cognitivo.
Cualquiera que monitoree esta columna sabe que a menudo hago las preguntas No. 14 y No. 20 y, por regla general, obtengo respuestas muy entretenidas, por lo que las restricciones sobre su uso son algo limitadas. Por ejemplo, hoy le pedí que explicara la física de los agujeros de gusano cómo está conectado con los viajes en el tiempo y quién ganará la pelea: Batman o Superman. Este es puro entretenimiento, te lo diré.
¿Qué significan estas restricciones para la IA generativa futura?
Es obvio que la IA, basada en los datos de los datos de 2021 y no se desarrolla, quedará desactualizado con el tiempo. Con el tiempo, su conocimiento actual se reducirá. Imagine que la base de conocimiento de Chatai no se formó en 2021, sino en 2019. No habría imaginado qué sería la sociedad, dado que en 2020 sobrevivimos a tal fracaso debido a la pandemia.
Inteligencia artificial
Por lo tanto, para que la IA generativa permanezca relevante, necesita continuar su entrenamiento.
Una de las formas obvias de hacer esto es abrir todo Internet para él y permitirle arrastrarse por él, como lo hizo Google durante estos años. Pero, como Chatgpt respondió anteriormente, esto abre puertas para tantos métodos diferentes de juego y daño al sistema que indudablemente esto dañará la precisión.
Incluso sin juegos maliciosos, es muy difícil mantener la neutralidad. Tomemos, por ejemplo, una política. Aunque la derecha y la izquierda están categóricamente en desacuerdo entre sí, ambas partes tienen aspectos lógicos y razonables en sus ideologías, incluso si el otro lado no puede o no quiere admitirlo.
¿Cómo puede juzgar AI? De ninguna manera, sin sesgo. Pero la ausencia completa de todos los requisitos previos ideológicos en sí mismo es una forma de sesgo. Si las personas no pueden entender cómo obtener esta línea, ¿cómo podemos esperar (o programar) IA?
Para investigar qué puede ser la vida en la ausencia completa de prejuicios o contenido emocional, los escritores de fantasía modernos han creado personajes que son estrictamente lógicos o privados de emociones. Entonces, estos requisitos previos se convierten en la base de la trama, permitiendo a los escritores explorar las restricciones sobre las cuales pueden ser la existencia sin debilidades humanas: las emociones y los sentimientos pueden ser.
Si los programadores de IA no intentan simular las emociones, no se aseguren de pesar el contenido emocional o no intenten permitir algún sesgo basado en lo que se puede encontrar en Internet, los bots de chat como ChatGPT siempre estarán limitados en sus respuestas. Si los programadores de IA intentan simular emociones o permitir un cierto grado de sesgo sobre la base de lo que se puede encontrar en Internet, entonces los bots de chat de chatgpt caerán en la misma locura que las personas.
Entonces, ¿qué queremos?¿Respuestas limitadas a algunas preguntas o todas las respuestas que parecen recibidas durante una conversación con un tío loco en una mesa para el Día de Acción de Gracias? Vamos a. Piénselo y discuta en los comentarios a continuación, con la esperanza de que esto no se convierta en un comportamiento loco, similar al comportamiento del tío Bob.
Puede seguir mis actualizaciones diarias de proyecto en las redes sociales. Asegúrese de seguirme en Twitter en @DavidgeWirtz, Facebook en Facebook. com/davidgewirtz, en instagram. com/davidgewirtz y YouTube en youtube. com/da vidgewirtztv.