Sin palabra clave

Realice la inteligencia artificial Aut o-auxilio y mejore: elija cursos en línea en el catálogo del curso de aprendizaje automático.

Primero, describiré las limitaciones de ChatGPT:

  • No sabe nada de lo que sucedió después de 2021, ya que está capacitado en una enorme base de datos con datos actualizados hasta 2021. Para que la red neuronal obtenga datos en tiempo real de Internet, puede instalar el Bing basado en ChatGPTExtensión AI en el navegador Microsoft Edge.
  • ChatGPT está entrenado en datos de muchos idiomas, pero la cantidad de texto en inglés en los tutoriales es mucho mayor. Para mejores respuestas, es mejor tener un diálogo en inglés y luego traducir la respuesta con un traductor.
  • ChatGPT tiene un límite en el número de tokens (palabras o caracteres) en una solicitud o respuesta. Depende de la versión utilizada: 4000 tokens para chatgpt-3. 5 y 8000 tokens para chatgpt-4.
  • Si ha intercambiado demasiado conocimiento durante un diálogo con la IA, es mejor comenzar un nuevo chat para que las respuestas posteriores no se corrompan.
  • La mayoría de las veces chatgpt está ocupado debido a mucho tráfico, tendrá que esperar para obtener una respuesta. Si no hay tiempo para esperar, puede conectar la suscripción premium.

Técnica de impulso de disparo

Las indicaciones para la IA varían en complejidad: desde una frase o una pregunta hasta un texto que consta de varios párrafos. Cuanto menos esfuerzo haga para formular un mensaje de ChatGPT, menos esfuerzo se pone la IA. La provisión de «disparo cero» a menudo conduce a resultados insatisfactorios porque la IA tiene que tomar demasiadas decisiones.

Solicitud de disparo cero: este es el tipo de incitación que la IA usa como un mecanismo autocompletado, lo que significa que el modelo tiene completa libertad de acción. En este caso, no debe esperar una respuesta clara y estructurada.

Un tiro que solicita: le das a la IA un ejemplo del resultado deseado. La solicitud de una sola vez se utiliza para crear un texto del lenguaje natural con una cantidad limitada de datos de entrada, como un solo ejemplo o una plantilla. Este tipo de indicación es útil si necesita un formato de respuesta específico.

Pocas tomas de disparo es una técnica en la que el modelo recibe un pequeño número de ejemplos, generalmente de dos a cinco, para adaptarse rápidamente a nuevos ejemplos de objetos previamente vistos.

Solicitar alucinaciones

Uno de los mayores problemas con los sistemas de IA generativos son las alucinaciones. Este término se utiliza para el fenómeno donde una red neuronal produce resultados que no coinciden con la realidad, algunos datos u otro patrón identificable. La mayoría de las veces, la IA comienza a alucinar cuando carece de suficiente información para responder a su consulta.

¿Qué otras razones están detrás de las alucinaciones de IA?

Naturaleza probabilística. Los modelos generativos como GPT se basan en métodos probabilísticos que predicen el siguiente token, es decir, una palabra o carácter en una secuencia dado el contexto. Estiman la probabilidad de ocurrencia de cada palabra y seleccionan la siguiente en función de estas probabilidades.

Este proceso de muestreo a veces puede conducir a conclusiones impredecibles e inverosímiles, ya que el modelo puede seleccionar palabras o frases menos probables, lo que resulta en una alucinación. ChatGPT no está entrenado para decir «No sé» cuando carece de información. En cambio, genera la respuesta más probable.

Falta de información confiable. La mayoría de los modelos de idiomas que utilizamos no tienen la capacidad de verificar los hechos en su salida con una fuente verificada en tiempo real porque no tienen acceso a Internet. Esto dificulta que los modelos verifiquen la información contra la realidad.

Complejidad del modelo. Los modelos generativos modernos como GPT-3 tienen miles de millones de parámetros que los hacen capaces de capturar patrones complejos en los datos. Sin embargo, esta complejidad también puede conducir a un sobreajuste y recordar patrones irrelevantes o falsos, causando alucinaciones en las respuestas generadas.

La IA puede crear alucinaciones convincentes y realistas que pueden engañar a las personas y conducir a la difusión de información falsa.

Los principales métodos para contrarrestar las alucinaciones del sistema están relacionados con la ingeniería de referencia, asignando un rol de IA, proporcionando contexto y limitaciones, especificando el tono de voz, etc. Sin embargo, para tareas complejas, tales métodos pueden no ser suficientes. Entonces puede recurrir a una estructura más compleja de sugerencias, por ejemplo, un árbol de pensamientos (árbol de pensamientos).

Método de trabajo: Árbol de pensamientos (Tot)

El método TOT funciona de la siguiente manera: el problema original se descompone en componentes que el sistema mismo descubre y analiza, es decir, el modelo desglosa el proceso de resolución de problemas en una serie de pasos o «pensamientos» más pequeños, haciéndolos más manejables.

Trabajar en cada componente es un paso intermedio para resolver el problema complejo original. Este enfoque permite que la red neuronal considere varias rutas diferentes de razonamiento o enfoques para resolver un problema.

Un ejemplo es un PROMT en el que tres expertos razonan sobre un problema, comparten sus pensamientos y encuentran la opción más óptima. Es mejor activar el método TOT en inglés. La pregunta es «¿Dónde empiezo a construir una startup basada en AI?».

Parece que el proceso de razonamiento del modelo comienza como de costumbre, pero en el curso del pensamiento, el modelo sopesan los pros y los contras de cada una de sus declaraciones y proporciona información adicional basada en su propia experiencia.

Luego, el segundo experto entra en la conversación y continúa respondiendo a la pregunta principal, también basada en el razonamiento del experto anterior.

El razonamiento continuará hasta que el modelo encuentre la variante más óptima para la respuesta final.

Después de considerar la pregunta de todos los lados y discutir cada paso en detalle, el modelo llega a una conclusión general que ayuda a finalizar la información obtenida durante el pensamiento. La estructura del árbol de pensamiento está diseñada para empoderar y abordar los desafíos de los modelos de lenguaje al permitir una toma de decisiones más flexible y estratégica.

Foto de portada e ilustraciones del autor

¡Suscríbase a nuestro canal Telegram para mantenerse al día con las últimas noticias y eventos!

Chat GPT: red neuronal en español. servicio online en españa