¿Cómo funciona el chatgpt?

Actualizado: estamos profundamente sumidos en el dispositivo interno del popular chatbot chatgpt con inteligencia artificial. Si quieres saber cómo ocurre la magia AI generativa, sigue leyendo.

David-Gewirtz

Autor: David Gevirtz, editor senior, 13 de julio de 2023
Preparado por Alison Windsor

Una persona sostiene un teléfono con un chatgpt abierto en sus manos

Google, Wolfram Alpha y ChatGPT interactúan con los usuarios a través de un campo de una sola línea para ingresar el texto y dar resultados de texto. Google devuelve los resultados de búsqueda: una lista de páginas web y artículos que, como puede esperar, contienen información relacionada con las consultas de búsqueda. Wolfram Alpha generalmente proporciona respuestas relacionadas con matemáticas y análisis de datos.

ChatGPT, por el contrario, emite una respuesta basada en el contexto y las intenciones del usuario. Por ejemplo, no puede pedirle a Google que escriba un artículo o solicite a Wolfram Alpha que escriba un módulo de código, pero ChatGPT puede hacer tales cosas.

De hecho, la Fuerza de Google es la capacidad de buscar en grandes bases de datos y emitir una serie de coincidencias. El poder de Wolfram Alpha es la capacidad de analizar los problemas relacionados con los datos y realizar cálculos basados ​​en ellos. La fuerza de ChatGPT es la capacidad de analizar solicitudes y emitir respuestas y resultados detallados basados ​​en la mayoría de la información textual disponible en forma digital, al menos la que existía al momento de la capacitación hasta 2021.

En este artículo, consideraremos cómo ChatGPT puede dar respuestas detalladas. Para empezar, consideraremos las principales etapas de ChatGPT, y luego nos deteneremos en algunos componentes de la arquitectura de inteligencia artificial, asegurando su trabajo.

Además de las fuentes dadas en este artículo (muchas de las cuales son trabajos de investigación originales que subyacen a cada una de las tecnologías), utilicé ChatGPT para crear este material de referencia. Le hice muchas preguntas. Algunas respuestas se parafrasean en el contexto general de esta discusión.

Dos fases principales de chatgpt

Usemos la analogía con Google nuevamente. Cuando le pide a Google que encuentre algo, probablemente sepa que en el momento de la solicitud no va a buscar una respuesta en todo Internet. En cambio, Google está buscando una página en su base de datos correspondiente a esta solicitud. El trabajo efectivo de Google consta de dos etapas principales: la fase de búsqueda y recopilación de datos y la fase de interacción del usuario y la búsqueda.

En términos generales, ChatGPT funciona de manera similar. La etapa de recopilación de datos se llama entrenamiento preliminar, y se llama a la etapa de evaluar la reacción del usuario. La magia de la IA generativa y la razón de su explosión repentina radica en el hecho de que el método de entrenamiento preliminar resultó ser extremadamente escalable. Esta escalabilidad se hizo posible gracias a las últimas innovaciones en el campo de las tecnologías de hardware disponibles y la computación en la nube.

Cómo funciona el entrenamiento preliminar la IA

Si decimos en general (porque los detalles requerirían grandes volúmenes), entonces el entrenamiento preliminar se lleva a cabo de acuerdo con dos enfoques principales: controlado y no controlado. En la mayoría de los proyectos de IA, antes de la aparición de sistemas de IA generativos modernos, como ChatGPT, se utilizó un enfoque con control.

El entrenamiento preliminar con el control es un proceso en el que el modelo estudia en el conjunto de datos marcados, donde cada entrada corresponde a la salida correspondiente.

Por ejemplo, la IA puede ser capacitada sobre la base de conversaciones con clientes en las que las preguntas y quejas del usuario están marcadas con las respuestas correspondientes del representante del servicio de soporte. Para enseñar AI como datos de entrada, preguntas como «¿Cómo puedo soltar mi contraseña?», Y como salida, son respuestas como «Puede soltar su contraseña visitando la página de configuración de la página en nuestro sitio web y siguiendo las sugerencias».

Cuando se acerca con la capacitación controlada, el modelo en su conjunto aprende las funciones de visualización, que pueden mostrar con precisión los datos de entrada para el fin de semana. Este proceso a menudo se usa en las tareas del aprendizaje controlado, como la clasificación, la regresión y el etiquetado de las secuencias.

Como podríamos suponer, la escala de este proceso es limitada. Una persona que enseña el sistema tendrá que ir muy lejos para predecir todas las entradas y salidas. La capacitación puede llevar mucho tiempo y estar limitado desde el punto de vista del conocimiento experto.

Pero, como ya sabemos, ChatGPT tiene muy pocas restricciones de temas. Puede pedirle que escriba un currículum para el personaje de Miles O’Brien de la serie Star Trek, explique la física cuántica, escriba un código, escriba un trabajo de arte corto, compare los estilos de control de los antiguos presidentes estadounidenses.

Es imposible predecir todos los problemas que se preguntarán, por lo que ChatGPT no puede ser entrenado utilizando un modelo de supervisor. En su lugar, ChatGPT utiliza capacitación preliminar sin supervisión, y esta es la característica principal.

La capacitación preliminar sin supervisión es un proceso de enseñar un modelo en los datos en los que cada señal de entrada no está asociada con una salida específica. En cambio, el modelo estudia para estudiar la estructura y los patrones que subyacen a los datos de entrada, sin establecer ninguna tarea específica. Este proceso a menudo se usa en las tareas de aprendizaje sin control, como la agrupación, la detección de anomalías y una disminución en la dimensión. En el contexto del modelado lingüístico, se puede utilizar una capacitación preliminar no controlada para enseñar al modelo a comprender la sintaxis y la semántica del lenguaje natural para que pueda generar un texto coherente y significativo en un contexto conversacional.

Es aquí donde se manifiesta el aparente infinito del conocimiento del chatgpt. Dado que los desarrolladores no necesitan saber qué resultará en la salida y qué está en la entrada, solo tienen que descargar más y más información en el mecanismo de entrenamiento preliminar de ChatGPT, que se llama modelado de transformadores del lenguaje.

Arquitectura del transformador

La arquitectura del transformador es un tipo de red neuronal, que se utiliza para procesar datos en un lenguaje natural. La red neuronal imita el trabajo del cerebro humano, procesando información utilizando capas de nodos interconectados. Imagine una red neuronal como un equipo de hockey: cada jugador tiene su propio papel, pero pasan el disco de un lado a otro entre jugadores con ciertos roles, y todos juntos trabajan para marcar un gol.

La arquitectura del transformador procesa la secuencia de palabras utilizando el «uso aut o-uso» para evaluar la importancia de varias palabras en la secuencia en la preparación de pronósticos. La autoobservación parece que un lector puede recurrir a la oración o párrafo anterior para encontrar el contexto necesario para comprender una nueva palabra en el libro. El transformador considera todas las palabras en la secuencia para comprender el contexto y la conexión entre palabras.

El transformador consta de varias capas, cada una de las cuales tiene varias veces. Las dos subcapas principales son una capa de autohipnosis y una capa directa. La capa de autohipnosis calcula la importancia de cada palabra en la secuencia, y la capa de acción directa aplica transformaciones no lineales a los datos de entrada. Estas capas ayudan al transformador a aprender a comprender la relación entre las palabras en secuencia.

En el proceso de capacitación, el transformador se proporciona datos de entrada, por ejemplo, una propuesta, y se propone hacer un pronóstico basado en estos datos. El modelo se actualiza dependiendo de qué tan bien su pronóstico coincida con el resultado real. Durante este proceso, el transformador aprende a comprender el contexto y la relación entre las palabras en la secuencia, lo que lo convierte en una herramienta poderosa para resolver los problemas de procesar un lenguaje natural, como la traducción y la generación de texto.

Debe recordarse que existen problemas asociados con la posibilidad de crear contenido dañino o sesgado, ya que estos modelos pueden estudiar plantillas y prejuicios presentes en los datos de capacitación. Las empresas que presentan estos modelos están tratando de crear «cercas protectores», pero estas cercas en sí mismas pueden causar problemas. Esto se debe al hecho de que diferentes personas tienen diferentes puntos de vista, y un intento de prevenir un sesgo basado en una escuela de pensamiento puede ser percibido como un sesgo en otra escuela de pensamiento. Esto hace que sea difícil desarrollar un chatbot universal, dada la naturaleza compleja de la sociedad en su conjunto.

Primero discutamos los datos que ingresan al CHATGPT, y luego consideremos la etapa de interacción ChatGPT con el usuario y el lenguaje natural.

Conjuntos de entrenamiento de chatgpt

Se utiliza un gran conjunto de datos para enseñar CHATGPT. ChatGPT se basa en la arquitectura de GPT-3 (genere el transformador 3) previamente capacitado). Es cierto que aquí es necesario hacer una aclaración. La versión gratuita de ChatGPT estudió en CPT-3. Si paga $ 20 por mes por ChatGPT Plus, entonces tiene la oportunidad de utilizar un conjunto de datos de capacitación GPT-3 o un conjunto más extenso de datos GPT-4.

La abreviatura GPT tiene sentido, ¿verdad? Ella es generativa, es decir, genera los resultados, previamente entrenados, es decir, Se basa en todos los datos obtenidos y utiliza la arquitectura del transformador, que pesa datos de texto para comprender el contexto.

El GP T-3 fue capacitado en el conjunto de datos WebText2, una biblioteca que contiene más de 45 datos textuales. Cuando puede comprar un disco duro de 16 tenderos a un precio de menos de 300 dólares, un caso de 45 en línea puede no parecer tan grande. Pero el texto toma mucho menos espacio para el almacenamiento que las fotos o los videos.

Tal volumen de datos permitió estudiar las leyes y relaciones entre las palabras y frases del lenguaje natural en una escala sin precedentes, que es una de las razones de la alta eficiencia del sistema en la formación de respuestas coherentes y contextualmente relevantes. a las solicitudes de usuario.

Aunque ChatGPT se basa en la arquitectura GPT-3, se finalizó en otro conjunto de datos y se optimizó para su uso en modo coloquial. Esto le permite proporcionar una experiencia más personalizada y fascinante para los usuarios que interactúan con él a través del chat.

Por ejemplo, OpenAI (ChatGPT Developers) ha lanzado un conjunto de datos de personalidad, especialmente diseñado para enseñar modelos de IA conversacionales como ChatGPT. Esta base de datos incluye más de 160, 000 diálogo entre dos participantes de amor, a cada uno de los cuales se le asigna a una persona única que describe su biografía, intereses y carácter. Esto permite a ChatGPT aprender cómo generar respuestas, personalizadas y correspondientes al contexto específico de la conversación.

Además de la persona con el personalidad, se utilizaron muchos otros conjuntos de datos relacionados con conversaciones para finalizar el chatGPT. Aquí están algunos ejemplos:

  • Cornell Movie Dialogs Corpus: conjunto de datos que contiene conversaciones entre personajes en el guión de películas. Incluye más de 200, 000 diálogo entre más de 10, 000 pares de grabaciones de películas que cubren varios temas y géneros.
  • Ubuntu Dialogue Corpus: una colección de diálogos de múltiples gravedad entre usuarios que buscan soporte técnico y servicio de soporte comunitario de Ubuntu. Contiene más de 1 millón de diálogo, lo que lo convierte en uno de los conjuntos de datos públicos más grandes para el estudio de los sistemas de diálogo.
  • DailyDialog: una colección de diálogos entre personas sobre diversos temas, desde conversaciones cotidianas hasta discutir problemas sociales. Cada diálogo en el conjunto consta de varias réplicas y está marcado con un conjunto de emociones, estados de ánimo e información sobre el tema.

Además de estos conjuntos de datos, ChatGPT estudió en una gran cantidad de datos no estructurados que se encuentran en Internet, incluidos sitios web, libros y otras fuentes de texto. Esto permitió a ChatGPT estudiar la estructura y los patrones del lenguaje en un sentido más general, que posteriormente puede finalizarse para aplicaciones específicas, como la gestión del diálogo o el análisis del estado de ánimo.

ChatGPT es un modelo separado que fue entrenado utilizando un enfoque similar a la serie GPT, pero con algunas diferencias en los datos de arquitectura y capacitación. ChatGPT tiene 1, 5 mil millones de parámetros, que son menos de 175 mil millones de parámetros GPT-3.

En general, los datos de capacitación utilizados para el ajuste delgado de ChatGPT generalmente se hablan y se seleccionan especialmente de tal manera que incluyen diálogos entre las personas, lo que permite a ChatGPT aprender a generar respuestas naturales e interesantes en el formato de conversación.

Imagine la capacitación de ChatGPT de esta manera: se le envía una gran cantidad de datos, y encuentra de forma independiente patrones y lo comprende. Fue este mecanismo el que permitió que los nuevos sistemas de IA generativos se escalaran tan rápido.

Si bien el trabajo principal del ChatGPT generativo de IA es la capacitación preliminar, también debe poder comprender las preguntas y crear respuestas basadas en todos estos datos. Esto se hace en la etapa de salida, que incluye el procesamiento del lenguaje natural y el control del diálogo.

Pero, ¿qué pasa con la participación de una persona en capacitación preliminar?

A pesar de la escalabilidad inherente a la capacitación preliminar no independiente, hay alguna evidencia de que la asistencia humana podría participar en la preparación de ChatGPT para uso público.

El descubrimiento principal fue el artículo en la revista Time, que describió el uso de marcas de datos en Kenia, ganando de $ 1. 32 a $ 2 por hora. Según el informe de Time, los deberes de estos empleados incluían escaneo de contenido terrible y sexualmente franco en Internet con el objetivo de marcarlo para capacitarlo en ChatGPT.

Otro artículo publicado en el boletín de inteligencia artificial de MartechPost, se dice que el modelo de lenguaje grande fue capacitado utilizando un proceso llamado Reforce de la retroalimentación humana (RLHF). Según el artículo, «el proceso de aprendizaje incluyó una configuración fina del modelo inicial utilizando el aprendizaje controlado, mientras que la gente de los entrenadores desempeñó el papel tanto del usuario como de la asociación de la IA».

Hay algunas sutilezas cuando se trata de lo que significa la palabra «aprendizaje». Según ChatGPT, «OpenAi no usó capacitación y retroalimentación con una persona para mi entrenamiento. En cambio, me entretengo utilizando una combinación de métodos de enseñanza sin refuerzo y refuerzo, como modelado lingüístico, autocodificación y predicción de la secuencia. En la secuencia. En la secuencia. El proceso. Procesé grandes volúmenes de datos de texto de Internet, lo que me permitió estudiar las leyes y relaciones entre palabras y frases «.

AI continúa: “Sin embargo, después de haber aprobado capacitación preliminar, los investigadores y desarrolladores pueden usar capacitación y comentarios de refuerzo con una persona para configurarme con precisión para realizar tareas o dominios específicos, como respuestas a preguntas o generación de texto. En estos casos. Las personas. Puede proporcionar retroalimentación en forma de incentivos o castigos, que pueden usarse para actualizar mis parámetros y aumentar la eficiencia de realizar tareas similares en el futuro «.

Esto es consistente con MarktechPost y el tiempo en que el entrenamiento preliminar inicial no era de Estado, lo que hizo posible ingresar una gran cantidad de datos en el sistema. Pero al construir respuestas del diálogo, con la ayuda de la cual se produce la comunicación con los usuarios (más sobre esto a continuación), los motores, aparentemente, fueron entrenados en ambos tipos de respuestas y el esquema del material inapropiado, y este aprendizaje parecía realizarse con la ayuda de una persona.

Me dirigí a OpenAI (ChatGpt Creator) para una aclaración, pero aún no he recibido una respuesta. Si la empresa me contacta (además de chatgpt), actualizaré el artículo por su respuesta.

Procesar un lenguaje natural

El procesamiento de un lenguaje natural (PNL) está dirigido a las computadoras permitidas para comprender, interpretar y generar lenguaje humano. Debido al crecimiento exponencial en el volumen de datos digitales y al uso cada vez más de las interfaces lingüísticas naturales de PNL, se convierte en la tecnología más importante para muchas empresas.

Las tecnologías de PNL se pueden utilizar para resolver una amplia gama de tareas, incluida el análisis del estado de ánimo, la creación de bots de chat, reconocimiento de voz y traducción. El uso de NLP le permite automatizar tareas, mejorar la calidad del servicio al cliente y obtener información valiosa de las revisiones y mensajes de los clientes en las redes sociales.

Uno de los problemas clave en la implementación de PNL es el trabajo con la complejidad y la ambigüedad del lenguaje humano. Los algoritmos de PNL deben estar entrenados en grandes cantidades de datos para reconocer los patrones y aprender los matices del idioma. Además, deben mejorarse y actualizarse constantemente de acuerdo con los cambios en el uso del lenguaje y el contexto.

La tecnología funciona separando los datos del lenguaje, como oraciones o párrafos, en componentes más pequeños y análisis de sus significados y relaciones para obtener comprensión o respuesta. Las tecnologías de PNL utilizan una combinación de métodos, incluido el modelado estadístico, el aprendizaje automático y la capacitación profunda, para reconocer las leyes y el aprendizaje basados ​​en grandes cantidades de datos para interpretar y generar señales de idiomas con precisión.

Es posible que haya notado que ChatGPT puede hacer preguntas adicionales para aclarar sus intenciones o comprender mejor sus necesidades, y dar en cuenta las respuestas personalizadas teniendo en cuenta el historial completo de la conversación.

Por lo tanto, ChatGPT puede realizar conversaciones de múltiples vueltas con usuarios que se ven naturales y emocionantes. En este caso, los algoritmos y los métodos de aprendizaje automático se utilizan para comprender el contexto de la conversación y apoyarla para varios intercambios con el usuario.

La gestión del diálogo es un aspecto importante del procesamiento de un lenguaje natural, ya que permite que los programas de computadora interactúen con las personas para que sea más como una conversación que una serie de interacciones desechables. Esto puede ayudar a fortalecer la confianza y la participación de los usuarios, lo que finalmente conduce a los mejores resultados tanto para el usuario como para la organización utilizando el programa.

Los especialistas en marketing, por supuesto, quieren expandir las posibilidades de crear confianza, pero esta área también puede ser aterradora, ya que esta es una de las formas en que II puede manipular a las personas que la usan.

Mire desde el interior en el hardware en el que funciona el chatgpt

Recientemente, Microsoft ha lanzado un video que dice cómo se utiliza Azure para crear una red para realizar todos los cálculos y datos de almacenamiento necesarios para ChatGPT. Esta es una vista fascinante, tanto desde el punto de vista de la discusión de Azure, como desde el punto de vista de la arquitectura de la inteligencia artificial en el hardware real.

Y ahora lo sabes.

A pesar del hecho de que cruzamos la marca de 3200 palabras, esta sigue siendo una descripción muy superficial de todo lo que sucede dentro de ChatGPT. Sin embargo, tal vez ahora comprenda mejor por qué esta tecnología ha explotado en los últimos meses. La clave para desentrañar es que los datos en sí mismos no están «controlados», y la inteligencia artificial puede percibir lo que se le informa y comprenderlos.

Bastante sorprendentemente, verdad.

En conclusión, envié un borrador de todo el artículo al CHATGPT y le pedí a la IA que lo describiera en una oración. Aquí estás:

ChatGPT es como un primo inteligente Google y Wolfram Alpha, que puede hacer lo que no saben, por ejemplo, escribir módulos de historias y códigos.

Se supone que ChatGPT es una tecnología sin un ego, pero si la piel de gallina no salió de esta respuesta, entonces estuviste inactivo.

¿Qué opinas?¿Usas chatgpt?¿Qué preguntas tienes sobre su trabajo? Comparta con nosotros en los comentarios a continuación.

Puede seguir mis actualizaciones diarias de proyecto en las redes sociales. Asegúrese de seguirme en Twitter en @DavidgeWirtz, Facebook en Facebook. com/davidgewirtz, en instagram. com/davidgewirtz y YouTube en youtube. com/da vidgewirtztv.

Chat GPT: red neuronal en español. servicio online en españa