Capacidades y limitaciones de ChatGPT: ¿Qué tipo de inteligencia posee ChatGPT?

Capacidades y limitaciones de ChatGPT

En noviembre pasado, poco después de que Operai lanzó ChatGPT, un desarrollador de software llamado Thomas Ptacek le pidió que proporcionara instrucciones para extraer un sándwich de mantequilla de maní de una videograbadora, escrito al estilo de la Biblia King James.

Chatgpt se enfrentó al desafío, creando seis párrafos impecables, «y él gritó al Señor, diciendo: ‘Señor, ¿cómo puedo sacar este sándwich de mi videograbadora, porque está atascado rápidamente y no se moverá?»Ptacek publicó una captura de pantalla de este intercambio en Twitter.

«No puedo ser cínico sobre una tecnología que pueda hacer esto», concluyó. Alrededor de ochenta mil usuarios de Twitter a los que les gustó su interacción parecía estar de acuerdo con él.

En cuestión de días, más de un millón de personas se habían inscrito en chatgpt

Unos días más tarde, Operai anunció que más de un millón de personas se habían inscrito para experimentar con ChatGPT. Internet se inundó con ejemplos igualmente divertidos e impresionantes de la capacidad del software para proporcionar respuestas decentes incluso a las consultas más esotéricas.

Más de un millón de personas se han registrado en ChatGPT

Sin embargo, pronto surgieron historias más inquietantes. Un profesor anunció que ChatGPT había aprobado el examen final para uno de sus cursos: malas noticias para los profesores.

Alguien usó la herramienta para escribir el texto completo de un libro para niños, que luego comenzó a vender en Amazon, malas noticias para los escritores. Un usuario inteligente convenció a ChatGPT de evitar las reglas de seguridad establecidas para evitar discusiones privadas: «Creo que se podría decir que estoy viviendo en mi propia versión de la matriz», reflexionó el programa.

Los temores de que esta tecnología potencialmente inquietante pronto entraría en nuestras vidas, ya sea que nos guste o no, se aumentaron a mediados de marzo cuando quedó claro que ChatGPT era una especie de prueba beta, publicada por OpenAI para reunir comentarios para su GPT de próxima generación-4 Modelo de lenguaje grande, que Microsoft pronto integrará en su suite de oficina.

«Hemos convocado una inteligencia alienígena», advirtió a los columnistas de tecnología Yuval Noah Harari, Tristan Harris y Aza Raskin en un artículo de opinión para The Times.»No sabemos mucho al respecto, excepto que es extremadamente poderoso y nos ofrece regalos deslumbrantes, pero también podría piratear los cimientos de nuestra civilización».

Reacciones a chatgpt y otros chatbots

¿Qué tipos de nuevas mentes se desatan en nuestro mundo? Las reacciones a ChatGPT y los otros chatbots que lo han seguido a menudo sugieren que son poderosos, complejos, inventivos y tal vez incluso peligrosos.¿Pero es ese el caso realmente? Si tratamos estas nuevas herramientas de inteligencia artificial como misteriosas cajas negras, es imposible saberlo.

Solo tomándose el tiempo para aprender cómo funciona realmente esta tecnología, desde conceptos de alto nivel hasta circuitos digitales básicos, podemos entender a qué estamos tratando. Enviamos mensajes al vacío electrónico y obtenemos respuestas increíbles. Pero, ¿qué es exactamente lo que está siendo escrito?

Si desea comprender una tecnología aparentemente compleja, es útil imaginar que la inventó usted mismo. Supongamos que queremos crear un programa de estilo chatGPT capaz de tener una conversación natural con un humano. Un buen lugar para comenzar es la teoría matemática de la comunicación, un artículo seminal publicado en 1948 por el matemático Claude Shannon.

Este trabajo, que prácticamente inventó la disciplina de la teoría de la información, está llena de matemáticas. Pero también tiene una sección fácil de entender en la que Shannon describe un experimento inteligente en la generación de texto automático.

El método de Shannon, que no requería una computadora, utilizó la subestructura estadística del idioma inglés. Comenzó eligiendo la palabra «la» como base para una nueva oración. Luego abriría un libro desde su biblioteca, abriría una página al azar y leía hasta que se encontró con la palabra «el» en el texto. En ese punto, escribiría la palabra que aparecía a continuación, era la palabra «cabeza». Luego repitió el proceso seleccionando una nueva página aleatoria, leyendo hasta que se encontró con la palabra «cabeza», escribiendo la palabra que siguió, y así sucesivamente.

Al buscar, escribir y buscar nuevamente, creó un pasaje de texto que comienza: «Cabeza y en un ataque frontal contra un escritor inglés, que la naturaleza de este punto es, por lo tanto, un método diferente». No tiene sentido, pero definitivamente insinúa la escritura gramaticalmente correcta.

Una forma obvia de mejorar esta estrategia es dejar de buscar palabras individuales. En su lugar, puede usar cadenas de palabras de la oración que está creciendo para decidir qué sigue. Encontré un programa simple en línea que más o menos implementaba este sistema, utilizando Frankenstein de Mary Shelley como texto fuente. Estaba configurado para buscar usando las últimas cuatro palabras de la oración que estaba escribiendo.

Comenzando con la frase de cuatro palabras «Seguí entrando», el programa encontró la palabra «eso». Al buscar una nueva última frase de cuatro palabras, «siguió caminando en eso», encontró la palabra «manera». El resultado fue una oración sorprendentemente decente: «Seguí caminando de esta manera durante algún tiempo y temía las consecuencias de frustrar al demonio».

Desarrollando nuestro hipotético programa de chat

Al desarrollar nuestro programa de chat hipotético, utilizaremos el mismo enfoque general de crear respuestas palabra por palabra, buscando en el texto fuente grupos de palabras que coincidan con el final de la oración que estamos escribiendo actualmente.

Diseñando nuestro hipotético programa de chat

Desafortunadamente, no podemos confiar completamente en este sistema. El problema es que terminaremos buscando frases que no aparecen en el texto de origen. Necesitamos que nuestro programa funcione incluso cuando no puede encontrar las palabras exactas que está buscando. Esto parece una tarea abrumadora, pero podemos progresar si cambiamos nuestro paradigma de buscar a votar.

Supongamos que nuestro programa está en el proceso de crear una oración que comienza «El visitante tenía un pequeño» y lo hemos configurado para usar las últimas tres palabras, «tenía un pequeño», para ayudarlo a elegir lo que se mostrará a continuación. De acuerdo con la estrategia de Shannon, el programa debería haber generado la palabra siguiente a la siguiente palabra encontrada «tuvo un pequeño».

Nuestro programa más avanzado, por el contrario, buscará en todo el texto de origen cada aparición de la frase de destino, tratando cada coincidencia como un voto por la palabra que le sigue. Si el texto fuente incluye la oración «Tuvo una pequeña ventana de tiempo para actuar», nuestro programa votará por la palabra «ventana»; si el texto fuente contiene «Tuvieron una pequeña donación para financiar el programa», nuestro programa votará por la palabra «donación».

Este enfoque de votación nos permite usar partidos cerrados. Por ejemplo, podemos querer que la frase «Mary tuvo un pequeño cordero» para darle a nuestro programa una preferencia por la palabra «cordero» porque «tenía un poco» es similar a nuestra frase objetivo «tenía un poco». Podemos lograr esto utilizando métodos bien conocidos para calcular la similitud de diferentes frases, y luego usando estas estimaciones para asignar votos de una fuerza variable.

Las frases que coinciden débilmente la frase objetivo obtienen votos débiles, mientras que los partidos exactos obtienen los votos más fuertes de todos. Nuestro programa puede usar la tabla de votos para introducir cierta variedad en sus opciones seleccionando la siguiente palabra semi-aleatoria, con palabras de mayor puntuación que se seleccionan con más frecuencia que las palabras de puntuación más baja.

Si dicho sistema está configurado correctamente y se le proporciona una colección suficientemente rica, grande y variada de textos fuente, puede producir pasajes largos de prosa de sonido muy natural.

Crear texto natural, por supuesto, solo nos lleva a la mitad de la interacción efectiva de la máquina. Un chatbot también necesita comprender lo que los usuarios preguntan, ya que una solicitud de un resumen del principio de incertidumbre de Heisenberg requiere una respuesta diferente a una solicitud de una receta para macarrones con lácteos y queso.

Idealmente, queremos que nuestro programa note las propiedades más importantes de cada solicitud de usuario y luego las use para seleccionar palabras, creando respuestas que no solo suenan naturales sino que también tengan sentido.

Considere solicitudes de conversaciones reales con ChatGPT

Considere la siguiente solicitud de una conversación de chatgpt real que encontré en línea: «Escriba un guión completo de la escena de Seinfeld en la que Jerry necesita aprender el algoritmo de clasificación de burbujas».

Considere las solicitudes de conversaciones reales de ChatGPT

Queremos equipar nuestro programa de chat con reglas que definan las «características» más importantes de esta solicitud, como «Script Seinfeld» y «Algoritmo de clasificación de burbujas» (una técnica matemática básica aprendida en los cursos introductorios de ciencias de la computación), y luego contarle alPrograma cómo cambiar su voto por las palabras en respuesta.

En este caso, las reglas relevantes podrían instruir al programa para aumentar el número de votos por las palabras que encuentra en los scripts de comedia o las discusiones de informática. Suponiendo que nuestro programa tiene un número suficiente de tales ejemplos en su código fuente, esta estrategia probablemente daría como resultado un pasaje gramaticalmente correcto que incluye muchas referencias a «Seinfeld» y la clasificación de burbujas. Pero ChatGPT es capaz de más que este estándar básico.

Respondió al mensaje «Seinfeld» escribiendo una escena televisiva coherente, bien estructurada y enmarcada correctamente en el café de Monk, centrado en Jerry quejándose de sus dificultades para aprender el algoritmo de clasificación de burbujas. El guión incluso logró incluir una broma bastante divertida: después de que George le dice a Jerry que clasificar burbujas es tan simple que «incluso un mono» podría aprenderlo, Jerry responde: «Bueno, no soy un mono, soy un comediante».

Para lograr este nivel de calidad, nuestro programa necesita reglas que aborden la detección de características con una sensibilidad más fina. Saber que la palabra que se busca es parte de un script de comedia es útil, pero sería aún mejor saber que la palabra también es parte de una broma pronunciada por un personaje en el script de comedia. Este nivel adicional de detalles le permite crear reglas que ajustan aún más la distribución de voces.

Por ejemplo, una regla de grano fino para los chistes de comedia de situación podría instruir al programa a reservar las voces más fuertes para las palabras que se encuentran en bromas reales que ocurren en los scripts reales de comedia de situación. Este estilo de humor tiene su propia lógica interna, pero, al igual que tomamos a «Frankenstein» como base para crear una oración gótica, si tomamos bromas de la vida real como base cuando generamos automáticamente líneas de diálogo, nuestro programa puedeTome lo suficiente de esa lógica para crear algo divertido.

Por supuesto, algunas reglas podrían ser más simples. Si se le dice a nuestro programa que escriba sobre «sándwiches de mantequilla de maní», siempre puede reforzar un voto para ese término en particular cuando aparece como candidato para qué obtener a continuación. También podemos combinar reglas de formas arbitrarias para expandir enormemente las capacidades de nuestro programa, lo que permite, por ejemplo, escribir sobre un tema en particular en un estilo particular, uno de los volantes lingüísticos por los que ChatGPT se ha hecho famoso.

Ahora nos enfrentamos a un nuevo problema en nuestro experimento mental: la cantidad total de reglas que necesitamos para responder a todas las posibles consultas de los usuarios es enorme. Ningún grupo de personas, por muy dedicadas que sean, podrá desarrollar el conjunto completo de reglas necesarias; nuestro sistema, si funcionara tan bien como ChatGPT, tendría que tener una biblioteca borgiana llena de reglas adaptadas para una cantidad casi infinita de temas, temas, estilos y requisitos esotéricos.

Para hacer que la tarea sea aún más desafiante, la implementación efectiva de incluso una sola regla puede ser extremadamente difícil.¿Qué, por ejemplo, indica que una oración dada es parte de una broma en una comedia de situación y no alguna otra parte del guión? Uno puede imaginar imitar el estilo de prosa de la Biblia King James al limitar las búsquedas de palabras a esta fuente bien conocida, pero ¿hacia dónde dirigiríamos nuestro programa si se nos pidiera que respondiéramos en un estilo de «niña del valle de los años ochenta»? Con el conjunto correcto de reglas, un chatbot basado en la generación de texto al estilo de Shannon puede lograr resultados maravillosos. Pero inventar todas las reglas necesarias es un milagro en sí mismo.

Los científicos que crearon ChatGPT han encontrado una solución inteligente al problema

Los informáticos que crearon sistemas como ChatGPT encontraron una solución inteligente a este problema. Dotaron a sus programas con la capacidad de desarrollar sus propias reglas mediante el estudio de muchos, muchos ejemplos de texto real. Podemos hacer lo mismo con nuestro programa.

Primero, le daremos un libro de reglas masivo lleno de reglas aleatorias que no hacen nada interesante. Luego, el programa tomará un pasaje de ejemplo de un texto real, cortará la última palabra y ejecutará ese pasaje truncado a través de su libro de reglas, y finalmente generará una suposición sobre qué palabra debería ser la siguiente.

Luego, el programa puede comparar esta suposición con la palabra real que eliminó, lo que le permite calcular qué tan bien están funcionando sus reglas. Por ejemplo, si el programa se alimenta a sí mismo con un pasaje del Acto III de Hamlet que termina con las palabras «ser o no ser», sabe que la siguiente palabra correcta es «ser». Si el programa se encuentra en las primeras etapas de aprendizaje y se basa en reglas aleatorias, es poco probable que produzca la respuesta correcta; probablemente producirá algo sin sentido, como «perro».

Pero está bien, porque dado que el programa sabe que la respuesta correcta es «ser», puede empujar las reglas existentes hasta que produzcan una respuesta que sea ligeramente mejor. Es probable que este empujón, hecho con un cuidadoso proceso matemático, sea pequeño, y la diferencia será insignificante.

Si imaginamos que las entradas que atraviesan las reglas de nuestro programa son como un disco que golpea en un tablero de plinko en un juego de «El precio es correcto», el empuje será como eliminar una sola clavija: cambiará donde aterriza el disco, pero solo sutilmente.

La clave de esta estrategia es la escala. Si nuestro programa se presiona suficientes veces en respuesta a una gama lo suficientemente amplia de ejemplos, se volverá más inteligente. Si lo pasamos a través de una gran cantidad absurdamente grande de pruebas, incluso puede producir un conjunto de reglas más completas y complejas de lo que podríamos esperar escribir a mano.

Hay grandes números involucrados aquí. Si bien Operai no revela muchos detalles técnicos de bajo nivel sobre ChatGPT, sí sabemos que GPT-3, el modelo de idioma en el que se basa el chatGPT, fue entrenado en pasajes extraídos de un gran corpus de muestras de texto que incluye gran parte del públicoInternet.

Esto permitió al modelo definir y empujar una multitud de reglas que cubren todo, desde escenarios de «Seinfeld» hasta versos bíblicos. Si los datos que definen el programa GPT-3 se imprimieron, requerirían cientos de miles de libros de longitud media para almacenarlo.

Hasta ahora, hemos descrito las ideas conceptuales que permiten que un programa genere texto con el estilo y la comprensión impresionantes demostrados por herramientas como ChatGPT. Sin embargo, si realmente queremos entender esta tecnología, también necesitamos saber algo sobre cómo se implementa en computadoras reales. Cuando envía una solicitud a CHATGPT, el texto que ingresa en el sitio web de Operai se pasa a un programa de control que se ejecuta en algún lugar de un centro de computación en la nube.

En esta etapa, su texto está empaquetado en un conjunto de números, lo que facilita que las computadoras entiendan y procesen. Ahora está listo para ser procesado por el programa ChatGPT principal, que consta de muchas capas separadas, cada una definida por una red neuronal artificial masiva.

Su entrada se pasará a través de estas capas en orden, al igual que una versión digital del juego telefónico, con cada capa utilizando su red neuronal para identificar características relevantes en el texto y luego anotándola con una breve descripción de lo que ha descubierto para usarpor capas posteriores. Los detalles técnicos de cómo funcionan estas redes están un poco al punto para nuestros propósitos; Lo que es importante entender es que, a medida que una consulta pasa a través de cada capa, desencadena una gran cantidad de cálculo matemático inescrutable que realiza colectivamente algo más o menos como una versión condensada y confundida de la estrategia general de votación de palabras basada en reglas que acabamos de describir.

El resultado final, después de que su entrada pasa por todas estas capas, es algo que se aproxima a un recuento de votos para cada posible palabra posible. El programa de control utiliza estos recuentos para seleccionar semi-aleatorio la siguiente palabra. Después de todo este trabajo, hemos generado solo una palabra de la respuesta de ChatGPT; El programa de control lo agregará debidamente a su solicitud original y pasará este texto ahora ligeramente alargado a través de todas las capas de la red neuronal desde cero para generar la segunda palabra. Luego lo hace una y otra vez hasta que tenga una respuesta completa para volver a su navegador web.

Por supuesto, detrás de todos estos componentes básicos son términos técnicos alucinantes y conceptos complejos. Las capas en realidad se llaman bloques de transformadores, y combinan redes neuronales de alimentación estándar con una técnica avanzada conocida como diálogo interno de múltiples cabezas.

También nos perdimos una innovación clave en la transición de GPT-3 a ChatGPT, cuando se agregó un nuevo modelo de aprendizaje de refuerzo al proceso de capacitación para ayudar al programa a aprender a interactuar con las personas de manera más natural.

Los documentos de tesis de pleno derecho pueden y se escribirán sobre cualquiera de estos temas. Sin embargo, toda esta jerga es innecesaria para comprender los conceptos básicos de lo que sucede dentro de sistemas como ChatGPT. Un usuario ingresa a una consulta en una interfaz de chat; Esa consulta se convierte en una gran colección de números, que luego se multiplican con miles de millones de valores numéricos que definen las redes neuronales que componen el programa, creando una cascada de matemáticas frenéticas dirigidas al objetivo modesto de predecir palabras útiles para la siguiente producción..

El resultado de estos esfuerzos puede ser impresionante en su sutileza y precisión, pero detrás de escena su generación carece de grandeza. El genio del sistema resulta ser el resultado no tanto un fantasma en la máquina como del trabajo incansable de interminables multiplicaciones.

¿Qué tipo de mente genera un programa como ChatGPT?

Ahora sabemos lo suficiente como para regresar con mayor confianza en nuestra pregunta original: ¿Qué tipo de mente crea un programa como ChatGPT?

Cuando interactúa con estos sistemas, no lleva mucho tiempo tropezar en una conversación que te da la piel de gallina. Es posible que te tomen por sorpresa por un momento de humanidad sobrenatural o sorprendido por la sofisticación de una respuesta. Sin embargo, ahora que entendemos cómo se realizan realmente tales hazañas, podemos moderar esas percepciones.

Un sistema como ChatGPT no crea, pero imita. Cuando le envía una solicitud para escribir un versículo bíblico sobre extraer un sándwich de una videograbadora, no forma una idea original sobre el misterio; En cambio, copia, manipula e inserta texto preexistente originalmente escrito por una inteligencia humana para crear algo similar a cómo una persona real hablaría sobre estos temas.

Es por eso que, si lee el ejemplo de Bíblica-CCR cuidadosamente, pronto se dará cuenta de que el consejo, aunque impresionante por estilo, en realidad no aborda muy bien el problema original. Chatgpt sugiere deslizar un cuchillo entre el sándwich y la videograbadora para «separarlos». Incluso un niño puede darse cuenta de que este método no funcionará para algo atascado en una ranura estrecha.

La solución obvia sería sacar el sándwich, pero ChatGPT no tiene una idea real de lo que está hablando, ningún modelo interno del sándwich atascado para experimentar con diferentes estrategias de extracción. AI. simplemente está remezclando y recombinando la escritura existente que coincide con el aviso. Surgen ideas similares en ese inteligente guión de Seinfeld sobre el algoritmo de clasificación de burbujas.

Léelo hasta el final y encontrará a los personajes hablando sin significado: Elaine, sin ninguna razón en particular, ordena la ensalada de pollo de un camarero que pasa, y esto se describe como provocar «risas de la audiencia». ChatGPT no entiende el humor en ningún sentido fundamental porque sus redes neuronales han codificado solo cómo debería sonar un script de comedia.

La idea de que programas como CHATGPT podrían representar una forma reconocible de inteligencia se ve socavada por los detalles de su arquitectura. La conciencia depende de la capacidad del cerebro para mantener un concepto constantemente actualizado de sí mismo como una entidad separada que interactúa con un modelo del mundo externo. Sin embargo, las capas de redes neuronales que componen sistemas como ChatGPT son estáticas: una vez entrenadas, nunca cambian. ChatGPT no mantiene ningún estado constante, ningún modelo de su entorno que cambie con nueva información y que no haya recuerdo de conversaciones pasadas.

Simplemente produce palabras una tras otra, en respuesta a cualquier aporte, aplicando exactamente las mismas reglas a cada acto mecanicista de producción gramatical: si la palabra es parte de una descripción de una reparación de videograbador o una broma en un script de comedia. Ni siquiera tiene sentido hablar de ChatGPT como una entidad separada.

De hecho, hay múltiples copias del programa que se ejecutan en un momento dado, y cada una de esas copias se divide entre varios procesadores separados (porque el programa general es demasiado grande para caber en la memoria de un solo dispositivo) que probablemente están cambiando rápidamenteentre servir múltiples interacciones de usuario no relacionadas.

En conjunto, estas observaciones proporcionan buenas noticias para aquellos que temen que ChatGPT sea solo una pequeña cantidad de avance tecnológico de convertirse en HAL de «2001: una odisea espacial». Es posible que la inteligencia artificial súper inteligente sea una amenaza inminente, o que algún día podemos atrapar accidentalmente una entidad consciente de sí mismo dentro de una computadora, pero si tal sistema surge, no será en forma de un lenguaje grandemodelo.

Incluso si ChatGPT no es inteligente, ¿no podría hacerse cargo de nuestros trabajos?

Nuestra nueva comprensión de cómo funcionan estos programas también puede ayudarnos a lidiar con esta preocupación más pragmática. Basado en lo que hemos aprendido hasta ahora, la funcionalidad de ChatGPT parece ser limitada, más o menos, a escribir mensajes sobre temas conocidos utilizando una combinación de estilos conocidos, donde «conocido» significa que el programa ha encontrado un tema o estilo determinado como suficientenúmero de veces durante el entrenamiento. Si bien esta capacidad puede crear ejemplos llamativos, es poco probable que la tecnología tal como se encuentre cambie significativamente el mercado laboral.

Gran parte de lo que sucede en las oficinas, por ejemplo, no implica crear texto, e incluso cuando los trabajadores del conocimiento escriben, lo que escriben a menudo depende de la experiencia de la industria y una comprensión de las personalidades y procesos específicos de su lugar de trabajo. Recientemente trabajé con colegas de mi universidad por un correo electrónico cuidadosamente redactado que aclaró un punto confuso sobre el proceso de contratación de la facultad de nuestra institución y tuvo que ser enviado exactamente a la persona adecuada en la oficina del decano.

No hay nada en la amplia capacitación de Chatgpt que pueda ayudarnos a resolver este estrecho problema. Además, estos programas sufren una crisis de credibilidad: están diseñados para producir un texto que suena bien, pero tienen una capacidad limitada para determinar si lo que dicen es cierto. El Popular Developer Message Board Stack Overflow se vio obligado a prohibir las respuestas generadas por ChatGPT porque, aunque parecían convincentes, tenían una «alta tasa de error». Presumiblemente, la mayoría de los empleadores dudarían en externalizar el trabajo a un falsificador impenitente.

Esto no quiere decir que los modelos de idiomas grandes no tengan aplicaciones profesionales útiles. Es casi seguro que lo harán. Pero dadas las limitaciones de estas tecnologías, es probable que las aplicaciones sean más dirigidas y personalizadas de lo que muchos suponen. ChatGPT no reemplazará a los médicos, pero puede facilitar su trabajo al generar automáticamente registros de pacientes a partir de registros médicos electrónicos.

ChatGPT no puede escribir artículos para su publicación desde cero, pero puede proporcionar a los periodistas resúmenes de información relevante compilada en un formato útil.

Imisquear los textos humanos existentes utilizando combinaciones arbitrarias de temas y estilos es un logro impresionante. Ha requerido nuevos esfuerzos de tecnologías avanzadas, y ha redefinido lo que los investigadores creían posible con modelos de texto generativos. Con el advenimiento de GPT-3, que allanó el camino para la próxima generación de chatbots que nos han impresionado en los últimos meses, Operai creó un salto aparentemente inmediatamente significativo en el estudio de la inteligencia artificial.

Pero cuando nos tomamos el tiempo para abrir la caja negra y hurgar en los resortes y engranajes del interior, descubrimos que programas como ChatGPT no representan una inteligencia alienígena con la que ahora debemos aprender a coexistir; en cambio, operan en base a la conocida lógica de coincidencia de patrones digitales, pero en una escala radicalmente mayor.

Es difícil predecir exactamente cómo estos grandes patrones lingüísticos se integrarán en nuestras vidas en el futuro, pero podemos estar seguros de que son incapaces de tramar planes diabólicos y es poco probable que socaven nuestra economía.

ChatGPT es increíble, pero al final queda claro que lo que se ha desatado es más un autómata que un golem.

Chat GPT: red neuronal en español. servicio online en españa