Las mejores alternativas para chatgpt (según chatgpt)

Fionna Agomookh

ChatGPT rápidamente se convirtió en un favorito de la IA generativa, pero él es casi el único jugador en este juego. Además de todas las demás herramientas de IA que se dedican, por ejemplo, a las imágenes, hay una serie de competidores directos de ChatGPT, como esperaba.

Contenido

  • Bing de Microsoft
  • Bert de Google
  • Meena de Google
  • Roberta de Facebook
  • XLNet de Google
  • Dialogpto de investigación de Microsoft
  • Albert de Google
  • T5 de Google
  • CTRL de Salesforce
  • Gshard de Google
  • Licuadora de Facebook AI Research
  • Pegasus de Google muestra otras 7 posiciones

¿Por qué no preguntarle a Chatgpt sobre esto? Esto es exactamente lo que hice para hacer esta lista, con la esperanza de encontrar varias opciones para aquellos que se enfrentan con notificaciones «en el límite», o para aquellos que solo quieren probar algo nuevo. No todos son tan accesibles para el público como ChatGPT, pero, según ChatGPT, estas son las mejores alternativas.

Materiales de video recomendados

Bing de Microsoft

Sistema de búsqueda Bing actualizado desde Microsoft.

Antes de pasar a la elección enumerada por la inteligencia artificial, la mejor alternativa a ChatGPT es, de hecho, chatgpt. Recientemente, Microsoft ha agregado inteligencia artificial a su motor de búsqueda de Bing y planea difundir pronto esta función al navegador de borde.

Similar

  • ChatGPT pronto puede modificar contenido ilegal en sitios como Facebook
  • Zoom comenzó a retroceder y declaró que ya no usaría el contenido de los usuarios para enseñar inteligencia artificial
  • Newegg quiere que confíes en las revisiones de bienes de chatgpt

Hasta ahora, esta es solo una versión preliminar, pero puede probar un nuevo chatbot con inteligencia artificial en el sitio web bing. com/new ahora. Según los representantes de Microsoft, en la etapa inicial, el número de solicitudes es limitada, pero puede unirse a la lista de espera de Bing Chatgpt para recibir una versión completa del lanzamiento.

Bert de Google

Bert (el codificador bidireccional representa de Transformers) es un modelo de aprendizaje automático desarrollado por Google. Muchos resultados de ChatGPT mencionan los proyectos de Google, que verá más adelante en esta lista.

Bert es conocido por sus capacidades de procesamiento del lenguaje natural (PNL), como el análisis de preguntas y estados de ánimo. Utiliza Bookcorpus e English Wikipedia como entrenamiento preliminar, en el que se aprenden 800 millones y 2. 500 millones, respectivamente.

Por primera vez, Bert fue anunciado como un proyecto de investigación con código abierto y un artículo científico en octubre de 2018. Después de eso, la tecnología se introdujo en Google Search. En noviembre de 2018, en la literatura temprana sobre Bert, apareció su comparación con OpenAi Chatgpt, lo que señaló que Google Technology es un profundo bippable, lo que ayuda a predecir el texto entrante. Mientras que OpenAi GPT es unidireccional y solo puede responder a solicitudes complejas.

Meena de Google

Meena es un chatbot representado por Google en enero de 2020 y capaz de hablar de manera humana. Como ejemplo, puede citar conversaciones simples que incluyen chistes y juegos de palabras interesantes, por ejemplo, Meena ofrece vacas para estudiar «ciencias de los toro» en Harvard.

Como una alternativa directa al GPT-2 de OpenAI, Meena pudo procesar 8. 5 veces más datos que su competidor en ese momento. Su red neuronal consta de 2. 6 parámetros y estudios en conversaciones sobre redes sociales en el dominio público. Meena también recibió una puntuación métrica para el promedio de sensibles y especificidad (SSA), igual al 79%, lo que lo convierte en uno de los chatbots más inteligentes de su tiempo.

El código Meena está disponible en GitHub.

Roberta de Facebook

Roberta (enfoque de Bert Pretraning de robusto) es otra versión mejorada del Bert original, que Facebook anunció en julio de 2019.

Facebook creó este modelo NLP utilizando una fuente de datos más grande como modelo de entrenamiento preliminar. Como un conjunto de datos de 76 GB, Roberta usa CommonCraft (CC-News), incluidos 63 millones de artículos de noticias en inglés creados desde septiembre de 2016 hasta febrero de 2019. A modo de comparación, el Bert original usa 16 GB de datos entre los conjuntos de datos de Wikipedia y BookCorpus en inglés, informa Facebook.

Según los resultados de un estudio realizado por Facebook, Roberta dio la vuelta a Bert en un conjunto de datos de referencia, comparándolo con XLNet. Para obtener tales resultados, la Compañía no solo usó una mayor cantidad de datos, sino que también realizó capacitación preliminar en su modelo durante más tiempo.

En septiembre de 2019, Facebook hizo el código de código abierto Roberta, y su código está disponible en GitHub para experimentos comunitarios.

VentureBeat también mencionó el GPT-2 entre los nuevos sistemas de IA en este momento.

XLNet de Google

XLNet es un modelo de lenguaje basado en la transformación, desarrollado por un grupo de investigadores de Google Brain y la Universidad de Carnegie Mellon. El modelo es, de hecho, el Bert más perfecto se demostró por primera vez en junio de 2019. El grupo descubrió que XLNet es al menos 16% más eficiente que el Bert original, que se anunció en 2018, y pudo recorrer Bert en una prueba de 20 tareas de PNL.

XLNet: un nuevo método de entrenamiento preliminar para PNL, que excede significativamente a Bert en 20 tareas (por ejemplo, escuadrón, pegamento, raza)

Arxiv: https://t. co/c1tfmwzvyw

GitHub (código + modelos pr e-selección): https://t. co/ki4jsvzt1u

con Zhilin Yang, @zihangdai, Yiming Yang, Jaime Carbonell, @rsalakhu pic. twitter. com/jbooekuvpq

& amp; mdash; Quoc le (@Quocleix) 20 de junio de 2019

Dado que tanto XLNet como Bert usan lexemas «enmascarados» para predecir un texto oculto, XLNet aumenta la eficiencia al acelerar la parte predictiva del proceso. Por ejemplo, el especialista en análisis de Amazon Alexa, Aishvaria Srinivasan, explicó que XLNet puede identificar la palabra «nueva» como relacionada con el término «es una ciudad» antes de predecir que el término «York» también está asociado con este término. Al mismo tiempo, Bert necesita identificar las palabras «nuevas» y «York» por separado, y luego asociarlas, por ejemplo, con el término «es una ciudad».

Es de destacar que el GPT y el GPT-2 también se mencionan en esta explicación de 2019 como otros ejemplos de modelos de lenguaje automático.

El código XLNet y los modelos previamente capacitados están disponibles en GitHub. El modelo es bien conocido en la comunidad de investigadores de PNL.

Dialogpto de investigación de Microsoft

Dialogpt (Dialogue Generar el transformador pr e-entrenado) es un modelo de idioma tamaño autor, presentado en noviembre de 2019 por Microsoft Research. Similar al GPT-2, el modelo se entrenó previamente para generar discurso humanoide. Sin embargo, la principal fuente de información para ella fue de 147 millones de diálogos de múltiples incendios tomados de los temas de Reddit.

Ejemplos de diablogpt de generación múltiple.

El principal evangelista de Humanfirst Cobus Grailing habló sobre la implementación exitosa de Dialogpt en el servicio de intercambio de mensajes Telegram para la implementación del modelo ChatBot. Agregó que el uso de Amazon Web Services y Amazon Sagemaker pueden ayudar a ajustar el código.

El código de diálogo está disponible en GitHub.

Albert de Google

Albert (A Lite Bert) es una versión truncada del Bert original y fue desarrollado por Google en diciembre de 2019.

En Albert, Google limitó el número de parámetros permitidos en el modelo, ingresando parámetros con «intercalado de la capa oculta».

Los resultados del trabajo de la máquina de Google en el problema racial (comprensión del texto de lectura, similar al de SAT)

Esto permitió mejorar no solo el modelo Bert, sino también XLNet y Roberta, ya que Albert se puede enseñar en el mismo conjunto de datos más grande que se utiliza para dos modelos nuevos, y al mismo tiempo se adhiere a parámetros más pequeños. De hecho, Albert solo trabaja con los parámetros necesarios para sus funciones, lo que aumenta la productividad y la precisión. Google informó que Albert es superior a Bert en 12 pruebas de PNLP, incluida una prueba de prueba, similar a SAT.

Aunque no se menciona el GPT, se incluye en la visualización de Albert en el blog de Google Research.

Google lanzó Albert con Open Source en enero de 2020, y se implementó sobre la base de Google TensorFlow. El código está disponible en GitHub.

T5 de Google

T5 (transformador de transferencia de texto a texto) es un modelo NLP representado por Google en 2019 y toma prestado muchos modelos anteriores, incluidos GPT, Bert, XLNet, Roberta, Albert y otros. Se ha agregado un nuevo conjunto único de datos de los datos Colossal Clean Crawled Corpus (C4), que permite que el transformador emita resultados mejores y contextuales en comparación con otros conjuntos de datos, en contraste con el conjunto de rastreo común utilizado para XLNet.

Transformador de transferencia de texto a texto de Google T5.

El entrenamiento preliminar en T5 condujo a la creación de aplicaciones de chatbot, incluida Inferkit Talk con Transformer y AI Dungeon Game. Los generadores de texto se asemejan a ChatGPT, ya que le permiten generar diálogos realistas en función de lo que genera IA después de sus consejos o solicitudes iniciales.

El código T5 está disponible en GitHub.

CTRL de Salesforce

CTRL de Salesforce (Computational Trust y Railerting Layer) se convirtió en uno de los modelos de idiomas publicados públicamente más grandes, cuando en septiembre de 2019, Salesforce anunció su creación. El modelo de lenguaje con 1. 6 mil millones de parámetros se puede usar para analizar simultáneamente grandes matrices del texto, por ejemplo, asociado con las páginas web. Entre las posibles aplicaciones prácticas se encuentran la conjugación con revisiones, calificaciones y atribución.

Un ejemplo de la atribución de la fuente CTRL de Salesforce.

El modelo de lenguaje CTRL puede distinguir entre el significado de una solicitud específica hasta los signos de puntuación. Salesforce señaló que el modelo puede distinguir entre el «calentamiento global es una mentira». Como una opinión impopular y el «calentamiento global es una mentira» como una teoría de la conspiración debido a la diferencia en los puntos en las frases y compilar los temas apropiados de TopDit para cada uno de ellos.

Para capacitación preliminar, CTRL utiliza hasta 140 GB de datos de fuentes como Wikipedia, Project Gutenberg, Amazon y Reddit Reviews. Además, recurre a una serie de noticias internacionales, información y recursos triviales.

El código CTRL está disponible en GitHub.

Gshard de Google

Gshard es un modelo de traducción de idiomas gigante representado por Google en junio de 2020 para escalar la red neuronal. El modelo incluye 600 mil millones de parámetros, lo que le permite capacitar simultáneamente grandes conjuntos de datos. Gshard se enfrenta especialmente bien a la traducción del idioma y aprende a traducir 100 idiomas al inglés en cuatro días.

Licuadora de Facebook AI Research

Blender es un chatbot de código abierto, presentado en abril de 2020 por Facebook AI Research. Se observa que en comparación con los modelos competidores, ChatBot ha mejorado las habilidades de conversación, la capacidad de proporcionar tesis fascinantes, escuchar y comprender al interlocutor, mostrar empatía e individualidad.

Un ejemplo de la licuadora chatbot.

Blender se comparó con el Google Meeeena Chatbot, que, a su vez, se comparó con el OpenAI GPT-2.

El código de la licuadora está disponible en el sitio parl. ai.

Pegaso de Google

Pegaso es un modelo de procesamiento del lenguaje natural, representado por Google en diciembre de 2019. Pegaso puede ser entrenado en la creación de un currículum y, al igual que otros modelos, como Bert, GPT-2, Roberta, XLNet, Albert y T5, pueden ajustarse sutilmente para tareas específicas. Pegasus fue probado para la efectividad en la generalización de noticias, artículos científicos, historias, instrucciones, cartas electrónicas, patentes y proyectos de ley legislativos en comparación con las personas.

PEGASUS NLP se compara con una persona en términos de resumen.

El código Pegasus está disponible en GitHub.

Recomendaciones de editores

  • Google Bard pronto puede convertirse en su nuevo mentor de IA
  • CHATGPT: Las últimas noticias, contradicciones y consejos que deben ser conocidos
  • News GPT-4. 5: Todo lo que sabemos sobre el modelo de idioma de la nueva generación
  • Por qué las instrucciones de usuario de ChatGPT son muy importantes
  • AI ahora puede robar sus contraseñas con casi 100% de precisión: así es como se hace

Temas

  • Inteligencia artificial

Fionna Agomookh

La técnica computacional es escritor

Fionna Agomookh es una periodista tecnológica con más de diez años de experiencia en la escritura de artículos sobre diversos temas relacionados con la electrónica de consumo …

Apple ha estado trabajando en secreto en el competidor de chatgpt durante varios años

iPhone en una mesa con una animación de activación de Siri en la pantalla.

El director general de Apple, Tim Cook, acaba de anunciar que la compañía «ha estado trabajando en inteligencia artificial generativa (IA) durante años. Esta declaración inesperada sugiere que Apple puede publicar un chatgpt de competidores, que supuestamente recibe el nombre «Apple GPT» antes que nadie.

Esta declaración se hizo en una entrevista con Reuters después del lanzamiento de las ganancias de Apple para el tercer trimestre. Cook explicó que el aumento de los gastos de investigación y desarrollo (R& KP; D) en la empresa se debe en parte a una mayor atención a la IA generativa.

Se informa que el competidor de Apple en el campo de ChatGPT «se retrasa significativamente detrás de los competidores

Siri Activation Animation en iPhone bajo el control de iOS 14.

Recientemente, se ha hablado mucho de que Apple está trabajando en la creación de su propio chatgpt de competidores llamado Apple GPT. Sin embargo, acabamos de recibir malas noticias: aparentemente, antes del lanzamiento del chatbot con inteligencia artificial (IA) durante varios años más.

El analista de Apple Ming-Chi Kuo en su reciente blog, donde estableció sus expectativas con respecto al hecho de que podría afectar positiva o negativamente los precios de las acciones de Apple en los próximos meses, puso fin a sus expectativas. Según Kuo, el GPT de Apple todavía está tan lejos que en el futuro cercano simplemente no afectará el costo de las acciones de Apple.

Facebook puede obtener bots de chat, y esto puede convertirse en un problema

El icono de la aplicación de Facebook en la pantalla principal del iPhone con los íconos de otras aplicaciones que lo rodean.

El propietario de Facebook Meta planea introducir bots de chat con una personalidad pronunciada en su aplicación social. El lanzamiento puede llevarse a cabo en septiembre de este año y se convertirá en un desafío para los competidores como ChatGPT, pero se teme que esto pueda tener serias consecuencias para la confidencialidad del usuario.

La idea pertenece al Financial Times, que informa que este paso es un intento de aumentar la participación de los usuarios de Facebook. Una nueva herramienta puede proporcionar nuevas oportunidades de búsqueda o recomendaciones sobre contenido, incluido el uso de discusiones humanoides.

Digital Trends ayuda a los lectores a monitorear el mundo de la tecnología en rápido desarrollo, publicando las últimas noticias, productos interesantes de productos, artículos editoriales penetrantes y críticas únicas.

  • Portland
  • Nueva York
  • Chicago
  • Detroit
  • los Angeles
  • Toronto
  • Carrera
  • Publicidad con nosotros
  • Trabaja con nosotros
  • Diversidad e inclusión
  • Condiciones de uso
  • política de privacidad
  • No venda y no transmita mi información
  • Gestión de preferencias en relación con las cookies
  • La prensa para la prensa
  • Mapa del sitio
Chat GPT: red neuronal en español. servicio online en españa