Sam Altman de Openai dice que no hay un chat GPT-5 de los que preocuparse

Sam Altman de Openai dice que no hay un chat GPT-5 de los que preocuparse

El fundador de la compañía habló en un evento del MIT y se dirigió a una carta abierta ampliamente circulada que pidió a AI Labs que abandone un mayor desarrollo durante seis meses.

Sam Altman disipó los rumores de que Operai ya está trabajando en ChatGPT-5, solo un mes después de que la compañía lanzó GPT-4. Actualmente no hay GPT-5 en el desarrollo, dijo Altman, que habla prácticamente en un evento en el Instituto de Tecnología de Massachusetts.

El entrevistador Lex Friedman, investigador de IA en el MIT, le preguntó a Altman qué pensaba de la carta abierta recientemente publicada y ampliamente circulada que exigía una pausa para la IA. En respuesta, el fundador de Operai compartió algunas de sus críticas.»Una versión anterior de la carta afirmó que OpenAi está entrenando a GPT-5 en este momento. Eso no es cierto, y no lo haremos durante algún tiempo», señaló Altman.»Entonces, en ese sentido, [la carta] era un poco tonto».

Pero, GPT-5 o no, es poco probable que la declaración de Altman sea particularmente tranquilizadora para los críticos de IA, como se señaló por primera vez en un informe del Verge. El fundador de la compañía de tecnología siguió su declaración «No habrá GPT-5» al aclarar inmediatamente que las actualizaciones y adiciones están en proceso para GPT-4. Hay formas de aumentar el rendimiento de la tecnología más allá de lanzar una versión oficial con un número más alto.

La compañía ha lanzado un complemento para GPT-4

«Estamos haciendo otras cosas además de GPT-4 que creo que tienen todo tipo de problemas de seguridad que son importantes para abordar que se perdieron por completo en la carta», dijo Altman.», Dijo Altman, esencialmente reconociendo que Openai está enviando mejoras de productos que pueden no estar completamente optimizadas para el bien de la humanidad o la seguridad de los usuarios. Por ejemplo, a fines de marzo, la compañía lanzó un complemento para GPT-4 que permiteSu gran modelo de idioma para navegar por Internet, lo que podría conducir a aún más problemas de privacidad de datos y manipulación de usuarios.

Sin embargo, Altman hizo un pequeño intento de calmar los temores sobre la IA. Dijo que Operai pasó más de seis meses entrenando a GPT-4 antes de su lanzamiento público. También señaló que «tomarse el tiempo para aprender realmente la seguridad del modelo … es muy importante».

«A medida que las oportunidades se vuelven cada vez más serias, el bar de seguridad debe ser planteado», agregó Altman.»Creo que moverse con precaución y obtener cada vez más riguroso sobre la seguridad es realmente importante. Una carta, creo, no es la forma óptima de abordar este problema».

OpenAI sobre priorizar la seguridad

Aún así, las declaraciones del CEO de Operai sobre priorizar la seguridad probablemente deberían tomarse con cierto escepticismo. Incluso en una entrevista el jueves en el Instituto de Tecnología de Massachusetts, no todo lo que el emprendedor escandalizado dijo que era cierto.

Cuando se le preguntó si Openai continuará siendo transparente en el futuro, Altman dijo: «Ciertamente planeamos seguir haciéndolo». Excepto que la pregunta en sí es una bola blanda engañosa. Openai, que alguna vez fue una organización verdaderamente sin fines de lucro y de código abierto, se está convirtiendo en una corporación cada vez más cerrada y con fines de lucro.

GPT-4, en particular, es una «caja negra». La compañía no ha publicado ninguna información sobre los datos de capacitación sobre los cuales fue depurado su último chatbot. Tampoco ha compartido ninguna información sobre la arquitectura, el diseño u otros detalles internos verdaderos de GPT-4.

«Dado el entorno competitivo y las implicaciones de seguridad de los modelos a gran escala como GPT-4, este informe no proporciona detalles adicionales sobre la arquitectura (incluido el tamaño del modelo), el hardware, los cálculos de capacitación, la construcción del conjunto de datos, el método de capacitación y similares, y similares,»Openai dijo en un informe técnico que la compañía publicó junto con el comunicado de GPT-4.

Los chatbots de inteligencia artificiales son el comienzo del fin de la raza humana

Altman tampoco deja de darse crédito. Esas cosas que dice, bueno, puede no estar seguro de que sean ciertas:

Creo que muchas otras compañías no quieren decir algo hasta que estén convencidas de que tienen razón. Pero creo que esta tecnología tendrá un gran impacto en todos nosotros que creemos que traer a todos a la discusión, liberando estos sistemas al mundo, a pesar de que están profundamente defectuosos en su estado actual, para que las personas puedan intentarellos, piensen en ellos, comprendan los pros y los contras; Vale la pena la compensación, incluso si tendemos a avergonzarnos en público y a menudo cambiamos nuestras mentes con nuevos datos.

Puede pensar que los chatbots de inteligencia artificial son el comienzo del fin de la raza humana. O puede creer que todas estas llamadas cosas de «inteligencia artificial» son demasiado exageradas. Independientemente de su postura de pedir una moratoria de seis meses en la IA, la respuesta de Altman a la carta abierta no es la respuesta.

Chat GPT: red neuronal en español. servicio online en españa