«Todo puede salir mal». El inventor de Chatgpt Sam Altman admite que la inteligencia artificial puede causar «daños significativos para el mundo», hablando con el Congreso

El martes, el director general de OpenA, Sam Altman, pidió al Congreso que desarrolle reglas para la inteligencia artificial, reconociendo que la tecnología «puede no ir como debería». Durante cinco horas, los legisladores interrogaron al CEO, enfatizando que ChatGPT y otros modelos pueden cambiar la «historia de la humanidad» tanto en el mejor como en lo que es peor, comparándolos con una máquina impresa o una bomba atómica. Altman, que parecía enrojecido y ampliamente abierto con los ojos durante la discusión del futuro, que puede crear inteligencia artificial, admitió que sus «peores temores» se deben al hecho de que con la ayuda de su tecnología el mundo puede ser «daños significativos. «. Si esta tecnología no va lo mismo que debería, entonces todo puede salir completamente mal, y queremos declarar esto. Queremos trabajar con el gobierno para que esto no suceda ”, continuó. La audiencia el martes es la primera de la serie destinada a desarrollar las reglas para la inteligencia artificial, que, según los legisladores, debería haberse realizado unos años. Hace. Senador Richard Blumenthal, los presidentes de la audiencia dijeron que el Congreso no aprovechó el momento en que aparecieron las redes sociales, lo que permitió a los depredadores dañar a los niños, pero este momento no pasó en el caso de la IA.

Solo un retiro de una carrera peligrosa para modelos cada vez más impredecibles de una

El Director General de Openai, Sam Altman, habló con el Congreso con un discurso sobre los peligros de la inteligencia artificial después de que el sistema CHATGPT desarrollado por su compañía se explotó en solo unos meses.

La compañía Operai, ubicada en San Francisco, atrajo la atención pública después de que lanzó ChatGPT a fines del año pasado. ChatGPT es una bota de chat gratuita que responde preguntas de manera convincente que recuerdan a las humanas. El senador Josh Hawley dijo: «Hace un año, no pudimos realizar esta discusión, ya que estas tecnologías aún no se han vuelto públicas. Pero [estas audiencias] muestran cuán rápido [AI] cambia y transforma nuestro mundo». El propósito de la audiencia el martes no fue controlar la IA, sino comenzar una discusión sobre cómo hacer que ChatGPT y otros modelos transparentes, para garantizar la divulgación de riesgos y crear hojas de evaluación. Blumenthal, un demócrata de Connecticut, que dirige el subcomité del Comité del Senado sobre el Sistema Judicial sobre Privacidad, Tecnologías y Legislación, abrió la audiencia un discurso grabado que sonó como el discurso de un senador, pero en realidad fue un clon de voz capacitado en los discursos y discursos de Blmental. Grabando el discurso escrito Chatgpt, después de preguntarle a Chatbot: «¿Cómo abriría estas audiencias?»El resultado fue impresionante, dijo Blumenthal, pero agregó: «¿Qué pasa si le pregunté, y qué pasa si aprobó el cambio de Ucrania o el liderazgo de Rusia por Vladimir Putin?»Según Blmental, las empresas que participan en el desarrollo de la inteligencia artificial deben ser requeridas para probar sus sistemas y revelar riesgos bien conocidos antes de su liberación.

El director general de Openai, Sam Altman, hizo un informe sobre los peligros de la inteligencia artificial después de su complejo

La compañía Operai, ubicada en San Francisco, atrajo la atención pública después de que lanzó ChatGPT a fines del año pasado. ChatGPT es una bota de chat gratuita que responde preguntas con humanoide convincente.

Altman les dijo a los senadores que la IA generativa podría convertirse en el «momento de la máquina de impresión», pero no hace la vista gorda a sus deficiencias, señalando que los políticos y los líderes de la industria deben trabajar juntos para «hacer así». «

Altman, que parecía ojos enrojecidos y abiertos durante la discusión del futuro, que puede crear inteligencia artificial, admitió que sus «temores más terribles» se deben al hecho de que su tecnología puede causar «daños significativos para el mundo». Si esta tecnología no va lo mismo que debería, entonces todo puede salir completamente mal, y queremos declarar esto. Queremos trabajar con el gobierno para que esto no suceda ”, continuó. Uno de los problemas planteados durante la audiencia se discutió en la sociedad: cómo la IA afectará los empleos.» La pesadilla más grande es una revolución industrial inminente relacionada con el desplazamiento de los trabajadores. Unos, «» que, creemos, será mucho mejor «. Creo que, al otro lado de esta tecnología, habrá muchos más trabajos, y los trabajos de hoy serán aún mejores», dijo. Creo que esto automatiza completamente algunos trabajos y creará otros nuevos, lo que, creemos, será mucho mejor «.

Cinco conclusiones del discurso del Director General de Openai al Congreso

El CEO de OpenAI quiere una regulación de la IA El propósito de la audiencia fue discutir los peligros de la IA y trabajar con OpenAI sobre cómo prevenir daños a la humanidad. Es más probable que GPT-4 responda a las solicitudes que cualquier otro modelo ampliamente implementado con capacidades similares”, dijo Altman. Sin embargo, creemos que la intervención del gobierno será fundamental para mitigar los riesgos asociados con la aparición de modelos cada vez más poderosos”. dijo: “A medida que se desarrolla esta tecnología, entendemos que las personas están preocupadas por cómo puede cambiar la forma en que vivimos. También estamos preocupados». Altman pidió la creación de «una nueva agencia que autorizaría cualquier esfuerzo más allá de una cierta escala de capacidad y podría quitar esa licencia al tiempo que hace cumplir los estándares de seguridad». desinformación Altman dijo: «Esta es una de las áreas que más me preocupa, la capacidad más general de estos modelos para manipular, persuadir, entregar desinformación uno a uno». Creo que automatiza completamente algunos trabajos. Y crearemos otros nuevos que creemos que serán mucho mejores», dijo Altman. Aconsejó al Congreso que considere a GPT4 «como una herramienta, no como una creación» que «hace un buen trabajo, no un trabajo». Mientras que Christina Montgomery, directora de privacidad en IBM, adopta un enfoque diferente: «Algunos trabajos serán cosa del pasado».

Publicidad

‘Esto afectará los lugares de trabajo. Tratamos de entender esto muy claramente ”, dijo. El tribunal también fue atendido por Christina Montgomery, directora de IBM sobre temas de confidencialidad, que también admitió que la IA cambiará el trabajo cotidiano, pero al mismo tiempo crear nuevos empleos.» Yo mismo soy un Ejemplo de trabajo, que no existía [antes de la aparición de AI] ”, dijo. Durante la audiencia de Hawley, también mencionó el tema de la elección de 2024, temiendo que AI pudiera afectar la opinión de las personas y el senador Amy Klobuchar expresó su temor de que difundiera la desinformación. Altman, sin embargo, estuvo de acuerdo con sus temores sobre las futuras elecciones presidenciales. Esta es una de las áreas de mi mayor preocupación: la capacidad más común de estos modelos para manipular, convencer, uno, uno, uno, uno. En una información errónea ”, dijo Altman. El público utiliza ChatGPT para escribir obras científicas, libros, artículos de noticias, correos electrónicos y otros textos, y muchos lo perciben como un asistente virtual. En la forma más simple, la IA es un área que combina ciencias de la computación y datos extensos para resolver problemas. Esta tecnología permite a las máquinas estudiar sobre experiencia, adaptarse a nuevos datos y realizar tareas similares a los humanos. Los sistemas, que incluyen el subterráneo del aprendizaje automático y el aprendizaje profundo, consisten en algoritmos de IA destinados a crear sistemas expertos que realicen pronósticos o clasificaciones basadas en datos de entrada. De 1957 a 1974, AI experimentó un apogeo. Las computadoras podrían almacenar más información, se volvieron más rápidas, más baratas y más accesibles. Los algoritmos de aprendizaje automático también mejoraron

La compañía Operai, ubicada en San Francisco, atrajo la atención pública después de que lanzó ChatGPT a fines del año pasado. ChatGPT es una bota de chat gratuita que responde preguntas con humanoide convincente.

Musk, Wizard y otros líderes tecnológicos se encuentran entre 1120 personas que firmaron una carta abierta que pidió que toda la industria se detenga en la actual «raza peligrosa».

En solo unos meses, aprobó un examen para un abogado con un resultado más alto que el 90 por ciento de las personas que lo aprobaron y alcanzó la precisión del 60 por ciento al aprobar el examen para obtener una licencia para actividades médicas en los Estados Unidos. Las audiencias que han pasado el martes parecen compensar las fallas de los legisladores con las redes sociales: podrán tomar el control del progreso antes de que se vuelva demasiado grande para contenerlo. Los senadores dejaron en claro que no querían que los líderes de la industria suspendieran los desarrollos, que Elon Musk y otros magnates tecnológicos logran, pero deben continuar su trabajo de manera responsable. Musk y más de 1000 expertos principales firmaron una carta abierta al Instituto de la Vida Futil, que fue llamado a suspender una «raza peligrosa» para el desarrollo de la IA del tipo ChatGPT. Kevin Baragona, cuyo nombre aparece en una carta, dijo en marzo en una entrevista con DailyMail. com que «Superpertelleck AI es como un arma nuclear de software». Muchas personas discuten sobre si continuar o no su desarrollo «, continuó. Los estadounidenses lucharon tal idea durante el desarrollo de armas de destrucción masiva, en ese momento se llamaba» preocupación nuclear «. Es casi similar a la guerra entre El chimpancé y la gente, dijeron a DailyMail. com el signo del Barágía: «La gente claramente gana, porque somos mucho más inteligentes y podemos usar tecnologías más avanzadas para ganarse sobre ellas». Si somos lo mismo que los chimpancés, entonces la IA nos destruirá, o nos convertiremos en sus esclavistas «.

El atractivo de los líderes del sector tecnológico con una solicitud para detener la AI peligrosa: lea la carta por completo

Los sistemas de IA que tienen un intelecto competitivo en relación con una persona pueden representar un grave peligro para la sociedad y la humanidad, lo que se confirma por los resultados de una extensa investigación y se reconoce como los principales laboratorios de IA. Como se indica en los «principios de AI asilomar» ampliamente aprobados, la IA avanzada puede convertirse en un cambio profundo en la historia de la vida en la Tierra, y debe planificarse y controlarse con la atención y los recursos apropiados. Desafortunadamente, dicha planificación y gestión no ocurre, aunque en los últimos meses los laboratorios de IA se han involucrado en una raza no controlada para desarrollar e introducir una inteligencia digital cada vez más poderosa, que nadie, incluso sus creadores, puede entender, predecir o predecir o predecir o predecir control de manera confiable. Los sistemas de inteligencia artificial modernos se vuelven competitivos en relación con una persona al resolver problemas comunes, y debemos preguntarnos: ¿deberíamos dejar que las máquinas llenen nuestros canales de información con propaganda y falsedad?¿Es necesario automatizar todo tipo de trabajo, incluidos los que brindan satisfacción?¿Deberíamos desarrollar una mente inhumana, que finalmente superará, superará, se extenderá y reemplazará?¿Debería arriesgar la pérdida de control sobre nuestra civilización? Dichas soluciones no pueden ser delegadas por líderes tecnológicos no conformes. Se deben desarrollar poderosos sistemas de inteligencia artificial solo cuando estemos seguros de que su influencia será positiva y los riesgos, controlados. Esta confianza debe estar bien justificada y aumentar a medida que aumenta la escala de la exposición potencial del sistema. En una declaración reciente de Operai sobre la inteligencia artificial de uso general, se dice que «en algún momento puede ser importante obtener

Chat GPT: red neuronal en español. servicio online en españa