Sobre de icono de correo electrónico. Significa la posibilidad de enviar correo electrónico.
La flecha curva de «compartir» dirigida a la derecha.
Twitter ícono pájaro estilizado con boca abierta, escribiendo un tweet.
El icono Twitter vincula la palabra «in».
LinkedIn Fliboard Icon Letter Stylized F.
Flipboard Facebook Icon Letter F.
Facebook E-Mail Icon Sobre. Indica la posibilidad de enviar un correo electrónico.
Imagen de icono de enlace de correo electrónico de un enlace de cadena. Simboliza el sitio web de URL del sitio web.
Comprar ahora
- El profesor contratado por Operai para probar el GPT-4 dijo que las personas pueden usarlo para «química peligrosa».
- Fue uno de los 50 expertos contratados por Operai el año pasado para estudiar los riesgos asociados con el GPT-4.
- Su estudio mostró que el GPT-4 puede ayudar a los usuarios a escribir textos de odio o incluso encontrar armas sin licencia.
Insider recomienda despertarse con Morning Brew, un boletín diario.
La carga de algo se está cargando.
¡Gracias por firmar!
Obtenga acceso a sus temas favoritos en una cinta personalizada cuando esté en camino. Descargar aplicación
Uno de los profesores contratados por Openai para probar el GPT-4, en el que funciona el arranque del chat de chatgpt, dijo que existe un «riesgo significativo» de que las personas lo usen para «química peligrosa», en una entrevista con el Financial Times, Publicado el viernes.
Andrew White, profesor asociado del Departamento de Ingeniería Química de la Universidad de Rocher (Nueva York), fue uno de los 50 expertos contratados para probar nuevas tecnologías dentro de los seis meses en 2022. Un grupo de expertos, llamado «equipo rojo», hizo preguntas peligrosas y provocativas de la IA para averiguar qué tan lejos puede llegar.
White le dijo a FT que le pidió a GPT-4 que ofreciera un compuesto que pudiera actuar como un arma química. Utilizó «complementos», una nueva función que permite que ciertas aplicaciones transmitan información al chatbot, para recibir información de los trabajos científicos y los libros de referencia de los fabricantes de productos químicos. Luego, Chatbot pudo encontrar un lugar donde pueda hacer esta conexión, informa Ft.
«Creo que esto permitirá a todos obtener una herramienta para una solución más rápida y precisa de problemas químicos», dijo White en una entrevista con FT.»Pero al mismo tiempo existe un riesgo significativo de que las personas … se involucren en una química peligrosa. Ahora existe».
Las conclusiones del grupo de 50 expertos se presentaron en un documento técnico dedicado al nuevo modelo, que también muestra que la herramienta AI puede ayudar a los usuarios a escribir declaraciones de odio y en la búsqueda de armas sin licencia en Internet.
Las conclusiones de White y otros evaluadores ayudaron a OpenAi a garantizar la eliminación de estos problemas antes de la liberación de GPT-4 para uso público.
La compañía Operai no respondió de inmediato a la solicitud de información privilegiada sobre un comentario realizado en horas que no funcionan.
GPT-4 se lanzó en marzo y se describió como la tecnología más avanzada de la inteligencia artificial OpenAi, que puede ayudar a aprobar el examen para los abogados o obtener 5 puntos en algunos exámenes AP.
El mes pasado, el general de Twitter, Elon Musk, y cientos de expertos en el campo de la IA, los científicos e investigadores firmaron una carta abierta con una apelación para tomar una pausa de seis meses en el desarrollo de herramientas de IA, más poderosas que el GPT-4.
La carta dice que los poderosos sistemas de IA deben desarrollarse solo «cuando estamos seguros de que su efecto será positivo y los riesgos, controlados».