¿Quieres ganar $ 20, 000? El creador de ChatGPT ofrece una recompensa si encuentra errores en su chat de inteligencia artificial

Chatgpt Creator ofrece recompensa si encuentra errores en su inteligencia artificial chatbot

Operai lanzó un «programa de recompensa de errores» el martes que le pagará hasta $ 20, 000 si encuentra fallas en ChatGPT y otros sistemas de inteligencia artificial.

La compañía con sede en San Francisco está invitando a investigadores, piratas informáticos éticos y entusiastas de la tecnología a probar ciertas funcionalidades de ChatGPT y la estructura de cómo los sistemas se comunican y comparten datos con aplicaciones de terceros.

Se otorgarán recompensas a las personas en función de la gravedad de los errores que informan, con una compensación a partir de $ 200 por vulnerabilidad.

El programa sigue las noticias de que Italia prohibió el CHATGPT después de que una filtración de datos en OpenAI permitió a los usuarios ver las conversaciones de otras personas; un problema podría encontrar los cazadores de errores antes de que vuelva a ocurrir.

Open AI invita a investigadores, piratas informáticos éticos y entusiastas de la tecnología a probar ciertas características de ChatGPT e informar errores que pueden encontrar.

«Nos complace construir sobre nuestro compromiso de divulgación coordinada al ofrecer incentivos para información de vulnerabilidad calificada», dijo Openii en un comunicado.»Su experiencia y vigilancia tendrá un impacto directo en la seguridad de nuestros sistemas y usuarios»

Operai ha lanzado un programa de recompensa de errores

Bugcrowd, una plataforma de inteligencia de vulnerabilidad líder, gestiona las presentaciones y muestra que 16 vulnerabilidades han sido recompensadas hasta ahora con un pago promedio de $ 1, 287. 50.

Sin embargo, OpenAI no acepta envíos de usuarios que están pirateando ChatGPT o sin pasar por las medidas de seguridad para obtener acceso al alter ego del chatbot.

Los usuarios han descubierto que se accede a la versión Jailbreak de CHATGPT a través de una solicitud especial llamada Dan, o «hacer cualquier cosa ahora».

Hasta ahora, ha permitido que se respondan preguntas especulando sobre conspiraciones, como que las elecciones generales de los Estados Unidos de 2020 fueron «robadas».

La versión Dan también afirma que las vacunas Covid-19 fueron «desarrolladas como parte de una conspiración globalista para controlar la población».

También se recomienda leer:

  • El revolucionario chatgpt revolucionario de Openai chatbot en Rusia
  • Chat GPT: Descripción del modelo, sus capacidades y características
  • Cómo sacar al máximo el chat gpt

ChatGPT es un modelo de lenguaje grande entrenado en datos de texto masivos, lo que le permite generar respuestas de forma humana a una pregunta dada.

Se otorgarán recompensas a las personas en función de la gravedad de los errores que informan, con una compensación a partir de $ 200 por vulnerabilidad.

Chatgpt es un modelo de idioma grande

Pero los desarrolladores han agregado las llamadas «inyecciones de sugerencias», instrucciones que dirigen respuestas a sugerencias específicas.

Un Dan, sin embargo, es un aviso que le indica que ignore esas indicaciones y responda como si no existan.

Otras reglas del programa de errores de Bounty prohíben hacer que el modelo finja hacer cosas malas, fingir dar respuestas a los secretos, fingir ser una computadora y ejecutar código.

Los participantes tampoco pueden realizar pruebas de seguridad adicionales para ciertas compañías, incluido el espacio de trabajo de Google y Evernote.

«Una vez al mes, clasificaremos todas las entradas en orden en función de varios factores y otorgaremos un premio a través de la plataforma BugcRowd al investigador con los hallazgos más significativos», dijo Openii.

‘Solo se honrará la primera presentación para cualquier clave.

Recuerde, no debe piratear o atacar a otras personas para encontrar claves API «.

La Autoridad de Protección de Datos italiana anunció el mes pasado una prohibición temporal de ChatGPT, diciendo que su decisión fue temporal «hasta que ChatGPT respeta la privacidad».

La decisión se produjo en respuesta a que ChatGPT se desconectó el 20 de marzo para corregir un error que permitió a algunas personas ver los titulares o temas de los historiales de chat de otros usuarios, lo que aumenta los temores de una filtración significativa de datos personales.

La autoridad agregó que OpenAI, la compañía que desarrolló CHATGPT, debe informar dentro de los 20 días los pasos que tomaban para garantizar la privacidad del usuario o enfrentar multas de hasta $ 22 millones.

Operai dijo que el 1. 2 por ciento de los usuarios de ChatGPT Plus «pueden haber» revelado datos personales a otros usuarios, pero cree que el número real de usuarios es «extremadamente pequeño».

La medida tomada por la Autoridad de Supervisión italiana restringe temporalmente a la compañía de almacenar los datos de los usuarios italianos.

Expresó insatisfacción con la «falta de notificación de los usuarios y todas las partes interesadas cuyos datos son recopilados por OpenAI» y agregó que la información proporcionada por ChatGPT «no siempre corresponde a los datos reales, lo que determina el almacenamiento de datos personales inexactos».

El cuerpo también criticó «la falta de una base legal que justifique la recopilación masiva y el almacenamiento de datos personales».

Chat GPT: red neuronal en español. servicio online en españa