Microsoft advierte a los empleados sobre la inadmisibilidad del intercambio de «datos confidenciales» con chatgpt

Sobre de icono de correo electrónico. Indica la posibilidad de enviar un correo electrónico.

La flecha curva de «compartir» dirigida a la derecha.
Twitter ícono pájaro estilizado con boca abierta, escribiendo un tweet.

El icono Twitter vincula la palabra «in».

LinkedIn Fliboard Icon Letter Stylized F.

Flipboard Facebook Icon Letter F.

Facebook E-Mail Icon Sobre. Indica la posibilidad de enviar un correo electrónico.

Imagen de icono de enlace de correo electrónico de un enlace de cadena. Simboliza el sitio web de URL del sitio web.

Satya Microsoft

Este artículo está disponible exclusivamente para suscriptores internos. Conviértete en un suscriptor de información privilegiada y comienza a leer ahora mismo.

Comprar ahora

  • El director técnico de Microsoft dijo a los empleados que pueden usar ChatGPT en el trabajo, siempre que no compartan «datos confidenciales».
  • Amazon ha difundido recientemente una advertencia similar entre los empleados.
  • Microsoft es un importante inversor de OpenAI, que creó ChatGPT.

A principios de este mes, uno de los empleados de Microsoft preguntó en el foro interno la pregunta de si ChatGPT u otras ofertas de OpenAi, que crea chatbots, puede usarse en el trabajo.

En respuesta a esta pregunta, el ingeniero senior del Departamento del Director Técnico de Microsoft escribió que están permitidos, pero siempre que los empleados no compartan información confidencial con herramientas de inteligencia artificial.

«No envíe datos confidenciales al punto final de OpenAI, ya que pueden usarlos para enseñar modelos futuros», escribió el ingeniero senior en el mensaje interno, que Insider se familiarizó.

El repentino pasatiempo de ChatGPT ha llevado al hecho de que algunas compañías tecnológicas comenzaron a advertir a los empleados sobre la necesidad de interacción gratuita con esta tecnología. En esta situación, Microsoft es uno de los principales partidarios y socios de OpenAI. Solo la semana pasada, Microsoft anunció una nueva ronda de financiamiento de una startup. Además, la compañía planea introducir tecnología Operai en algunos de sus productos, por ejemplo, en el motor de búsqueda de la oficina y la aplicación de la oficina, que anteriormente fue informada por la información.

Según Vincent Kotinzer, profesor de informática y director del Laboratorio de Inteligencia Artificial de la Universidad de Carnegie-Mellon, las relaciones acogedoras entre las dos compañías pueden conducir a un posible conflicto de intereses de Microsoft, porque es beneficioso que OpenAI reciba más enseñanza datos. Esto no significa que Microsoft se comportará de manera irresponsable, pero «siempre es útil recordar incentivos», agregó.

El temor general es que los trabajadores puedan compartir accidentalmente información corporativa confidencial con un chatbot, como un código de software interno, y solicitar pistas o consejos para mejorar su trabajo. ChatGPT, a su vez, puede procesar los datos obtenidos para la autodeachamiento y, posiblemente, transmitir las versiones recibidas de información confidencial a otros usuarios.

«Las personas firman NDA y, por lo tanto, tienen incentivos para tener cuidado en el intercambio de información. Pero los modelos de idiomas grandes, como ChatGPT, no tienen la oportunidad de hablar sobre tales problemas, al menos por defecto», dijo Kotinzer en una entrevista con información privilegiada.

El representante de Microsoft se negó a comentar. El representante de OpenAI señaló la página de preguntas frecuentes para las preguntas frecuentes, donde puede encontrar respuestas a cualquier pregunta sobre los datos y la política de privacidad.

Amazon resuelve un problema similar

En diciembre, unas semanas después del lanzamiento público de ChatGPT, el grupo de empleados de Amazon preguntó en el canal interno Slack, si pueden usar un chatbot para el trabajo. El abogado corporativo de Amazon advirtió a los empleados sobre la inadmisibilidad de la transmisión ChatGPT «Amazon (incluido Amazon, en el que está trabajando)», que anteriormente fue informado por Insider.

«Esto es importante, ya que sus datos se pueden utilizar como capacitación para la próxima iteración ChatGPT, y no queremos que sus resultados contengan o se parezcan a nuestra información confidencial (y ya veo casos cuando sus resultados se coinciden estrechamente con los materiales existentes)» – Escribe el abogado.

¿Quién es responsable?

Aunque los empleados de la compañía son responsables de proteger los datos confidenciales, no está claro qué están haciendo exactamente Microsoft y OpenAI para resolver este problema.

«Todos tenemos que averiguar qué esperar de todos en tales situaciones. La responsabilidad por la no proliferación de información confidencial radica en los empleados, radica en el uso preciso de la información con OpenAi, o es algún tipo de combinación?»Kotnzer dijo.»Como uno de los líderes más autorizados en la industria tecnológica, Microsoft probablemente tendrá un impacto significativo en esta discusión».

El permiso de la Compañía proporciona las condiciones de servicio de OpenAI para utilizar todos los datos de entrada y salida generados por los usuarios y ChatGPT. La Compañía también afirma eliminar toda la información personal (PII) de los datos utilizados.

Sin embargo, es casi imposible «identificar y eliminar cuidadosamente la información personal de estos datos de estos datos, dado el rápido crecimiento de ChatGPT, Emily Bender, una maestra de lingüística computacional en la Universidad de Washington, anteriormente en una entrevista con Insider. La propiedad intelectual corporativa, muy probablemente, tampoco está incluida en el concepto de PII, señaló Bender.

OpenAi está lejos de ser transparente en la forma en que usa datos, pero si se forma en los datos de capacitación, esperaría que las corporaciones hagan esta pregunta ”: después de varios meses de uso generalizado, ChatGPT será posible extraer información corporativa privada utilizando la astucia consejos? «Bender agregado.

¿Hay un consejo?

Póngase en contacto con el periodista Evgeny Kim a través de aplicaciones para el intercambio de mensajes cifrados señal o telegrama ( +1-650-942-3061) o por correo electrónico (ekim@insider. com). Póngase en contacto con él con un dispositivo que no funcione. Para otros consejos sobre el intercambio seguro de información, consulte el liderazgo interno.

Chat GPT: red neuronal en español. servicio online en españa