Empresas en línea que participan en la salud mental, utilizan ChatGPT para ayudar a los usuarios en experimentos, lo que plantea problemas éticos de las tecnologías de inteligencia de atención médica e artificial

Sobre de icono de correo electrónico. Indica la posibilidad de enviar un correo electrónico.

La flecha curva de «compartir» dirigida a la derecha.
Twitter ícono pájaro estilizado con boca abierta, escribiendo un tweet.

El icono Twitter vincula la palabra «in».

LinkedIn Fliboard Icon Letter Stylized F.

Flipboard Facebook Icon Letter F.

Facebook E-Mail Icon Sobre. Indica la posibilidad de enviar un correo electrónico.

Imagen de icono de enlace de correo electrónico de un enlace de cadena. Simboliza el sitio web de URL del sitio web.

Imagen de un teléfono con el chatgpt de inscripción y el logotipo de OpenAI.

Comprar ahora

  • Una empresa digital que se ocupa de la salud mental causa quejas de que utiliza la tecnología GPT-3 sin notificar a los usuarios.
  • El c o-fundador de Koko Robert Morris declaró por Insider que el experimento no está bajo la ley sobre el consentimiento informado en relación con la naturaleza de la prueba.
  • Algunos especialistas en el campo de la medicina y la tecnología dijeron que consideran que el experimento no es ético.

Insider recomienda despertarse con Morning Brew, un boletín diario.

La carga de algo se está cargando.
¡Gracias por firmar!
Obtenga acceso a sus temas favoritos en una cinta personalizada cuando esté en camino. Descargar aplicación

A medida que se expanden ChatGPT, una de las compañías utiliza inteligencia artificial para experimentos con ayuda psiquiátrica digital, derramando luz sobre zonas éticas «grises» asociadas con el uso de esta tecnología.

Rob Morris, cofundador de Koko, la organización gratuita de salud mental y sin fines de lucro, que coopera con las comunidades de Internet para buscar y tratar a las personas del grupo de riesgos, escribió el viernes en Twitter que su compañía usó BPT-3 Chat Bots para desarrollar respuestas Para respuestas para 4000 usuarios.

Morris señaló que la compañía probó la «velocidad del segundo piloto, cuando una persona controla el trabajo de la IA según sea necesario» en los mensajes enviados a través de la plataforma de soporte mutuo Koko, que describió en el video adjunto como «un» Coloque donde pueda obtener ayuda de nuestra red o ayudar a otra persona «.

«Hacemos ayuda para otras personas muy simples, y con el GP T-3 lo hacemos aún más efectivo y efectivo», dijo Morris en el video.

ChatGPT es una variedad de GPT-3, que crea un texto humanoide basado en consejos, y ambos son creados por OpenAI.

Inicialmente, los usuarios de Koko no fueron informados de que las respuestas fueron desarrolladas por el bot, y «cuando la gente descubrió que los mensajes fueron creados por la máquina, no funcionó», escribió Morris el viernes.

«La empatía simulada parece extraña, vacía. Los autos no tienen experiencia humana viva, por lo que cuando dicen» suena duro «o» entiendo «, suena no numeral», escribió Morris en este tema.»La respuesta de Chatbot, generada en 3 segundos, no importa cuán elegante sea, parece barata».

Sin embargo, el sábado, Morris publicó «algunas explicaciones importantes» en Twitter.

«No unimos a las personas en parejas para comunicarse con el GP T-3 sin su conocimiento (mirando hacia atrás, podría formular mi primer tweet para que él refleje esto mejor)», dijo el tweet.

«Esta función era voluntaria. Todos sabían esta función cuando estaba disponible durante varios días».

El viernes, Morris dijo que Koko «rápidamente eliminó esta función de nuestra plataforma». Señaló que los mensajes escritos con inteligencia artificial se «evalúan mucho más altos que los mensajes escritos por personas por su cuenta», y que el tiempo de respuesta debido a esta tecnología se redujo en un 50%.

Problemas éticos y legales

El experimento causó una indignación en Twitter: algunos especialistas en el campo de la salud y la tecnología condenaron a la compañía, diciendo que violó la ley sobre el consentimiento informado, la disposición federal, según la cual los sujetos deben consentir la participación en la investigación.

«Esto es profundamente poco ético», escribió el sábado la estrategia de medios y el autor Eric Seyrthet el sábado en Twitter.

«No lo admitiría públicamente», escribió Christian Hesket el viernes en Twitter, quien se hace llamar científico clínico en Twitter.»Los participantes tuvieron que dar su consentimiento informado, y se suponía que esto debía pasar por IRB [Junta de Revisión del Instituto]».

En la declaración del sábado para Insider, Morris dijo que la compañía «no recolectó personas en parejas para comunicarse con el GPT-3» y que la posibilidad de usar la tecnología se eliminó después de que quedó claro que era «como la experiencia no numeral. «

«Más bien, ofrecimos a nuestras personas similares a usar el GP T-3 para ayudarlos a hacer mejores respuestas», dijo.»Recibieron ofertas que les ayudarían rápidamente a escribir respuestas más benevolentes».

Morris le dijo a Insider que el estudio de Koko «no cae» bajo la ley sobre el consentimiento informado, y presentó como ejemplo los estudios publicados anteriormente de la compañía, que tampoco fueron bajo la ley.

«Cada persona debe consentir el uso del servicio», dijo Morris. Si fuera un estudio universitario (y no es tal, es solo un estudio de las capacidades del producto), entonces se entregaría en la categoría de «investigación» lanzada «.

Continuó: «Esto no creó un riesgo adicional para los usuarios, no condujo al engaño, y no recopilamos ninguna información personal identificada por el usuario o información sobre su salud (no hay un correo electrónico, número de teléfono, IP , nombre de usuario, etc.) «.

Chatgpt y la «zona gris» de la salud mental

Sin embargo, el experimento plantea preguntas sobre la ética y las «zonas grises» relacionadas con el uso de bots de chat con inteligencia artificial en la atención médica en su conjunto, y ya ha causado disturbios en los círculos científicos.

Arthur Kaplan, profesor de bioéticos de la Facultad de Medicina de Grossman en la Universidad de Nueva York, escribió en una carta electrónica en Insider que el uso de la tecnología de IA sin informar a los usuarios no es ético.

«La intervención de ChatGPT no es un estándar de tratamiento», dijo Kaplan en una entrevista con Insider.»Ningún grupo psiquiátrico o psicológico confirmó su efectividad y no indicó riesgos potenciales».

Agregó que las personas con enfermedades mentales «requieren una delicadeza especial durante cualquier experimento», incluida «una verificación exhaustiva del comité de estudio o la junta de supervisión institucional antes, durante y después de la intervención».

Según Kaplan, el uso de la tecnología GPT-3 de esta manera puede afectar su futuro en el campo de la salud en un sentido más amplio.

«ChatGPT puede tener un futuro, como muchos programas de inteligencia artificial, por ejemplo, cirugía robótica», dijo.»Pero lo que sucedió en este caso solo puede retrasar y complicar este futuro».

Morris le dijo a Insider que su intención era «enfatizar la importancia de una persona en la discusión entre el hombre y la IA».

«Espero que esto no se pierda», dijo.

Chat GPT: red neuronal en español. servicio online en españa