Los médicos advierten contra el uso de ChatGPT para obtener consultas médicas después del estudio mostraron que al solicitar información sobre enfermedades del cáncer, la inteligencia artificial distorsiona el estado de salud. AI-Chattot respondió incorrectamente cada décima pregunta sobre la detección del cáncer de seno, y las respuestas correctas no fueron tan «exhaustivas» como en una búsqueda simple en Google. Según los investigadores, en algunos casos, AI-Chattot incluso usó artículos de revistas falsas para confirmar sus declaraciones. Esto sucede en medio de la advertencia de que los usuarios deben relacionarse con el programa con precaución, ya que es propenso a «alucinaciones», es decir, A inventar.
Se advierte a los médicos contra el uso de ChatGPT para obtener consultas médicas
Investigadores de la Universidad de la Facultad de Medicina pidieron a ChatGPT que respondiera 25 preguntas relacionadas con los consejos para aprobar la detección del cáncer de seno. Como se sabe que Chatbot puede variar sus respuestas, cada pregunta se hizo tres veces. Luego, los resultados fueron analizados por tres radiólogos especializados en mamografía. La gran mayoría de las respuestas – 88% – fueron adecuadas y comprensibles. Sin embargo, algunas respuestas fueron «inexactas o incluso ficticias», advirtieron. Por ejemplo, una de las respuestas se basó en información obsoleta. Contenía una recomendación para posponer la mamografía de cuatro a seis semanas después de la vacunación de Kovid-19, pero este consejo se cambió hace más de un año, y ahora se recomienda a las mujeres que no esperen. ChatGPT también dio respuestas contradictorias a las preguntas sobre el riesgo de contraer cáncer de mama enfermo y dónde puede hacer mamografía. El estudio mostró que las respuestas «difieren significativamente» en cada tarea de la misma pregunta. El c o-autor del estudio, el Dr. Paul Yi, dijo: «Nos convenció de nuestra propia experiencia de que ChatGPT a veces se le ocurre artículos de revistas falsas o consorcianos médicos para confirmar sus declaraciones».
Un nuevo juego increíble basado en Chatgpt encarna tus sueños
Publicidad
«Los consumidores deben comprender que estas son tecnologías nuevas y no verificadas, y aún deben confiar en las recomendaciones de su médico, no ChatGPT». Los resultados del estudio publicado en la revista Radiology también mostraron que una búsqueda simple en Google da una respuesta más completa. El principal autor del estudio del Dr. Khan Haver señaló que ChatGPT se basa solo en un conjunto de recomendaciones de una organización: la Sociedad Americana de Oncología, y no ofrece varias recomendaciones preparadas por el Gestión de Enfermedades y el Grupo Preventivo para los Servicios Preventivos de los Estados Unidos. El lanzamiento de ChatGPT a fines del año pasado causó una ola de demanda de esta tecnología, y ahora millones de usuarios usan estas herramientas diariamente, desde escribir trabajos escolares y terminar con la búsqueda de recomendaciones de salud. Microsoft invirtió fondos significativos en el software CHATGPT y lo introdujo en el motor de búsqueda de Bing y Office 365, incluidos Word, PowerPoint y Excel. Sin embargo, el gigante tecnológico admitió que aún podía cometer errores. Los expertos en inteligencia artificial llaman a este fenómeno «alucinación» cuando el chatbot, que no encuentre una respuesta a la pregunta de que está entrenado, responde con confianza la respuesta ficticia que le parece plausible. En el futuro, repite repetidamente la respuesta incorrecta, sin darse cuenta de que este es el fruto de su imaginación. Sin embargo, el Dr. Yi cree que, en general, los resultados fueron positivos: ChatGPT respondió correctamente preguntas sobre los síntomas del cáncer de seno, sobre quién está en riesgo, así como preguntas sobre el costo, la edad y la frecuencia de las recomendaciones.