Un estudio revela que los chatbots de IA no están listos para reemplazar a los médicos

ICOHOIDER

Los chatbots de inteligencia artificial se han promovido cada vez más como el futuro de la atención médica, con algunos sistemas que funcionan bien en exámenes médicos estandarizados y ofrecen consejos basados en síntomas a los usuarios. Sin embargo, un nuevo estudio publicado en Nature Medicine sugiere que estas herramientas no solo están lejos de reemplazar a los médicos, sino que también pueden representar riesgos cuando se utilizan para orientación médica personal.

La investigación, liderada por equipos de la Universidad de Oxford, identificó una brecha significativa en los modelos de lenguaje grande (LLMs). Aunque los sistemas demostraron un sólido conocimiento técnico y tuvieron buen desempeño en evaluaciones médicas estructuradas, tuvieron dificultades cuando se les pidió ayudar a los usuarios con preocupaciones de salud del mundo real. Según los investigadores, traducir el conocimiento teórico en consejos médicos seguros y prácticos sigue siendo un gran desafío.

La Dra. Rebecca Payne, la principal profesional médica involucrada en el estudio, afirmó que, a pesar del entusiasmo creciente en torno a la IA en la atención médica, la tecnología no está lista para asumir las responsabilidades de un médico. Advirtió que confiar en los modelos de lenguaje grande para el análisis de síntomas puede ser peligroso, ya que pueden proporcionar diagnósticos incorrectos o no reconocer situaciones que requieren atención médica urgente.

Pruebas a Gran Escala Revelan Debilidades Clave

El estudio involucró a 1,300 participantes que utilizaron modelos de IA desarrollados por OpenAI, Meta y Cohere. A los participantes se les presentaron escenarios médicos creados por doctores y se les preguntó qué pasos deberían seguir los sistemas de IA para abordar las condiciones descritas.

Los investigadores encontraron que los consejos generados por IA no eran más confiables que métodos tradicionales de autodiagnóstico, como búsquedas en línea o juicio personal. En muchos casos, los usuarios recibieron una mezcla de orientación precisa y engañosa, lo que dificultaba determinar los pasos adecuados a seguir. Otro desafío fue la comunicación: los participantes a menudo tenían dificultades para entender qué información necesitaba la IA para generar recomendaciones precisas.

La Dra. Payne enfatizó que el diagnóstico médico implica más que recordar hechos. Explicó que una atención efectiva requiere escuchar atentamente, hacer preguntas aclaratorias, indagar sobre síntomas relevantes y guiar a los pacientes a través de una conversación dinámica. Los pacientes frecuentemente no saben qué detalles son médicamente significativos, por lo que los médicos deben extraer activamente información crítica. El estudio concluyó que los LLMs actuales aún no son capaces de gestionar de manera confiable esta interacción compleja con personas no expertas.

Un Rol de Apoyo, No Clínico

Aunque los investigadores advirtieron contra el uso de chatbots de IA como asesores médicos, no descartaron completamente la tecnología. En cambio, sugirieron que la IA puede desempeñar un papel de apoyo en los entornos de atención médica. La Dra. Payne señaló que los LLMs son particularmente útiles para resumir y organizar información. En entornos clínicos, ya se utilizan para transcribir consultas y convertir esa información en cartas de derivación a especialistas, hojas informativas para pacientes o registros médicos.

El equipo concluyó que, aunque la IA tiene potencial en la atención médica, actualmente no es apta para proporcionar consejos médicos directos. Argumentan que se necesitan mejores marcos de evaluación y estándares de seguridad antes de que estos sistemas puedan integrarse de manera responsable en roles dirigidos a los pacientes. Su objetivo, dijeron, no es rechazar la IA en la medicina, sino asegurarse de que su desarrollo priorice la seguridad del paciente y la precisión clínica.

Ver originales
Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.
Comentar
0/400
Sin comentarios