Los chatbots de inteligencia artificial se han promovido cada vez más como el futuro de la atención médica, con algunos sistemas que funcionan bien en exámenes médicos estandarizados y ofrecen consejos basados en síntomas a los usuarios. Sin embargo, un nuevo estudio publicado en Nature Medicine sugiere que estas herramientas no solo están lejos de reemplazar a los médicos, sino que también pueden representar riesgos cuando se utilizan para orientación médica personal.
La investigación, liderada por equipos de la Universidad de Oxford, identificó una brecha significativa en los modelos de lenguaje grande (LLMs). Aunque los sistemas demostraron un sólido conocimiento técnico y tuvieron buen desempeño en evaluaciones médicas estructuradas, tuvieron dificultades cuando se les pidió ayudar a los usuarios con preocupaciones de salud del mundo real. Según los investigadores, traducir el conocimiento teórico en consejos médicos seguros y prácticos sigue siendo un gran desafío.
La Dra. Rebecca Payne, la principal profesional médica involucrada en el estudio, afirmó que, a pesar del entusiasmo creciente en torno a la IA en la atención médica, la tecnología no está lista para asumir las responsabilidades de un médico. Advirtió que confiar en los modelos de lenguaje grande para el análisis de síntomas puede ser peligroso, ya que pueden proporcionar diagnósticos incorrectos o no reconocer situaciones que requieren atención médica urgente.
Pruebas a Gran Escala Revelan Debilidades Clave
El estudio involucró a 1,300 participantes que utilizaron modelos de IA desarrollados por OpenAI, Meta y Cohere. A los participantes se les presentaron escenarios médicos creados por doctores y se les preguntó qué pasos deberían seguir los sistemas de IA para abordar las condiciones descritas.
Los investigadores encontraron que los consejos generados por IA no eran más confiables que métodos tradicionales de autodiagnóstico, como búsquedas en línea o juicio personal. En muchos casos, los usuarios recibieron una mezcla de orientación precisa y engañosa, lo que dificultaba determinar los pasos adecuados a seguir. Otro desafío fue la comunicación: los participantes a menudo tenían dificultades para entender qué información necesitaba la IA para generar recomendaciones precisas.
La Dra. Payne enfatizó que el diagnóstico médico implica más que recordar hechos. Explicó que una atención efectiva requiere escuchar atentamente, hacer preguntas aclaratorias, indagar sobre síntomas relevantes y guiar a los pacientes a través de una conversación dinámica. Los pacientes frecuentemente no saben qué detalles son médicamente significativos, por lo que los médicos deben extraer activamente información crítica. El estudio concluyó que los LLMs actuales aún no son capaces de gestionar de manera confiable esta interacción compleja con personas no expertas.
Un Rol de Apoyo, No Clínico
Aunque los investigadores advirtieron contra el uso de chatbots de IA como asesores médicos, no descartaron completamente la tecnología. En cambio, sugirieron que la IA puede desempeñar un papel de apoyo en los entornos de atención médica. La Dra. Payne señaló que los LLMs son particularmente útiles para resumir y organizar información. En entornos clínicos, ya se utilizan para transcribir consultas y convertir esa información en cartas de derivación a especialistas, hojas informativas para pacientes o registros médicos.
El equipo concluyó que, aunque la IA tiene potencial en la atención médica, actualmente no es apta para proporcionar consejos médicos directos. Argumentan que se necesitan mejores marcos de evaluación y estándares de seguridad antes de que estos sistemas puedan integrarse de manera responsable en roles dirigidos a los pacientes. Su objetivo, dijeron, no es rechazar la IA en la medicina, sino asegurarse de que su desarrollo priorice la seguridad del paciente y la precisión clínica.