Os chatbots de IA têm sido cada vez mais promovidos como o futuro da saúde, com alguns sistemas a desempenhar bem em exames médicos padronizados e a oferecer aconselhamento baseado em sintomas aos utilizadores. No entanto, um novo estudo publicado na Nature Medicine sugere que estas ferramentas estão longe de substituir os médicos e podem também representar riscos quando usadas para orientação médica pessoal.
A investigação, liderada por equipas da Universidade de Oxford, identificou uma lacuna significativa nos modelos de linguagem de grande escala (LLMs). Embora os sistemas demonstrem um forte conhecimento técnico e tenham um bom desempenho em avaliações médicas estruturadas, enfrentam dificuldades quando solicitados a ajudar utilizadores com preocupações de saúde do mundo real. Segundo os investigadores, traduzir o conhecimento teórico em aconselhamento médico seguro e prático continua a ser um grande desafio.
A Dra. Rebecca Payne, principal profissional de saúde envolvida no estudo, afirmou que, apesar do entusiasmo crescente em torno da IA na saúde, a tecnologia ainda não está preparada para assumir as responsabilidades de um médico. Ela alertou que confiar em modelos de linguagem de grande escala para análise de sintomas pode ser perigoso, pois podem fornecer diagnósticos incorretos ou não reconhecer situações que requerem atenção médica urgente.
Testes em Grande Escala Revelam Fraquezas Chave
O estudo envolveu 1.300 participantes que utilizaram modelos de IA desenvolvidos pela OpenAI, Meta e Cohere. Os participantes foram apresentados a cenários médicos criados por médicos e questionados sobre quais passos deveriam ser tomados para tratar as condições descritas.
Os investigadores descobriram que o aconselhamento gerado pela IA não era mais fiável do que métodos tradicionais de auto-diagnóstico, como pesquisas online ou julgamento pessoal. Em muitos casos, os utilizadores receberam uma mistura de orientações corretas e enganosas, dificultando a determinação dos próximos passos adequados. Outro desafio foi a comunicação: os participantes muitas vezes tinham dificuldades em entender que informações a IA precisava para gerar recomendações precisas.
A Dra. Payne destacou que o diagnóstico médico envolve mais do que recordar fatos. Ela explicou que um cuidado eficaz requer ouvir atentamente, fazer perguntas de esclarecimento, investigar sintomas relevantes e orientar os pacientes numa conversa dinâmica. Os pacientes frequentemente não sabem quais detalhes são clinicamente relevantes, o que obriga os médicos a extrair ativamente informações críticas. O estudo concluiu que os atuais LLMs ainda não são capazes de gerir de forma fiável esta interação complexa com não profissionais.
Um Papel de Apoio, Não Clínico
Embora os investigadores tenham alertado contra o uso de chatbots de IA como conselheiros médicos, não descartaram totalmente a tecnologia. Em vez disso, sugeriram que a IA pode desempenhar um papel de apoio nos ambientes de saúde. A Dra. Payne observou que os LLMs são particularmente úteis para resumir e organizar informações. Em contextos clínicos, já estão a ser utilizados para transcrever consultas e convertê-las em cartas de encaminhamento para especialistas, folhas de informação para pacientes ou registos médicos.
A equipa concluiu que, embora a IA tenha potencial na saúde, atualmente não está apta a fornecer aconselhamento médico direto. Argumentam que são necessários melhores quadros de avaliação e padrões de segurança antes que tais sistemas possam ser integrados de forma responsável em funções voltadas para o paciente. O objetivo, disseram, não é rejeitar a IA na medicina, mas garantir que ela evolua de forma a priorizar a segurança do paciente e a precisão clínica.