- Modelos de IA como o CheXNet, apresentados em 2017, mostraram desempenho mais preciso que o de radiologistas humanos no diagnóstico de pneumonia, mas não conseguiram reproduzir esses resultados no ambiente médico real
- Embora centenas de modelos de IA para radiologia tenham recebido aprovação da FDA recentemente, as vagas de trabalho e os salários de radiologistas nos EUA, ao contrário, estão em máximas históricas
- As limitações da IA médica incluem escassez de dados, diferença em relação ao ambiente real, barreiras regulatórias e de seguros, além do fato de que radiologistas humanos exercem diversos papéis além do diagnóstico
- Em vez de automação completa, um sistema em que humanos e IA trabalham em paralelo se tornou o padrão no setor de saúde, e mesmo com o avanço da IA a necessidade de radiologistas não diminui
- A primeira década de disseminação da IA médica mostra o paradoxo de que, embora a tecnologia tenha alto potencial para elevar a produtividade, na prática ela acaba gerando mais demanda por trabalho humano
Introdução: adoção da IA e expectativas
- Modelos de IA como o CheXNet, surgidos em 2017, foram treinados com mais de 100 mil radiografias de tórax e apresentaram resultados superiores aos de especialistas humanos na precisão da leitura de pneumonia
- Empresas como Annalise.ai, Lunit, Aidoc e Qure.ai lançaram sistemas de IA capazes de detectar centenas de doenças, com possibilidade de integração aos sistemas de prontuário hospitalar
- Existem mais de 700 modelos de IA para radiologia aprovados pela FDA, o que corresponde a 75% de todos os dispositivos de IA médica
- A radiologia vinha sendo considerada a área mais adequada para substituição por IA, por contar com entrada digital, reconhecimento de padrões e métricas de desempenho claras
- Mas, na prática, a demanda por formação de radiologistas atingiu máximas históricas, e os salários também subiram 48% em relação a 2015, mostrando aumento na procura por profissionais humanos
Limitações dos sistemas de diagnóstico radiológico por IA
Diferença entre o ambiente real e os dados de treinamento
- Modelos de IA para radiologia mostram desempenho excelente com dados padronizados e em condições específicas, mas no ambiente hospitalar real o desempenho cai por causa de diferenças de dados entre hospitais, características dos equipamentos de diagnóstico e falta de diversidade
- A maioria dos modelos alcança alta precisão apenas em doenças específicas e em um único tipo de imagem; em cenários variados, surge o incômodo de ter de alternar entre vários modelos
- Mesmo algoritmos aprovados pela FDA cobrem apenas parte do trabalho real de leitura de imagens, concentrando-se principalmente em algumas doenças importantes, como AVC, câncer de mama e câncer de pulmão
- Também há problemas de queda no poder preditivo devido à falta de dados de crianças, mulheres e minorias raciais, além de casos em que a doença aparece de forma sutil ou misturada com outras condições
Distância entre benchmark e aplicação clínica
- Em testes de benchmark, a IA registra métricas quantitativas elevadas, mas no ambiente clínico real tanto radiologistas humanos quanto sistemas de apoio não alcançam resultados tão bons quanto o esperado
- Por exemplo, na mamografia, sistemas auxiliares de IA aumentaram a sensibilidade da leitura, mas apenas elevaram a taxa de exames adicionais e biópsias desnecessárias, sem aumentar a taxa de detecção de câncer
- A dupla leitura, em que um ou dois leitores humanos analisam o exame em conjunto, mostrou maior capacidade de detectar câncer do que o apoio de IA, além de uma taxa menor de reconvocação desnecessária
Regulação legal e institucional limita a velocidade da automação
- A FDA divide o software de radiologia entre ferramentas de apoio/classificação e ferramentas totalmente automatizadas
- A automação completa é rara e se aplica apenas em algumas condições especiais, como no caso do IDx-DR
- Imagens que a IA tem dificuldade de interpretar devem ser interrompidas pelo próprio software e encaminhadas a um profissional de saúde
- As exigências regulatórias são altas, e cada novo retreinamento ou modificação do modelo também exige nova aprovação
- Seguradoras entendem que ferramentas automatizadas têm maior probabilidade de causar danos em massa em caso de erro e tendem a evitar reembolso para resultados diagnosticados apenas por inteligência artificial
- Do ponto de vista legal, o padrão é que apenas laudos interpretados e assinados diretamente por um médico tenham cobertura de seguro
Mudança no papel do radiologista humano
- Na prática, radiologistas usam apenas 36% do tempo para interpretar imagens; o restante é dedicado a consultas com pacientes e colegas, supervisão de exames, ensino, mudança de prescrições e outras tarefas
- Mesmo quando o tempo de leitura de imagens diminuiu, não houve demissões desnecessárias; ao contrário, novas tarefas surgiram e o volume total de exames de imagem interpretados aumentou
- Por exemplo, na transição do filme para o digital, a produtividade da leitura de imagens disparou, mas não houve redução de equipes médicas; ao contrário, o total de exames de imagem aumentou mais de 60%
- O ganho de velocidade no processamento de imagens levou a usos mais variados dentro do sistema de saúde, como redução do tempo de espera por exames e melhora da resposta em situações de emergência
Perspectivas futuras: lições da primeira década de disseminação da IA
- Nos últimos 10 anos, a adoção na prática clínica diária avançou muito mais lentamente do que o nível técnico dos modelos de IA
- Fatores não técnicos como regulação, seguros, aconselhamento ao paciente e autonomia médica funcionam como barreiras à substituição completa
- O modelo dominante passou a ser o de a IA contribuir para o aumento de produtividade por meio da colaboração com humanos, e não para substituir a força de trabalho
- Em grandes plataformas, como o Facebook, a possibilidade de automação com IA pode ser alta, mas quanto mais os empregos do conhecimento são compostos por tarefas diversas, mais a adoção de software tende a aumentar, e não reduzir, a quantidade de trabalho humano
- A experiência da radiologia mostra um resultado paradoxal: em vez de substituir imediatamente o trabalho humano, a IA mantém ou até amplia a demanda por profissionais, junto com mudanças sociais, institucionais e comportamentais
1 comentários
Comentários do Hacker News
Sou radiologista intervencionista e tenho mestrado em ciência da computação. Fora da radiologia, as pessoas não entendem bem por que a IA ainda não substituiu a radiologia. Para explicar: a resposta para se a IA consegue fazer diagnóstico por imagem melhor do que um radiologista humano é quase “sim”, ou em breve será. Mas para a pergunta se a radiologia será substituída, a resposta é quase “não”. O motivo é o risco jurídico na medicina. A menos que a lei mude, hoje um radiologista precisa dar a assinatura final em todos os laudos. Então, mesmo que a IA leia as imagens e escreva um laudo perfeito, a confirmação final do radiologista continua sendo o gargalo. Hoje, radiologistas leem rapidamente pelo menos 60 a 100 exames variados por dia, o que já está perto do limite humano. Mesmo que a IA escreva todos os laudos, ainda é preciso revisar e assinar tudo; a diferença de tempo é mínima. Claro, talvez exista algum médico irresponsável que só aperte o botão de assinar, mas também haverá advogado pronto para processá-lo por isso.
Em 2016, quando a Tesla divulgou um vídeo demonstrando direção totalmente autônoma, dizendo que “o motorista está ali só por motivos legais e não faz nada, o carro dirige sozinho”, pensei que o setor de caminhões mudaria para sempre e até reconsiderei entrar na área. Mas 2025 já está batendo à porta e a maior parte dessas mudanças foi lenta ou quase não aconteceu. Há muito otimismo de que a tecnologia vai transformar radicalmente o mundo, mas na prática muitas mudanças acontecem muito devagar ou simplesmente travam.
A melhor anedota sobre machine learning e radiologia foi quando todo mundo competia para usar IA para detectar COVID em radiografias de pulmão. Um grupo de pesquisa conseguiu um desempenho aparentemente muito bom, mas depois descobriram que a IA tinha aprendido a distinguir a fonte das marcas d’água das imagens de hospitais diferentes, e não a presença de COVID. Referência: artigo na Nature Machine Intelligence Pesquise por: “AI for radiographic COVID-19 detection selects shortcuts over signal”. Também dá para encontrar versões open access.
O ponto central do artigo é triplo: 1) quando se tenta dar mais tarefas ao modelo, surgem barreiras regulatórias; 2) reguladores e seguradoras não aprovam nem reembolsam modelos autônomos; 3) diagnóstico ocupa uma fração pequena do trabalho do radiologista, enquanto comunicação com pacientes e equipe médica ocupa grande parte. Mesmo que um modelo de machine learning diagnostique de forma perfeita e gratuita, a estrutura atual impede que radiologistas sejam “substituídos” de imediato.
Só hoje encaminhei uma paciente para biópsia central com a radiologia, um paciente homem para injeção lombar, outro para injeção no ombro, e há um mês encaminhei outra paciente para embolização de endometriose. Em breve também devo encaminhar um caso de embolização por vazamento urinário após nefrectomia. Será que um LLM consegue fazer esses procedimentos? Quando a IA transforma uma habilidade em commodity, o grupo de especialistas migra para outras habilidades e entrega o trabalho comoditizado. Por exemplo, depois que a leitura de ECG foi automatizada em aparelhos, o pagamento por isso caiu tanto que eu deliberadamente deixei de investir nessa habilidade e passei a focar em cérebro e distúrbios do movimento. Então, quando um paciente precisa de interpretação de ECG, eu simplesmente o encaminho para a cardiologia, o que acaba gerando vários exames adicionais. Isso custa mais tempo e dinheiro para o paciente e para o sistema, mas é o que acontece. No futuro, podem surgir “desertos médicos” em áreas em que especialistas em IA não queiram atuar, especialmente com idosos, interior e psiquiatria.
Em 2016, o professor Geoffrey Hinton disse que “já deveríamos parar de treinar radiologistas”. Se fôssemos acreditar em tudo que os defensores da IA disseram, o mundo já teria desmoronado.
Sou médico e engenheiro full-stack, então não tenho vontade de fazer radiologia ou treinamento adicional. A IA deve primeiro reforçar a radiologia e, depois, começar a substituir parte dos empregos. Radiologistas atuais migrariam naturalmente para áreas novas, como radiologia intervencionista.
Em maio deste ano, o New York Times também publicou uma matéria parecida, dizendo que “a IA não vai substituir radiologistas”: ver artigo do NYT. A fala dos médicos e a do Hinton são interessantes: “A IA vai auxiliar e quantificar, mas não vai assumir a conclusão interpretativa da habilidade técnica.” “Daqui a cinco anos, não usar IA talvez seja, por si só, erro médico.” “Mas no fim, humanos e IA vão caminhar juntos.” O próprio Hinton depois reconheceu por e-mail que falou de forma excessivamente generalizante, que se referia apenas à interpretação de imagens, e que estava certo quanto à direção, mas errado no timing.
A transformação da radiologia por IA deveria ser obrigatória. Radiologistas deveriam usar IA em uma porcentagem mínima do trabalho todos os dias, dobrar a produtividade e, se não o fizerem, deveriam ser demitidos. Como os CEOs dizem, a IA é a tecnologia mais transformadora que já vimos, então devemos aceitá-la à força por medo. Nada além disso é aceitável.
Eu não confiaria em médicos que não são radiologistas para interpretar resultados de leitura por IA. Por melhor que a IA vá em benchmarks, sem conhecimento de base para analisar por conta própria, isso é como ler um artigo de 20 páginas sem conseguir avaliar se ele é confiável.