4 pontos por GN⁺ 2025-09-27 | 1 comentários | Compartilhar no WhatsApp
  • Modelos de IA como o CheXNet, apresentados em 2017, mostraram desempenho mais preciso que o de radiologistas humanos no diagnóstico de pneumonia, mas não conseguiram reproduzir esses resultados no ambiente médico real
  • Embora centenas de modelos de IA para radiologia tenham recebido aprovação da FDA recentemente, as vagas de trabalho e os salários de radiologistas nos EUA, ao contrário, estão em máximas históricas
  • As limitações da IA médica incluem escassez de dados, diferença em relação ao ambiente real, barreiras regulatórias e de seguros, além do fato de que radiologistas humanos exercem diversos papéis além do diagnóstico
  • Em vez de automação completa, um sistema em que humanos e IA trabalham em paralelo se tornou o padrão no setor de saúde, e mesmo com o avanço da IA a necessidade de radiologistas não diminui
  • A primeira década de disseminação da IA médica mostra o paradoxo de que, embora a tecnologia tenha alto potencial para elevar a produtividade, na prática ela acaba gerando mais demanda por trabalho humano

Introdução: adoção da IA e expectativas

  • Modelos de IA como o CheXNet, surgidos em 2017, foram treinados com mais de 100 mil radiografias de tórax e apresentaram resultados superiores aos de especialistas humanos na precisão da leitura de pneumonia
  • Empresas como Annalise.ai, Lunit, Aidoc e Qure.ai lançaram sistemas de IA capazes de detectar centenas de doenças, com possibilidade de integração aos sistemas de prontuário hospitalar
  • Existem mais de 700 modelos de IA para radiologia aprovados pela FDA, o que corresponde a 75% de todos os dispositivos de IA médica
  • A radiologia vinha sendo considerada a área mais adequada para substituição por IA, por contar com entrada digital, reconhecimento de padrões e métricas de desempenho claras
  • Mas, na prática, a demanda por formação de radiologistas atingiu máximas históricas, e os salários também subiram 48% em relação a 2015, mostrando aumento na procura por profissionais humanos

Limitações dos sistemas de diagnóstico radiológico por IA

Diferença entre o ambiente real e os dados de treinamento

  • Modelos de IA para radiologia mostram desempenho excelente com dados padronizados e em condições específicas, mas no ambiente hospitalar real o desempenho cai por causa de diferenças de dados entre hospitais, características dos equipamentos de diagnóstico e falta de diversidade
  • A maioria dos modelos alcança alta precisão apenas em doenças específicas e em um único tipo de imagem; em cenários variados, surge o incômodo de ter de alternar entre vários modelos
  • Mesmo algoritmos aprovados pela FDA cobrem apenas parte do trabalho real de leitura de imagens, concentrando-se principalmente em algumas doenças importantes, como AVC, câncer de mama e câncer de pulmão
  • Também há problemas de queda no poder preditivo devido à falta de dados de crianças, mulheres e minorias raciais, além de casos em que a doença aparece de forma sutil ou misturada com outras condições

Distância entre benchmark e aplicação clínica

  • Em testes de benchmark, a IA registra métricas quantitativas elevadas, mas no ambiente clínico real tanto radiologistas humanos quanto sistemas de apoio não alcançam resultados tão bons quanto o esperado
  • Por exemplo, na mamografia, sistemas auxiliares de IA aumentaram a sensibilidade da leitura, mas apenas elevaram a taxa de exames adicionais e biópsias desnecessárias, sem aumentar a taxa de detecção de câncer
  • A dupla leitura, em que um ou dois leitores humanos analisam o exame em conjunto, mostrou maior capacidade de detectar câncer do que o apoio de IA, além de uma taxa menor de reconvocação desnecessária

Regulação legal e institucional limita a velocidade da automação

  • A FDA divide o software de radiologia entre ferramentas de apoio/classificação e ferramentas totalmente automatizadas
    • A automação completa é rara e se aplica apenas em algumas condições especiais, como no caso do IDx-DR
    • Imagens que a IA tem dificuldade de interpretar devem ser interrompidas pelo próprio software e encaminhadas a um profissional de saúde
  • As exigências regulatórias são altas, e cada novo retreinamento ou modificação do modelo também exige nova aprovação
  • Seguradoras entendem que ferramentas automatizadas têm maior probabilidade de causar danos em massa em caso de erro e tendem a evitar reembolso para resultados diagnosticados apenas por inteligência artificial
  • Do ponto de vista legal, o padrão é que apenas laudos interpretados e assinados diretamente por um médico tenham cobertura de seguro

Mudança no papel do radiologista humano

  • Na prática, radiologistas usam apenas 36% do tempo para interpretar imagens; o restante é dedicado a consultas com pacientes e colegas, supervisão de exames, ensino, mudança de prescrições e outras tarefas
  • Mesmo quando o tempo de leitura de imagens diminuiu, não houve demissões desnecessárias; ao contrário, novas tarefas surgiram e o volume total de exames de imagem interpretados aumentou
    • Por exemplo, na transição do filme para o digital, a produtividade da leitura de imagens disparou, mas não houve redução de equipes médicas; ao contrário, o total de exames de imagem aumentou mais de 60%
  • O ganho de velocidade no processamento de imagens levou a usos mais variados dentro do sistema de saúde, como redução do tempo de espera por exames e melhora da resposta em situações de emergência

Perspectivas futuras: lições da primeira década de disseminação da IA

  • Nos últimos 10 anos, a adoção na prática clínica diária avançou muito mais lentamente do que o nível técnico dos modelos de IA
  • Fatores não técnicos como regulação, seguros, aconselhamento ao paciente e autonomia médica funcionam como barreiras à substituição completa
  • O modelo dominante passou a ser o de a IA contribuir para o aumento de produtividade por meio da colaboração com humanos, e não para substituir a força de trabalho
  • Em grandes plataformas, como o Facebook, a possibilidade de automação com IA pode ser alta, mas quanto mais os empregos do conhecimento são compostos por tarefas diversas, mais a adoção de software tende a aumentar, e não reduzir, a quantidade de trabalho humano
  • A experiência da radiologia mostra um resultado paradoxal: em vez de substituir imediatamente o trabalho humano, a IA mantém ou até amplia a demanda por profissionais, junto com mudanças sociais, institucionais e comportamentais

1 comentários

 
GN⁺ 2025-09-27
Comentários do Hacker News
  • Sou radiologista intervencionista e tenho mestrado em ciência da computação. Fora da radiologia, as pessoas não entendem bem por que a IA ainda não substituiu a radiologia. Para explicar: a resposta para se a IA consegue fazer diagnóstico por imagem melhor do que um radiologista humano é quase “sim”, ou em breve será. Mas para a pergunta se a radiologia será substituída, a resposta é quase “não”. O motivo é o risco jurídico na medicina. A menos que a lei mude, hoje um radiologista precisa dar a assinatura final em todos os laudos. Então, mesmo que a IA leia as imagens e escreva um laudo perfeito, a confirmação final do radiologista continua sendo o gargalo. Hoje, radiologistas leem rapidamente pelo menos 60 a 100 exames variados por dia, o que já está perto do limite humano. Mesmo que a IA escreva todos os laudos, ainda é preciso revisar e assinar tudo; a diferença de tempo é mínima. Claro, talvez exista algum médico irresponsável que só aperte o botão de assinar, mas também haverá advogado pronto para processá-lo por isso.

    • Isso é parecido com dizer que carros autônomos nunca serão comercializados porque precisam de alguém no banco do motorista para “assumir a responsabilidade”. Não corresponde à realidade, já que a FDA já aprovou sistemas de IA para operar sem validação médica.
    • Se a IA realmente ficar melhor que radiologistas humanos, dá para imaginar radiologistas passando o dia só clicando em “aprovar, aprovar”, ou contestando resultados da IA e no fim ficando provado que a IA estava certa. Quando isso virar senso comum na medicina, hospitais vão pressionar por mudanças na lei para reduzir custos e acabar operando sem radiologistas humanos.
    • Também haverá pacientes que não vão querer pagar US$ 6.000 para sair de 99,9% de precisão para 99,95%.
    • Sou radiologista diagnóstico com mais de 20 anos de experiência clínica e programo desde 1979. Quero contestar uma premissa central sua: não concordo com “a IA já consegue, ou em breve conseguirá, ler imagens melhor que humanos”. Uso os produtos de IA mais recentes e acompanho o que sai sobre isso, mas nenhum deles chega perto de ser útil para leitura clínica real. Por causa dos limites dos dados e da variabilidade infinita da anatomia humana e das alterações patológicas, a não ser que surja uma AGI de verdade, isso não vai substituir o raciocínio intuitivo, analítico e integrativo de um radiologista humano. Todo dia aparecem padrões novos e casos nunca vistos antes, muitas vezes impossíveis de capturar em dados. Estou no fim da carreira, então não estou defendendo meu espaço. Se surgir uma boa tecnologia substituta, largarei o microfone com prazer, mas ainda estamos muito longe disso.
    • Fora da radiologia, muita gente não entende por que a IA ainda não se firmou. Na verdade, não faz sentido esperar que ela substitua totalmente a radiologia. O ideal é que IA e radiologia trabalhem juntas para aliviar a carga de trabalho e a falta de pessoal. Pegando o exemplo da cardiologia, a proporção de especialistas ainda é muito baixa. Como interpretar ECG é difícil e repetitivo, em muitos países até o Holter ECG está migrando quase totalmente para interpretação automática. Mas a precisão de leitura de IA/ML é tão baixa que só dá para colaborar com cardiologistas quando a sensibilidade chega perto de 100%. Então a automação precisa se estabelecer como “apoio”, não como “substituição”. O cardiologista preferiria usar esse tempo para treinar a próxima geração, fazer procedimentos, pesquisar ou descansar. Exemplo: algoritmo Pan–Tompkins: Wikipedia do algoritmo Pan–Tompkins
  • Em 2016, quando a Tesla divulgou um vídeo demonstrando direção totalmente autônoma, dizendo que “o motorista está ali só por motivos legais e não faz nada, o carro dirige sozinho”, pensei que o setor de caminhões mudaria para sempre e até reconsiderei entrar na área. Mas 2025 já está batendo à porta e a maior parte dessas mudanças foi lenta ou quase não aconteceu. Há muito otimismo de que a tecnologia vai transformar radicalmente o mundo, mas na prática muitas mudanças acontecem muito devagar ou simplesmente travam.

    • Eu não olho para robotáxi, olho para a Waymo. A Waymo está realizando a visão de direção autônoma real que eu imaginava quando era criança, e o número de clientes cresce exponencialmente. Se você confiar nas estatísticas de segurança da Waymo, é um serviço realmente seguro. Acho que se aplica bem o ditado de que o avanço tecnológico é superestimado no curto prazo e subestimado no longo prazo, embora radiologia seja claramente outro caso... Segurança da Waymo: Segurança e impacto da Waymo
    • Não precisa se sentir enganado pelo vídeo da Tesla. Depois ficou claro que ele foi encenado. Matéria relacionada: Reuters – vídeo promocional de direção autônoma da Tesla foi manipulado Uso a Waymo há um ano e estou muito satisfeito. Queria que a tecnologia se espalhasse mais rápido, mas não acho que seja impossível; só existem casos de borda inesperados que levam muito tempo para resolver.
    • Machine learning sempre foi excelente em 98% dos casos; nós é que nos iludimos achando que os 2% restantes seriam fáceis.
    • Tecnologias otimistas demais normalmente têm demos impressionantes, mas escondem 10.000 exceções fatais. Direção autônoma e leitura radiológica são exemplos clássicos. Quanto menos casos excepcionais existem, melhor a tecnologia tende a funcionar, às vezes até melhor do que se esperava. Ex.: recomendações do TikTok, Shazam.
    • Acho realmente surpreendente que a maioria dos trens ainda seja conduzida por humanos.
  • A melhor anedota sobre machine learning e radiologia foi quando todo mundo competia para usar IA para detectar COVID em radiografias de pulmão. Um grupo de pesquisa conseguiu um desempenho aparentemente muito bom, mas depois descobriram que a IA tinha aprendido a distinguir a fonte das marcas d’água das imagens de hospitais diferentes, e não a presença de COVID. Referência: artigo na Nature Machine Intelligence Pesquise por: “AI for radiographic COVID-19 detection selects shortcuts over signal”. Também dá para encontrar versões open access.

    • Já vi também tentativas de usar machine learning para detectar COVID pelo som da tosse. Se a tosse de pacientes com uma doença respiratória e a de pacientes com COVID realmente tivessem diferença estatisticamente significativa, um ouvinte humano também conseguiria distinguir com facilidade. Nunca entendi por que acharam que isso funcionaria.
    • Essas histórias são instrutivas, mas são mais exemplos de dados ruins e treinamento ruim do que de um limite do algoritmo em si. Com dados e métodos corretos, substituir tecnicamente radiologistas não seria tão difícil. Como não há um princípio geral limitante nem uma barreira óbvia, modelos de visão são adequadíssimos para esse tipo de tarefa.
  • O ponto central do artigo é triplo: 1) quando se tenta dar mais tarefas ao modelo, surgem barreiras regulatórias; 2) reguladores e seguradoras não aprovam nem reembolsam modelos autônomos; 3) diagnóstico ocupa uma fração pequena do trabalho do radiologista, enquanto comunicação com pacientes e equipe médica ocupa grande parte. Mesmo que um modelo de machine learning diagnostique de forma perfeita e gratuita, a estrutura atual impede que radiologistas sejam “substituídos” de imediato.

    • Não concordo com a afirmação de que “radiologistas passam a maior parte do tempo se comunicando com pacientes e colegas, e não diagnosticando”. A maioria simplesmente chega ao trabalho, lê uma sequência de imagens, dita os resultados e vai embora. Se surgir uma IA perfeita, essa profissão deixa de fazer sentido. Seria como um trabalho de ficar olhando para CCTV o dia inteiro.
    • Se existir uma IA perfeita, não haverá necessidade de radiologistas. Hoje o fluxo é clínico assistente → técnico em radiologia → radiologista (laudo) → clínico assistente, mas com uma IA perfeita passaria a ser técnico em radiologia → modelo de ML → clínico assistente.
    • Toda vez que fiz um raio-X, nunca conversei com um radiologista. Na maioria dos casos, o técnico só opera a máquina, e o diagnóstico é escrito separadamente por um radiologista remoto. E os outros médicos com quem tenho contato também não parecem se comunicar diretamente com radiologistas. Fico curioso se isso é assim nos EUA inteiro.
    • Questiono a ideia de que comunicação com pacientes seja uma parte importante do trabalho do radiologista. Em todos os exames de imagem que fiz, não houve nenhuma comunicação com radiologista. O paciente quase nunca o vê, e boa parte da comunicação com colegas poderia ser feita pelo técnico em radiologia. Não vejo motivo forte para exigir um especialista nisso. Se a IA fizer a leitura, esse papel de comunicação talvez passe para enfermeiros ou técnicos.
  • Só hoje encaminhei uma paciente para biópsia central com a radiologia, um paciente homem para injeção lombar, outro para injeção no ombro, e há um mês encaminhei outra paciente para embolização de endometriose. Em breve também devo encaminhar um caso de embolização por vazamento urinário após nefrectomia. Será que um LLM consegue fazer esses procedimentos? Quando a IA transforma uma habilidade em commodity, o grupo de especialistas migra para outras habilidades e entrega o trabalho comoditizado. Por exemplo, depois que a leitura de ECG foi automatizada em aparelhos, o pagamento por isso caiu tanto que eu deliberadamente deixei de investir nessa habilidade e passei a focar em cérebro e distúrbios do movimento. Então, quando um paciente precisa de interpretação de ECG, eu simplesmente o encaminho para a cardiologia, o que acaba gerando vários exames adicionais. Isso custa mais tempo e dinheiro para o paciente e para o sistema, mas é o que acontece. No futuro, podem surgir “desertos médicos” em áreas em que especialistas em IA não queiram atuar, especialmente com idosos, interior e psiquiatria.

    • O objetivo do sistema de saúde não é garantir renda alta para médicos, e sim tratar pacientes. O que puder ser automatizado deve ser automatizado para ampliar o acesso. A automação do ECG também amplia o acesso.
    • Radiologia intervencionista é diferente de radiologia diagnóstica pura e exige muito mais treinamento.
    • Interpretadores automáticos de ECG às vezes são tão literais e têm sensibilidade tão baixa que não servem para nada no atendimento pré-hospitalar. Se a máquina só repete “ABNORMAL ECG – EVALUATION NEEDED”, faz falta uma ferramenta realmente útil.
  • Em 2016, o professor Geoffrey Hinton disse que “já deveríamos parar de treinar radiologistas”. Se fôssemos acreditar em tudo que os defensores da IA disseram, o mundo já teria desmoronado.

    • Essa fala é muito citada, mas Hinton a fez de improviso, sem entender a realidade de que radiologistas não fazem apenas diagnóstico. Hinton não é exatamente um “fã raiz” de IA; está mais para pessimista em relação à IA.
    • Por exemplo, se alguém começasse a residência em 2016, terminaria cinco anos depois, em 2021, por volta dos 31 anos. Depois ainda trabalharia uns 30 anos como médico, então faz sentido pensar em horizontes até os anos 2050. Em 25 anos, talvez 50% da fala do Hinton esteja certa.
    • Se tivéssemos reduzido a regulação médica e desmontado a AMA, talvez a previsão do Hinton já tivesse se concretizado, e a vida de todos pudesse estar melhor.
    • O maior obstáculo para a IA substituir a radiologia é jurídico. Construir uma carreira após anos de formação em uma profissão que depende apenas de regulação é arriscado; basta a lei mudar para tudo desaparecer.
    • Prever o futuro é realmente difícil demais. Ninguém sabe como será o mundo daqui a 20 anos.
  • Sou médico e engenheiro full-stack, então não tenho vontade de fazer radiologia ou treinamento adicional. A IA deve primeiro reforçar a radiologia e, depois, começar a substituir parte dos empregos. Radiologistas atuais migrariam naturalmente para áreas novas, como radiologia intervencionista.

    • Sou radiologista e engenheiro full-stack; não me preocupo com o desaparecimento da profissão. Ela vai mudar, mas seguirá um caminho parecido com o de outras carreiras.
    • Também sou ex-estudante de medicina e concordo. A IA do meu dentista já projeta até moldes completamente novos da boca para implantes, e ele só faz o acabamento final manualmente. Acho que muitos profissionais de saúde podem acabar ficando só com a parte de seguro e responsabilidade legal. Também é interessante que 30% das residências nos EUA sejam preenchidas por estrangeiros.
    • A combinação médico + engenheiro é bem rara, mas já existe ao meu redor. Esse ponto de vista é muito necessário na saúde e traz uma vantagem única. Penso neles como Neo e Morpheus.
    • Sendo médico + engenheiro, na verdade você tem muito futuro na radiologia. A profissão não vai desaparecer; ao contrário, serão necessárias pessoas capazes de fazer a ponte entre medicina e tecnologia.
    • Queria saber como você vê o futuro dos farmacêuticos; para mim, parece uma área totalmente automatizável, e não entendo que diferença real o julgamento humano faz ali.
  • Em maio deste ano, o New York Times também publicou uma matéria parecida, dizendo que “a IA não vai substituir radiologistas”: ver artigo do NYT. A fala dos médicos e a do Hinton são interessantes: “A IA vai auxiliar e quantificar, mas não vai assumir a conclusão interpretativa da habilidade técnica.” “Daqui a cinco anos, não usar IA talvez seja, por si só, erro médico.” “Mas no fim, humanos e IA vão caminhar juntos.” O próprio Hinton depois reconheceu por e-mail que falou de forma excessivamente generalizante, que se referia apenas à interpretação de imagens, e que estava certo quanto à direção, mas errado no timing.

  • A transformação da radiologia por IA deveria ser obrigatória. Radiologistas deveriam usar IA em uma porcentagem mínima do trabalho todos os dias, dobrar a produtividade e, se não o fizerem, deveriam ser demitidos. Como os CEOs dizem, a IA é a tecnologia mais transformadora que já vimos, então devemos aceitá-la à força por medo. Nada além disso é aceitável.

    • Já não consigo mais distinguir se isso é sério ou sátira.
  • Eu não confiaria em médicos que não são radiologistas para interpretar resultados de leitura por IA. Por melhor que a IA vá em benchmarks, sem conhecimento de base para analisar por conta própria, isso é como ler um artigo de 20 páginas sem conseguir avaliar se ele é confiável.

    • O próprio conceito de “pesquisa nível PhD” é vago demais. Há enorme diferença entre preprint, pôster de conferência, coautoria em trabalho em andamento, artigo antes da revisão por pares e monografia.
    • Dá até vontade de brincar: nesses casos, por que não pedir a outro modelo de pesquisa baseado em deep learning para criticar o primeiro?