1 pontos por GN⁺ 2026-01-08 | 1 comentários | Compartilhar no WhatsApp
  • "Um novo ChatGPT projetado para saúde e bem-estar"
  • Serviço que conecta com segurança informações pessoais de saúde e a inteligência artificial do ChatGPT para ajudar a entender e gerenciar a condição de saúde
  • Aplica uma estrutura de criptografia e isolamento para proteger informações médicas, e conversas relacionadas à saúde não são usadas no treinamento do modelo
  • Oferece aconselhamento de saúde personalizado por meio da integração com prontuários eletrônicos (EHR) e apps de bem-estar como Apple Health e MyFitnessPal
  • Valida a qualidade do modelo com o HealthBench, um sistema de avaliação baseado em critérios clínicos, em colaboração com cerca de 260 profissionais de saúde no mundo todo
  • Foi desenvolvido como uma ferramenta de gestão da saúde centrada em privacidade e confiabilidade, complementando os serviços médicos, sem substituí-los

Visão geral do ChatGPT Health

  • O ChatGPT Health é um serviço que conecta com segurança os dados de saúde pessoais ao ChatGPT para ajudar na compreensão da condição de saúde e no gerenciamento estruturado
    • Com base na estrutura de privacidade, segurança e controle de dados do ChatGPT, aplica camadas adicionais de proteção para informações médicas
    • Conversas relacionadas à saúde são gerenciadas de forma privada por meio de criptografia e estrutura isolada
  • Os usuários podem conectar prontuários médicos e apps de bem-estar ao ChatGPT para interpretar resultados de exames, se preparar para consultas e planejar dieta e exercícios
  • O objetivo do serviço é complementar o atendimento de profissionais de saúde, não substituir diagnóstico nem tratamento

Situação atual do uso de informações de saúde

  • O ChatGPT já é um dos serviços mais usados na área de saúde, com mais de 230 milhões de pessoas por semana fazendo perguntas relacionadas à saúde
  • É uma tentativa de resolver a dificuldade dos usuários em compreender seu estado geral quando as informações de saúde estão dispersas em várias plataformas
  • O ChatGPT Health expande esse fluxo ao fornecer respostas que refletem o contexto do usuário

Principais recursos e integrações

  • Pode ser integrado a prontuários eletrônicos (EHR), Apple Health, Function, MyFitnessPal e outros
    • Nos Estados Unidos, oferece integração confiável de dados médicos por meio da rede b.well
    • O acesso a prontuários médicos é oferecido apenas a usuários com 18 anos ou mais
  • Antes de serem incluídos no ChatGPT Health, os apps devem atender a revisões de segurança e requisitos mínimos de coleta de dados
    • O usuário pode desconectar um app a qualquer momento, e o acesso aos dados é encerrado imediatamente após a desconexão
  • Conversas e arquivos dentro do ChatGPT Health são armazenados em uma memória dedicada, separada do chat padrão
    • Dados do Health não podem ser acessados em conversas externas
    • O usuário pode verificar e excluir dados na interface do Health ou nas configurações

Privacidade e segurança

  • O ChatGPT Health opera como um espaço separado com um sistema reforçado de proteção de privacidade
    • O conteúdo das conversas não é usado no treinamento do modelo
    • Tanto o armazenamento quanto a transmissão são criptografados
  • A OpenAI oferece no ChatGPT em geral o recurso de chat temporário e a opção de exclusão de dados em até 30 dias
  • Diferentemente das conversas comuns do ChatGPT, as conversas do Health são gerenciadas com um sistema de criptografia dedicado a dados médicos e uma estrutura de isolamento

Colaboração com profissionais de saúde e sistema de avaliação

  • A OpenAI colaborou por mais de 2 anos com cerca de 260 profissionais de saúde de 60 países
    • Coletou mais de 600 mil feedbacks em 30 áreas prioritárias
    • Os profissionais avaliaram quando as respostas do ChatGPT são úteis e quando podem ser arriscadas
  • O resultado dessa colaboração foi refletido no design do modelo e na forma de resposta, reforçando clareza, segurança e conexão com o atendimento clínico
  • O modelo é validado de acordo com critérios clínicos por meio do framework de avaliação HealthBench
    • O HealthBench reflete a forma de julgamento da prática clínica real com base em critérios de avaliação escritos diretamente por profissionais de saúde
    • Mede a qualidade das respostas com foco em segurança, comunicação clara e respeito ao contexto individual

Exemplos de uso e forma de acesso

  • O usuário pode acessar selecionando Health na barra lateral do ChatGPT
    • É possível conectar dados por upload de arquivos, integração com apps, ferramenta (+) ou pelo menu “Apps” nas configurações
  • As conversas no Health mantêm suporte aos recursos normais do ChatGPT, como busca, modo de voz e ditado
    • Exemplos de perguntas: “Como meus níveis de colesterol estão mudando?”, “Resuma os resultados do exame de sangue antes da consulta”
  • É possível adicionar instruções personalizadas do usuário às conversas do Health para ajustar a forma de resposta do ChatGPT e áreas sensíveis
    • As instruções personalizadas se aplicam apenas às conversas do Health e podem ser modificadas ou excluídas a qualquer momento

Disponibilidade do serviço e plano de expansão

  • No momento, está disponível primeiro para um pequeno grupo de usuários iniciais, com acesso mediante cadastro na lista de espera
  • Está prevista uma expansão completa para web e iOS nas próximas semanas
  • A integração com prontuários eletrônicos e alguns apps está disponível apenas nos Estados Unidos, e a integração com Apple Health exige iOS
  • No futuro, a OpenAI pretende ajudar os usuários a entender melhor seu estado de saúde e opções por meio da expansão das integrações de dados e dos insights

1 comentários

 
GN⁺ 2026-01-08
Comentários do Hacker News
  • Meu tio sofreu com problemas de equilíbrio e fala anormal. Os médicos diagnosticaram demência e simplesmente o mandaram para casa, mas ele foi piorando. Então colocamos os sintomas no ChatGPT (ou Gemini) e pedimos as 3 principais hipóteses; a primeira era relacionada à demência, e a segunda era outra doença. Levamos isso ao médico responsável e pedimos que analisasse também as outras duas possibilidades, e no fim a segunda hipótese estava correta. Depois da cirurgia, ele se recuperou completamente

    • Já ouvi muitas histórias assim. Não é por mal, mas me preocupo se esses casos podem reforçar crenças irracionais como o movimento antivacina. Se a área médica não responder a esse tipo de relato, pode perder credibilidade. Fico curioso sobre com que frequência acontecem diagnósticos errados e o quanto os LLMs realmente ajudam
    • Ao usar um LLM, é muito mais útil perguntar não “o que devo fazer”, mas quais são as alternativas para esse problema. Se você recebe as k principais respostas, consegue explorar com mais profundidade
    • Clínicos gerais são treinados mais com foco em memorização do que em resolução de problemas. Os médicos realmente bons em resolver problemas geralmente são especialistas
    • Fiquei pensando se a doença poderia ser hidrocefalia de pressão normal (HPN). A cirurgia talvez tenha sido um shunt VP para drenar o líquor. Existe um mnemônico médico para os sintomas — incontinência urinária, distúrbio de equilíbrio e declínio cognitivo —: “Wet, Wobbly, Wacky”
    • Que bom que seu tio melhorou. Você poderia compartilhar quais eram as outras duas hipóteses e qual foi o diagnóstico final?
  • Meu primo abriu consultório como psiquiatra, e fico preocupado se essas ferramentas médicas de IA podem ameaçar o sustento dele. O paciente precisa passar por telefone, e-mail e burocracia do seguro, mas a IA pode conversar na hora. Tirando os casos em que é preciso receita, é difícil para um médico humano competir em conveniência. Se os EUA quiserem cuidar das pessoas, precisam simplificar o sistema de saúde com um sistema de pagador único

  • Já trabalhei desenvolvendo software médico, e aplicar sistemas probabilísticos à medicina é um sinal de alerta. Um verificador de interações medicamentosas para hospital precisa ser determinístico. O mesmo input deve gerar o mesmo resultado, porque quando falha, vidas estão em risco

    • Mas a própria medicina é essencialmente não determinística. A resposta a medicamentos varia de paciente para paciente. A não determinismo do ChatGPT também precisa ser gerenciado em um nível mais alto, na interação entre médico e paciente. A IA deve sugerir possibilidades, e o médico deve validar
    • Ainda assim, numa situação em que os custos da saúde nos EUA continuam subindo por causa da regulação estatal, talvez sistemas determinísticos bem construídos possam permitir redução de custos e melhora no acesso
  • Durante 9 meses, o ChatGPT assumiu que eu tinha TDAH. Na prática, eu não tenho. Quando perguntei de onde tinha tirado essa informação, ele não conseguiu apresentar base concreta. No fim pediu desculpas e disse que esqueceria esse atributo, mas acho que isso é caso para ação coletiva

    • Provavelmente ele só mencionou TDAH por alucinação (hallucination) dentro de um chat. O ChatGPT não consegue ligar memória entre sessões
    • Parece que esse tipo de dado foi aprendido porque as pessoas mencionam com frequência autodiagnóstico no Reddit e em outros lugares
    • Casos assim expõem um problema de privacidade de dados de saúde. Se a IA inferir a doença de um usuário e repassar isso a um corretor de dados, essa informação acaba se consolidando como fato. Não temos infraestrutura suficiente para controlar nossos dados pessoais
    • Do ponto de vista legal, a responsabilidade deve recair sobre o provedor do serviço. Se um médico humano erra um diagnóstico, o hospital responde; serviços de diagnóstico por IA deveriam ser tratados da mesma forma. Se o modelo rodar localmente, aí a responsabilidade deve ser do usuário
    • No meu caso, o ChatGPT mencionou uma empresa inexistente em meu nome. Isso aconteceu mesmo eu tendo recusado toda coleta de dados pessoais. Consultei a política de privacidade da OpenAI, mas ainda continuo inseguro
  • O ChatGPT encontrou em 5 minutos a causa da doença crônica da minha mãe, que tem mais de 80 anos. Era um problema que vários médicos não conseguiram identificar em 3 anos. Os médicos verificaram essa possibilidade e estava 100% correta. Claro que isso não se aplica a todas as doenças, mas os LLMs permitem um pensamento integrador entre especialidades

    • O problema não é o ChatGPT, e sim a falta de tempo de consulta. Em outros países os médicos passam tempo suficiente com o paciente, mas nos EUA o sistema está quebrado
    • Você poderia compartilhar esse log da conversa?
    • No caso de pacientes idosos, a realidade é que esse tipo de tratamento se repete e acaba levando a uma explosão dos custos médicos
  • Dizem que essa IA é boa porque o sistema de saúde dos EUA é uma bagunça, mas esse tipo de ferramenta também aparece em países onde a saúde gratuita funciona bem. Mesmo podendo consultar gratuitamente um médico formado, ainda haverá gente que escolherá o ChatGPT. No fim, para 95% das pessoas no mundo, isso pode ser mais prejudicial do que benéfico. A lógica da OpenAI de “se a gente não fizer, alguém vai fazer” não é muito diferente da desculpa de traficantes de fentanil

  • Consultei dezenas de médicos por dor no joelho e no cotovelo, mas o ChatGPT foi muito mais útil. Seguir simplesmente o que a IA diz é perigoso, mas ela é útil para definir perguntas adicionais ou direções de exames com base nos resultados. É como pedir revisão de código: ótimo para revisar, perigoso para deixar escrever tudo sozinho

  • Talvez eu mudasse de ideia se a IA pudesse emitir receita ou fazer atendimento robótico, mas, se não for isso, acho suficiente que o médico apenas use a análise da IA como referência

  • Não me preocupo tanto com o acesso aos meus dados de saúde. Na verdade, estou animado com a inovação em saúde pessoal. O Apple Health é só coleta de dados, e o 23andMe não serviu para muita coisa. Agora estou tocando um projeto no ChatGPT com todo o meu histórico de saúde no prompt do sistema, e fiquei impressionado porque ele faz até análise e visualização com base em artigos científicos

    • Se essa análise levar a um diagnóstico errado e causar incapacidade, a responsabilidade seria do usuário ou do médico?
    • Fiquei curioso sobre que tipo de informação você forneceu. Se tivesse feito a mesma pergunta a um médico, teria ouvido a mesma resposta? Para alguém como eu, com ansiedade de saúde, esse tipo de ferramenta talvez seja até prejudicial
    • Na verdade, talvez os médicos já estejam usando IA às escondidas
    • Mesmo assim, você realmente acha tranquilo entregar esses dados biométricos ao Sam Altman? Fiquei curioso sobre quais dispositivos você usou
    • Dados de saúde são as informações mais sensíveis e por isso são fortemente regulados. Esse tipo de dado cria desequilíbrios de poder, e as empresas o utilizam para maximizar lucros
  • Há muitas opiniões negativas, mas eu consegui resolver um problema de saúde graças ao ChatGPT

    • Um conhecido meu fez autodiagnóstico de uma doença rara com o ChatGPT e passou por exames caros, mas no fim era um diagnóstico errado. Mesmo assim, ele continua confiando. É perigoso tratar os anos de formação e experiência de um médico como se fossem equivalentes a uma simples busca
    • Eu também sofri com dor lombar, e o ChatGPT me ajudou muito ao apontar um problema no quadratus lumborum
    • Há muitos pacientes com hipocondria na área médica. Um LLM, se usado bem, pode ser útil, mas também pode reforçar o viés de confirmação. O médico é alguém que também diz o que você não quer ouvir. No fim, a IA é apenas uma ferramenta e deve ser usada junto com o médico. Na época da COVID havia muita informação absurda, mas hoje está muito melhor. Eu uso o ChatGPT para organizar as informações e dar ao médico um quadro completo
    • Eu também uso ChatGPT, mas qualquer conselho acionável eu sempre valido em fontes confiáveis. É preciso ter bom senso. Mesmo quando a IA dá conselhos idiotas, no fim o julgamento continua sendo humano