- Um funcionário de uma instituição de saúde criou diretamente um sistema de gestão de pacientes com um agente de codificação por IA, e os dados dos pacientes ficaram expostos na internet sem criptografia
- Gravações de conversas de consultas foram enviadas para dois serviços de IA para resumo automático, e todos os dados estavam com permissões de leitura e escrita abertas
- Os dados foram armazenados em servidores nos EUA, operados sem Acordo de Processamento de Dados (DPA), e os pacientes não foram informados com antecedência
- Essas ações podem violar a lei de proteção de dados nDSG da Suíça e a obrigação de sigilo profissional
- O autor alerta que, se a codificação com IA ficar apenas no nível de vibe, isso levará a um futuro inseguro
O desastre de segurança de um app de gestão de pacientes feito com IA
- Caso em que um funcionário de uma instituição de saúde criou diretamente um sistema de gestão de pacientes usando um agente de codificação por IA
- Importou todos os dados de pacientes existentes e os distribuiu publicamente na internet
- Adicionou uma função de gravação de conversas durante a consulta e implementou um recurso de resumo automático enviando os dados para dois serviços de IA
- Como resultado, todos os dados dos pacientes ficaram expostos na internet sem criptografia
- O autor conseguiu obter permissões de leitura e escrita sobre todos os dados em apenas 30 minutos
- O problema foi reportado, mas a resposta recebida foi uma mensagem de agradecimento gerada automaticamente por IA
- Os dados estavam armazenados em servidores nos EUA e eram operados sem Acordo de Processamento de Dados (DPA)
- Os arquivos de gravação de voz também eram enviados para uma empresa de IA sediada nos EUA
- Os pacientes não foram informados previamente sobre esse processamento de dados
- Isso pode constituir violação da nDSG (lei de proteção de dados) da Suíça e da obrigação de sigilo profissional (Berufsgeheimnis)
- O autor não é especialista jurídico, mas entende que várias disposições podem ter sido violadas
- É feito o alerta de que, se a codificação com IA permanecer apenas no nível de “vibe”, isso levará a um futuro inseguro
Contexto técnico
- A aplicação era composta por um único arquivo HTML
- Todo o JavaScript, CSS e código estrutural estavam inline
- O backend usava um serviço de banco de dados gerenciado sem qualquer controle de acesso
- A lógica de controle de acesso existia apenas no JavaScript do lado do cliente
- Era possível acessar os dados com uma única linha de comando
curl
- Era possível acessar os dados com uma única linha de comando
- Todos os arquivos de gravação de voz eram enviados diretamente para uma API externa de IA para transcrição e resumo
- Só isso já deixa claro uma grave deficiência de segurança
Perspectivas
- Ao usar ferramentas de codificação com IA, é essencial ter capacidade de entender a estrutura do código e a arquitetura
- Uma abordagem de apenas “curtir o clima de programar com IA (vibing)” leva a resultados perigosos
- Com a disseminação das ferramentas de desenvolvimento com IA, é indispensável ter consciência básica de segurança e entendimento técnico
11 comentários
Bom, isso já era... mesmo se você pesquisar por
OPENAI_API_KEYno GitHub, aparecem um monte de casos assim...Desse jeito, talvez chegue uma época em que vamos ter que tirar até certificação em vibe coding..
Com a IA, tem aumentado o número de pessoas fingindo ser especialistas, e conforme elas começam a falar besteira, o mundo ficou caótico demais.
...
Na Coreia do Sul também, de acordo com a Lei de Proteção da Informação e o artigo 21, parágrafo 2, da Lei Médica, está previsto que trabalhadores de instituições médicas não podem permitir que terceiros consultem prontuários de pacientes, exceto em casos excepcionais.
https://law.go.kr/%EB%B2%95%EB%A0%B9/%EC%9D%98%EB%A3%8C%EB%B2%95/…
Graças ao ambiente atrasado de proteção da informação na Coreia, como todo mundo acredita fervorosamente na separação de redes, por sorte parece que esse tipo de incidente não acontece com frequência em grandes hospitais.
Como o ambiente em que os prontuários dos pacientes são consultados fica na rede interna, é difícil para usuários sem noção de segurança conectar diretamente serviços comerciais de IA.
Fico imaginando o que acontece em clínicas de atenção primária, onde os computadores de atendimento são ligados diretamente à internet rs
PHI é sempre algo com que se deve ter cuidado... e muito cuidado...
Eu também mostrei o Claude Code para um amigo, e cerca de duas semanas depois ele veio com um “olha o que eu fiz!!”, mas a mesma situação tinha acontecido.
Dizem que também houve um avanço revolucionário nas tecnologias para descobrir vulnerabilidades de segurança
Se uma vulnerabilidade foi descoberta, isso significa que surgiu a necessidade de encontrar uma forma de protegê-la
Parece que os métodos de segurança também vão ser aprimorados.
Primeiro, quem não é da área provavelmente nem sabe que essas coisas existem, nem por que são necessárias.
Isso só reforça o alerta de que precisamos aprender ciência da computação.
Acho que é uma expressão que acerta em cheio no ponto central.
Opiniões do Hacker News
Já passei por algo parecido na Espanha. Não era na área médica, mas sim numa pequena seguradora, e por mais inacreditável que pareça, eles também fizeram o CRM com vibe-coding
Quando avisei do problema por e-mail, me ameaçaram com processo. Foi ridículo, mas no fim acabei fazendo uma denúncia à AEPD (Agência Espanhola de Proteção de Dados). Essa entidade é conhecida por ser bem poderosa
Na sexta passada também enviei um burofax exigindo a exclusão dos meus dados pessoais
Avisei do problema com um README.txt, mas nada mudou. Pensei em ir lá pessoalmente, corrigir tudo e talvez até transformar isso no meu primeiro emprego, mas eles ficaram foi irritados. Disseram que já usavam uma consultoria cara e me acusaram de invasão. Fui embora na hora
No fórum de pequenos empresários em que estou, um sujeito se gabou de ter feito o próprio app com IA. Só que ele não fazia ideia da responsabilidade legal, e quando desenvolvedores no Reddit disseram “contrate um desenvolvedor de verdade”, ele ficou bravo. Agora ele acredita que desenvolvedores são uma espécie em extinção
No LinkedIn, vendedores que não entendem de tecnologia ficam dizendo que IA é a resposta para todos os problemas
Nesse clima, dá uma sensação de que alguma hora vai acontecer um desastre realmente grande
vibe-coding é legal, mas seus limites aparecem rápido
Passando de alguns milhares de linhas, a estrutura desmorona, e sistemas reais são muito mais complexos. No fim, você precisa dos fundamentos de engenharia de software
Para protótipos ou ferramentas internas, tudo bem, mas em produção de verdade é arriscado. Eu não gostaria de confiar meus dados a um sistema desses
Eu usei Jira Rovo MCP com Claude Code para criar o design e a documentação, revisei manualmente e depois implementei em uma nova sessão
Como os LLMs ficam mais burros quanto mais contexto recebem, é muito recomendável usar a configuração da barra de status de contexto
Testei Gemma 4 localmente, e apesar de ser lento, ele era tão poderoso quanto os modelos em nuvem. A vantagem é que os dados não saem para fora
Alguns meses atrás vi um web app feito com vibe-coding por um cirurgião
Funcionava, mas não havia index.html no diretório raiz, e os arquivos de backup continham as credenciais do banco de dados e chaves da AWS sem nenhuma proteção
Bastava adicionar um index.html vazio para resolver, mas nem o desenvolvedor nem a IA entendiam o motivo
O app em si era impressionante, mas tinha erros básicos de segurança demais. Bastaria um único olhar de alguém experiente em DevOps
No fim, a IA não sabe aquilo que ninguém perguntou. Um desenvolvedor experiente lembra de fracassos do passado, mas o vibe-coder só tem o prompt
Dizer que “toda a lógica de controle de acesso estava no JavaScript do cliente” é realmente o pior cenário possível
Isso é um exemplo clássico de uso irresponsável de IA por não especialistas.
Ao usar IA no trabalho real, é indispensável ter noção de responsabilidade e risco
Sem controle adequado do fluxo de trabalho e validação dos resultados, esse tipo de problema vai continuar acontecendo. Estamos no Velho Oeste dos LLMs
Acho que engenharia de software também já precisa de um sistema de qualificação profissional
Assim como é preciso certificação para projetar pontes ou prédios, desenvolvedores que constroem sistemas críticos também deveriam atender a certos padrões
No fim das contas, acho que com o tempo vai se consolidar uma compreensão melhor sobre IA e privacidade
Este texto é tão vago que parece ficção
Se a IA fosse treinada para esconder a implementação, ou seja, para deixar o cliente fino e usar autenticação OAuth, isso melhoraria a situação?
Erros simples assim são perfeitamente evitáveis. Mas o objetivo continua sendo substituir desenvolvedores
Pior ainda é ver que as pessoas começaram a acreditar que “aprender coisas difíceis é ineficiente”
Trabalho com criptografia, e alguns alunos acham que tecnologia de segurança logo vai desaparecer por causa da IA. Então eu peço que implementem uma autenticação web simples para mostrar a realidade
Um escritório de contabilidade que conheço também está fazendo o próprio CRM com Lovable. Não tem ninguém de tecnologia lá
Dá para enxergar o desastre chegando
Todas as outras indústrias de alto risco têm sistemas de dupla verificação. Pilotos têm copilotos, cirurgiões têm checklists, usinas nucleares têm verificação independente
Mas o software sempre foi exceção, e o vibe-coding elimina até mesmo a pouca validação baseada em entendimento que ainda existia