- Uma imagem suspeita de ter sido gerada por IA se espalhou nas redes sociais e, por parecer mostrar a ponte realmente desabada, a operação dos trens foi temporariamente suspensa
- A Network Rail interrompeu imediatamente, assim que a foto foi compartilhada, a passagem de todos os trens pela Carlisle Bridge para realizar uma inspeção de segurança
- Como a inspeção não encontrou problemas, os trilhos foram reabertos após cerca de 1 hora e meia, e 32 trens de passageiros e carga foram atrasados
- As autoridades ferroviárias alertaram que a produção e o compartilhamento de imagens falsas causam confusão desnecessária e desperdiçam dinheiro dos impostos
- Especialistas avaliaram que, embora o dano real tenha sido mínimo, o caso se tornou um exemplo do risco que a desinformação baseada em IA representa para a operação de infraestrutura social
Interrupção de trens por imagem falsa
- Logo após um terremoto, foi publicada nas redes sociais uma imagem que parecia mostrar uma ponte gravemente danificada
- A imagem era suspeita de ter sido gerada por IA e retratava a Carlisle Bridge, em Lancaster, como se tivesse desabado
- A Network Rail identificou a imagem às 00:30 GMT e suspendeu a operação de todos os trens que atravessassem a ponte para realizar inspeção de segurança
- O repórter da BBC analisou a imagem com um chatbot de IA e confirmou que havia partes com sinais de manipulação
Resposta e impacto das autoridades ferroviárias
- Por volta das 02:00 GMT, as linhas foram totalmente reabertas, e a Network Rail alertou para o impacto grave que imagens falsas podem causar
- As autoridades afirmaram que a confusão provocada por imagens falsas leva a atrasos de passageiros e desperdício de impostos e aumenta a carga de trabalho do pessoal em campo
- O British Transport Police tomou conhecimento do incidente, embora nenhuma investigação oficial tenha sido iniciada
Escala dos atrasos de circulação
- Segundo a Network Rail, um total de 32 trens de passageiros e carga foi atrasado
- Alguns pararam diretamente ou reduziram a velocidade, enquanto outros foram afetados pelo atraso de trens à frente
- Devido ao comprimento da West Coast Main Line, os atrasos se espalharam até o norte da Escócia
Análise de especialistas
- O especialista ferroviário Tony Miles explicou que o incidente ocorreu tarde da noite, portanto a maioria dos trens era de carga e trem-cama
- Esses trens geralmente operam em velocidades mais baixas, então mesmo com atrasos ainda há chance de recuperar tempo acelerando depois
- Ele observou que, como a Network Rail teve de deslocar equipes de inspeção de emergência para o local, isso pode afetar o trabalho nos próximos dias
Impacto social da desinformação
- Miles destacou que essa imagem falsa pode afetar os horários reais das pessoas
- Isso pode causar problemas em compromissos importantes, como consultas médicas, voos e funerais
- Ele afirmou que esse tipo de ação não é uma simples brincadeira, mas sim algo que causa danos reais à vida das pessoas e pediu contenção
4 comentários
Por que não estão procurando quem divulgou isso primeiro?
Com IA, os manipuladores do mercado de ações podem deixar de ser organizações e passar a ser indivíduos, né?
Fico realmente curioso para saber como seria a punição nesse caso.
Opiniões do Hacker News
Estamos apenas começando a era das imagens e vídeos falsos
Mesmo antes, sem IA, as pessoas já montavam cenas falsas usando cadáveres, como no caso das bombas forjadas em Donbas
Daqui para frente, vão surgir vídeos de minorias ou políticos fazendo coisas que nunca fizeram, além de materiais totalmente fictícios apresentados como prova em tribunal. Parece que vai ser um mundo realmente terrível
Este caso mostra a diferença entre o custo de criar um alerta e o custo de verificá-lo
Ferramentas generativas tornam a manipulação quase gratuita e fazem seu volume explodir
A operadora ferroviária não teve culpa. Se, logo após um terremoto, começa a circular uma imagem plausível, o natural é fazer uma verificação presencial
Vamos entrar em um mundo em que uma única pessoa pode provocar uma resposta de alto custo com gasto baixíssimo. Em vez de ignorar as redes sociais, os sistemas precisam aumentar a velocidade e a resiliência para distinguir sinal de ruído
Entre 1950 e 2005, a barreira de entrada na radiodifusão era alta e havia poucas fontes de informação. De 2005 a 2021, a confiança em vídeo era alta, mas agora o custo do vídeo falso está se aproximando de zero
Parece provável um retorno a um pequeno grupo de fontes consideradas confiáveis
A Network Rail disse para “pensar nas consequências graves antes de criar ou compartilhar imagens falsas”,
mas o que realmente falta é um sistema de verificação que não dependa de redes sociais. Não teria sido melhor confirmar por telefone diretamente?
Na verdade, isso nem precisa de IA
O mesmo resultado teria acontecido se alguém tivesse ligado dizendo “a ponte quebrou”. Trote e ameaça falsa existem há muito tempo
Curiosamente, não há prova de que essa foto realmente circulou nas redes sociais
Fora a matéria da BBC, não foi encontrado nenhum rastro. Talvez ela tenha sido enviada diretamente por e-mail à Network Rail
Este caso lembra o enredo de Moab em 『Fall; or, Dodge in Hell』
Dizem que o repórter da BBC analisou a imagem com um chatbot de IA para procurar sinais de manipulação
Mas esse método parece inadequado como forma de verificação
O alerta da Network Rail acabou expondo a própria vulnerabilidade deles
Isso mostra que é possível lançar ataques capazes de paralisar infraestrutura pública a qualquer momento desse jeito
A frase “a inspeção da ponte afetou o trabalho por vários dias” é ainda mais preocupante
É surpreendente que até uma simples verificação visual gere um custo social tão grande
Manter pessoal de prontidão 24 horas por dia sai ainda mais caro. No fim, é uma questão de equilíbrio entre custo e segurança