- Dados internos vazados revelam indícios de que a Tesla continuou os testes em vias públicas mesmo sabendo de milhares de acidentes graves e relatórios de falhas ligados a recursos de direção autônoma
- Foram confirmados mais de 2.400 relatos de aceleração súbita, mais de 1.000 acidentes relacionados ao Autopilot, e muitos itens aparecem marcados como não resolvidos
- Alguns veículos apresentaram aceleração e frenagem bruscas sem motivo, e o reconhecimento incorreto do ambiente ao redor pode levar a colisões fatais em alta velocidade
- Em uma ação judicial por acidente fatal, dados apagados do veículo foram recuperados, e foi confirmado que o carro detectou o obstáculo no momento do acidente, mas apenas emitiu um alerta sonoro imediatamente antes da colisão, sem executar manobra evasiva
- Um júri nos EUA ordenou que a Tesla pagasse mais de US$ 243 milhões em indenização, e o caso se expandiu para investigações do Departamento de Justiça e das autoridades de segurança viária, ampliando a controvérsia sobre a responsabilidade nos testes de direção autônoma em vias públicas
Visão geral
- Com base em um vazamento de dados internos, ganharam destaque indícios de que a Tesla continuou os testes em vias públicas enquanto ocultava milhares de relatos de acidentes graves e falhas relacionados a recursos de direção autônoma
- Segundo os materiais vazados, a Tesla já conhecia há anos falhas fatais em seus sistemas
- No primeiro veredito do júri, a Tesla foi condenada a pagar mais de US$ 243 milhões às vítimas de um acidente fatal
- Ao contrário do que prometiam os carros autônomos, para alguns usuários eles se tornaram um pesadelo, e surgiram críticas de que sistemas de condução baseados em IA foram colocados no mercado às pressas, sem validação suficiente
- É mencionada uma investigação segundo a qual Elon Musk e a Tesla usaram as estradas como se fossem um campo de testes
- Os danos de acidentes graves não se limitam a motoristas e passageiros, e até outros usuários da via acabam expostos a falhas do sistema sem qualquer consentimento
Principais pontos dos dados vazados
- Um grande vazamento de documentos internos revelou milhares de reclamações de clientes e diversos registros de acidentes
- Mais de 2.400 reclamações relacionadas a aceleração súbita
- Mais de 1.000 acidentes relacionados ao Autopilot
- Em muitos casos, os itens de tratamento do incidente estavam marcados como "não resolvido"
- Em toda a documentação, fica evidente que a Tesla conhecia a dimensão das falhas do sistema
"Alucinações" fatais na estrada
- Foram citados casos de aceleração brusca e frenagem repentina sem motivo em alguns veículos da Tesla
- A reportagem descreve esse mau funcionamento da IA como "alucinação"
- Em comparação ao fenômeno em que o ChatGPT fornece uma resposta completamente errada
- O sistema de direção autônoma pode interpretar incorretamente o ambiente ao redor, e em alta velocidade esse tipo de erro pode levar a consequências fatais
- Falhas no Autopilot não representam risco apenas para usuários da Tesla, mas afetam todos os usuários da via
- Muitas pessoas nunca consentiram em participar do experimento da Tesla, mas na prática ficaram expostas a esses defeitos
Resposta judicial das vítimas
- Naibel Benavides morreu em um acidente envolvendo uma Tesla em modo Autopilot
- Ela era pedestre no momento
- Dillon Angulo sobreviveu ao mesmo acidente, mas sofreu ferimentos graves e continua lidando com as sequelas
- Inclui a declaração: "Eu não sabia que o Autopilot existia e, depois que descobri, me senti como uma cobaia"
- Os familiares da vítima entraram com uma ação contra a Tesla
- Alegando que a Tesla ocultou informações importantes
- A Tesla vinha sustentando de forma contínua que a responsabilidade era do motorista
Dados do acidente alegadamente danificados
- Durante a investigação do acidente, era necessário obter os dados da caixa-preta do veículo, mas a Tesla alegou que eles estavam danificados
- Os advogados das vítimas mobilizaram especialistas e conseguiram recuperar os dados apagados
- Segundo as informações recuperadas, a Tesla já sabia da falha desde a noite do dia do acidente
- No momento do acidente, o veículo detectou o obstáculo, mas não executou nenhuma manobra para evitar a colisão
- Apenas emitiu um alerta sonoro imediatamente antes do impacto
Veredito histórico
- Um júri nos EUA proferiu um veredito condenando a Tesla ao pagamento de mais de US$ 243 milhões em indenização por danos
- O veredito é apresentado como a primeira grande decisão judicial relacionada ao Autopilot
- O júri entendeu que tanto a Tesla quanto o motorista tinham responsabilidade
- O advogado das vítimas avaliou o caso como um dia histórico para a Justiça
- Mencionando que a decisão deixa claro que fabricantes não podem usar vias públicas como se fossem seus laboratórios
- A Tesla tentou anular o veredito, mas no fim de fevereiro um juiz federal manteve a sanção
- A empresa ainda pode recorrer
Ampliação das investigações nos EUA
- A Tesla é alvo de múltiplas investigações nos Estados Unidos
- O Departamento de Justiça investiga se houve engano ao consumidor
- As autoridades de segurança viária também conduzem uma investigação separada
- Denunciantes prestaram depoimento às autoridades, afirmando que a empresa priorizou velocidade acima da segurança
- Também há depoimentos de que versões de teste dos recursos de direção autônoma foram lançadas às pressas no mercado, e de que vários funcionários alertaram a direção sobre os riscos do Autopilot
- Especialistas avaliam que este primeiro veredito pode levar a novas ações judiciais
- É mencionado como uma decisão que abre caminho para novos julgamentos contra a Tesla
1 comentários
Comentários do Hacker News
Pareceu realmente chocante a indicação de que a Tesla desligou o Autopilot alguns segundos antes da colisão para que ele não fosse registrado como ativo no momento do acidente. Vi isso no artigo da Futurism
Acho que a Tesla tem um histórico muito ruim em termos de conformidade regulatória e divulgação de informações relacionadas a acidentes com direção autônoma
Esse artigo também saiu em alemão. Dá para consultar o artigo em alemão da SRF
Essa reportagem fala do Autopilot antigo, não do FSD, e também não parece trazer nada realmente novo. Parece ter sido baseada no mesmo vazamento de dados que já estava público desde 2023. O título também parece impreciso, e eu não encontrei no artigo evidência direta de que a Tesla tenha escondido um acidente fatal
Queria acrescentar um pouco de contexto sobre o vídeo e o artigo. Esse documentário foi feito pela emissora pública suíça RTS e, diferentemente de parte da mídia pública europeia em geral, eu a vejo como relativamente estável em financiamento e com qualidade alta. A independência editorial e a neutralidade também me parecem em geral boas, e politicamente ela me soa levemente inclinada à esquerda. O motivo de o vídeo estar em francês é que a mídia suíça é dividida por regiões linguísticas, e é por essa mesma estrutura que existe uma versão traduzida em alemão. Se alguém quiser sugerir legendas em inglês, talvez valha a pena entrar em contato diretamente com a RTS
Fiquei curioso se esses acidentes no fim das contas também foram casos de desatenção do motorista
Eu também não gosto muito da Tesla e acho que há muito exagero e muito marketing em torno dela, mas sinceramente esse artigo me pareceu mal feito. O título diz “como a Tesla escondeu acidentes para testar o Autopilot”, mas o texto em si não explica o que foi escondido, como foi escondido, nem de quem foi escondido. Mistura o vazamento de dados da Tesla de 2022 com outro processo separado de 2026 e não apresenta a conexão entre os dois. Acho que existe, sim, um padrão da Tesla de promessas enganosas e divulgação fraca, mas esse artigo não consegue comprovar bem essa afirmação
Se quiser ver o vídeo completo, pode assistir ao vídeo completo da reportagem da RTS
Se você se sente mais à vontade com alemão, pode ler o artigo em alemão com o mesmo conteúdo