2 pontos por GN⁺ 9 일 전 | 1 comentários | Compartilhar no WhatsApp
  • Dados internos vazados revelam indícios de que a Tesla continuou os testes em vias públicas mesmo sabendo de milhares de acidentes graves e relatórios de falhas ligados a recursos de direção autônoma
  • Foram confirmados mais de 2.400 relatos de aceleração súbita, mais de 1.000 acidentes relacionados ao Autopilot, e muitos itens aparecem marcados como não resolvidos
  • Alguns veículos apresentaram aceleração e frenagem bruscas sem motivo, e o reconhecimento incorreto do ambiente ao redor pode levar a colisões fatais em alta velocidade
  • Em uma ação judicial por acidente fatal, dados apagados do veículo foram recuperados, e foi confirmado que o carro detectou o obstáculo no momento do acidente, mas apenas emitiu um alerta sonoro imediatamente antes da colisão, sem executar manobra evasiva
  • Um júri nos EUA ordenou que a Tesla pagasse mais de US$ 243 milhões em indenização, e o caso se expandiu para investigações do Departamento de Justiça e das autoridades de segurança viária, ampliando a controvérsia sobre a responsabilidade nos testes de direção autônoma em vias públicas

Visão geral

  • Com base em um vazamento de dados internos, ganharam destaque indícios de que a Tesla continuou os testes em vias públicas enquanto ocultava milhares de relatos de acidentes graves e falhas relacionados a recursos de direção autônoma
    • Segundo os materiais vazados, a Tesla já conhecia há anos falhas fatais em seus sistemas
    • No primeiro veredito do júri, a Tesla foi condenada a pagar mais de US$ 243 milhões às vítimas de um acidente fatal
  • Ao contrário do que prometiam os carros autônomos, para alguns usuários eles se tornaram um pesadelo, e surgiram críticas de que sistemas de condução baseados em IA foram colocados no mercado às pressas, sem validação suficiente
    • É mencionada uma investigação segundo a qual Elon Musk e a Tesla usaram as estradas como se fossem um campo de testes
  • Os danos de acidentes graves não se limitam a motoristas e passageiros, e até outros usuários da via acabam expostos a falhas do sistema sem qualquer consentimento

Principais pontos dos dados vazados

  • Um grande vazamento de documentos internos revelou milhares de reclamações de clientes e diversos registros de acidentes
    • Mais de 2.400 reclamações relacionadas a aceleração súbita
    • Mais de 1.000 acidentes relacionados ao Autopilot
  • Em muitos casos, os itens de tratamento do incidente estavam marcados como "não resolvido"
  • Em toda a documentação, fica evidente que a Tesla conhecia a dimensão das falhas do sistema

"Alucinações" fatais na estrada

  • Foram citados casos de aceleração brusca e frenagem repentina sem motivo em alguns veículos da Tesla
    • A reportagem descreve esse mau funcionamento da IA como "alucinação"
    • Em comparação ao fenômeno em que o ChatGPT fornece uma resposta completamente errada
  • O sistema de direção autônoma pode interpretar incorretamente o ambiente ao redor, e em alta velocidade esse tipo de erro pode levar a consequências fatais
  • Falhas no Autopilot não representam risco apenas para usuários da Tesla, mas afetam todos os usuários da via
    • Muitas pessoas nunca consentiram em participar do experimento da Tesla, mas na prática ficaram expostas a esses defeitos

Resposta judicial das vítimas

  • Naibel Benavides morreu em um acidente envolvendo uma Tesla em modo Autopilot
    • Ela era pedestre no momento
  • Dillon Angulo sobreviveu ao mesmo acidente, mas sofreu ferimentos graves e continua lidando com as sequelas
    • Inclui a declaração: "Eu não sabia que o Autopilot existia e, depois que descobri, me senti como uma cobaia"
  • Os familiares da vítima entraram com uma ação contra a Tesla
    • Alegando que a Tesla ocultou informações importantes
    • A Tesla vinha sustentando de forma contínua que a responsabilidade era do motorista

Dados do acidente alegadamente danificados

  • Durante a investigação do acidente, era necessário obter os dados da caixa-preta do veículo, mas a Tesla alegou que eles estavam danificados
  • Os advogados das vítimas mobilizaram especialistas e conseguiram recuperar os dados apagados
    • Segundo as informações recuperadas, a Tesla já sabia da falha desde a noite do dia do acidente
  • No momento do acidente, o veículo detectou o obstáculo, mas não executou nenhuma manobra para evitar a colisão
    • Apenas emitiu um alerta sonoro imediatamente antes do impacto

Veredito histórico

  • Um júri nos EUA proferiu um veredito condenando a Tesla ao pagamento de mais de US$ 243 milhões em indenização por danos
  • O veredito é apresentado como a primeira grande decisão judicial relacionada ao Autopilot
    • O júri entendeu que tanto a Tesla quanto o motorista tinham responsabilidade
  • O advogado das vítimas avaliou o caso como um dia histórico para a Justiça
    • Mencionando que a decisão deixa claro que fabricantes não podem usar vias públicas como se fossem seus laboratórios
  • A Tesla tentou anular o veredito, mas no fim de fevereiro um juiz federal manteve a sanção
    • A empresa ainda pode recorrer

Ampliação das investigações nos EUA

  • A Tesla é alvo de múltiplas investigações nos Estados Unidos
    • O Departamento de Justiça investiga se houve engano ao consumidor
    • As autoridades de segurança viária também conduzem uma investigação separada
  • Denunciantes prestaram depoimento às autoridades, afirmando que a empresa priorizou velocidade acima da segurança
  • Também há depoimentos de que versões de teste dos recursos de direção autônoma foram lançadas às pressas no mercado, e de que vários funcionários alertaram a direção sobre os riscos do Autopilot
  • Especialistas avaliam que este primeiro veredito pode levar a novas ações judiciais
    • É mencionado como uma decisão que abre caminho para novos julgamentos contra a Tesla

1 comentários

 
GN⁺ 9 일 전
Comentários do Hacker News
  • Pareceu realmente chocante a indicação de que a Tesla desligou o Autopilot alguns segundos antes da colisão para que ele não fosse registrado como ativo no momento do acidente. Vi isso no artigo da Futurism

    • Por isso eu também não fico com vontade de usar facilmente esses sistemas de assistência ao motorista. Como não dá para saber quando vou ter que reassumir o controle de repente, sinto que é melhor eu mesmo controlar tudo do começo ao fim
    • Sendo justo, a reportagem dizia que a função de direção autônoma deixou de controlar o veículo menos de 1 segundo antes da primeira colisão. Na minha visão, é natural que o sistema desista imediatamente do controle em uma situação que ele não consegue resolver. Ainda assim, se aparecer prova de que a Tesla usou isso ativamente como base para escapar da responsabilidade pelo acidente, estou disposto a mudar de opinião. Pessoalmente, acho que algo como 5 segundos seria um critério mais razoável
    • Parece haver algo em conflito com o resultado da investigação da NHTSA, mas a Tesla explica em sua página de segurança do FSD que, se o FSD esteve ativo dentro dos 5 segundos anteriores à colisão, o caso entra no cálculo da taxa de acidentes com intervenção do FSD. Em teoria, isso parece um critério suficiente para cobrir com folga o tempo normal de percepção e reação, de 1 a 1,5 segundo, mas na prática o próprio processo de disengagement em que o sistema devolve o controle ao motorista pode alterar esse tempo de reação. Se o motorista se acostuma com o carro cuidando da frenagem e da direção, deixa de ser uma simples reação a um estímulo: ele precisa recuperar a atenção, voltar ao controle totalmente manual e só então reagir, o que pode levar mais tempo. Além disso, também é questionável se pisar no freio ou virar o volante é realmente um sinal de retomada consciente do controle. Pode ser apenas uma ação reflexa
    • Isso já é conhecido há algum tempo e eu entendia não como uma tentativa de evitar o registro como ativo, mas como um projeto de segurança para impedir que o computador continue controlando o veículo em um estado possivelmente danificado após a colisão. Se o carro capota ou sofre danos graves, o AP ou o FSD podem não ter treinamento para esse tipo de situação, e se as rodas continuarem girando nesse estado isso pode ser ainda mais perigoso para os ocupantes ou para os socorristas. Pelo que sei, o AEB ainda pode continuar ajudando na frenagem, mas desativar auto-steer e cruise control parece mais seguro. Se lembro bem, o critério de desativação era algo em torno de 1 segundo
  • Acho que a Tesla tem um histórico muito ruim em termos de conformidade regulatória e divulgação de informações relacionadas a acidentes com direção autônoma

    • Mas o artigo em si pareceu ter números concretos demais de menos para a principal alegação que faz. Separando os casos individuais trágicos, senti que a narrativa geral ficou vaga demais e acabou enfraquecendo a força do argumento
  • Esse artigo também saiu em alemão. Dá para consultar o artigo em alemão da SRF

    • A SRF é o serviço estatal de rádio e TV da Suíça, então acho bem provável que ofereça conteúdo parecido em quatro ou mais idiomas
  • Essa reportagem fala do Autopilot antigo, não do FSD, e também não parece trazer nada realmente novo. Parece ter sido baseada no mesmo vazamento de dados que já estava público desde 2023. O título também parece impreciso, e eu não encontrei no artigo evidência direta de que a Tesla tenha escondido um acidente fatal

    • Mais um caso de título caça-cliques falso ou exagerado envolvendo Elon ou empresas do Elon, então a reação é de que isso nem surpreende
  • Queria acrescentar um pouco de contexto sobre o vídeo e o artigo. Esse documentário foi feito pela emissora pública suíça RTS e, diferentemente de parte da mídia pública europeia em geral, eu a vejo como relativamente estável em financiamento e com qualidade alta. A independência editorial e a neutralidade também me parecem em geral boas, e politicamente ela me soa levemente inclinada à esquerda. O motivo de o vídeo estar em francês é que a mídia suíça é dividida por regiões linguísticas, e é por essa mesma estrutura que existe uma versão traduzida em alemão. Se alguém quiser sugerir legendas em inglês, talvez valha a pena entrar em contato diretamente com a RTS

    • Mas essa explicação soou como se a mídia pública europeia em geral normalmente fosse pouco confiável. Fiquei curioso para saber por que você vê dessa forma. Quando tentei pensar em países europeus com emissoras públicas de alta qualidade, a lista ficou longa demais, então essa generalização me pareceu estranha
  • Fiquei curioso se esses acidentes no fim das contas também foram casos de desatenção do motorista

    • Acho que sim. Mas o ponto central, na minha opinião, é que a própria natureza do FSD pode levar o motorista a relaxar a atenção
  • Eu também não gosto muito da Tesla e acho que há muito exagero e muito marketing em torno dela, mas sinceramente esse artigo me pareceu mal feito. O título diz “como a Tesla escondeu acidentes para testar o Autopilot”, mas o texto em si não explica o que foi escondido, como foi escondido, nem de quem foi escondido. Mistura o vazamento de dados da Tesla de 2022 com outro processo separado de 2026 e não apresenta a conexão entre os dois. Acho que existe, sim, um padrão da Tesla de promessas enganosas e divulgação fraca, mas esse artigo não consegue comprovar bem essa afirmação

    • Tive uma sensação parecida. Especialmente em temas ligados ao Musk, isso parecia acontecer com mais frequência. Há material de sobra para críticas, mas para o jornalismo investigativo recuperar respeito, acho que ajudaria mais para a confiança do público e da imprensa apresentar menos acusações, porém mais concretas e bem fundamentadas, em vez de espalhar suspeitas vagas. Pode até ser mais fácil mover a opinião pública com um método vago, mas isso me parece um mecanismo perigoso que não exige coerência com a verdade
    • Vi esse comentário e fui ler o artigo por conta própria, e também senti que ele não tinha muito conteúdo. Mas não entendi muito bem por que essa opinião recebeu downvotes. Só para constar, eu também não sou fã da Tesla e acho aquela picape realmente bem ruim
  • Se quiser ver o vídeo completo, pode assistir ao vídeo completo da reportagem da RTS

  • Se você se sente mais à vontade com alemão, pode ler o artigo em alemão com o mesmo conteúdo