Us lançam a investigação sobre a auto-direção de Tesla sobre a morte de pedestres
A Agência de Segurança Rodoviária do governo dos Estados Unidos está novamente investigando o sistema “autônomo completo” da Tesla, desta vez depois de obter relatos de acidentes em condições de baixa visibilidade, incluindo uma que matou um pedestre.
A Administração Nacional de Segurança no Trânsito de Rodovias diz em documentos que abriu a investigação em 17 de outubro, com a empresa relatando quatro acidentes depois que Teslas entrou em áreas de baixa visibilidade, incluindo brilho solar, neblina e poeira no ar.
Além da morte do pedestre, outro acidente envolveu uma lesão, disse a agência.
Os investigadores analisarão a capacidade de “autônomo” de “detectar e responder adequadamente às condições reduzidas de visibilidade das estradas e, nesse caso, as circunstâncias contribuintes para esses acidentes”.
A investigação cobre cerca de 2,4 milhões de Teslas dos anos modelo de 2016 a 2024.
Uma mensagem foi deixada no início de 18 de outubro, pedindo comentários de Tesla, que disse repetidamente que o sistema não pode dirigir e os motoristas humanos devem estar prontos para intervir o tempo todo.
Na semana passada, Tesla realizou um evento em um estúdio de Hollywood para revelar um robotaxi totalmente autônomo sem volante ou pedais. O CEO Elon Musk disse que a empresa planeja ter veículos totalmente autônomos funcionando sem motoristas humanos no próximo ano e robotaxis disponíveis em 2026.
A agência também disse que analisaria se outras falhas semelhantes envolvendo “autônomo completo” ocorreram em condições de baixa visibilidade e buscarão informações da empresa sobre se alguma atualização afetou o desempenho do sistema nessas condições.
“Em particular, sua revisão avaliará o tempo, o objetivo e as capacidades de tais atualizações, bem como a avaliação da Telsa sobre seu impacto na segurança”, disseram os documentos.
Tesla lembrou duas vezes “Apresentação Autocosa” sob pressão da agência, que em julho procurou informações da aplicação da lei e da empresa depois que um Tesla usando o sistema atingiu e matou um motociclista perto de Seattle.
Os recalls foram emitidos porque o sistema foi programado para executar sinais de parada em velocidades lentas e porque o sistema desobedeceu a outras leis de trânsito. Ambos os problemas deveriam ser corrigidos com atualizações de software on -line.
Os críticos disseram que o sistema da Tesla, que usa apenas câmeras para identificar riscos, não tem sensores adequados para ser totalmente autodidata. Quase todas as outras empresas que trabalham em veículos autônomos usam sensores de radar e laser, além das câmeras para ver melhor nas condições de visibilidade escura ou baixa.
Os recalls de “autônomo completo” chegaram após uma investigação de três anos sobre o sistema de piloto automático menos sofisticado de Tesla colidiu com a emergência e outros veículos estacionados em rodovias, muitas com luzes de aviso piscando.
Essa investigação foi fechada em abril passado, depois que a agência pressionou a Tesla a recordar seus veículos a reforçar um sistema fraco que garantiu que os motoristas estejam prestando atenção. Algumas semanas após o recall, a NHTSA começou a investigar se o recall estava funcionando.
A investigação inaugurada em 17 de outubro entra em um novo território para a NHTSA, que anteriormente havia visto os sistemas da Tesla como ajudando motoristas em vez de se dirigir. Com a nova investigação, a agência está focada nas capacidades de “autônomo completo”, em vez de simplesmente garantir que os motoristas estejam prestando atenção.
Esta história foi relatada pela Associated Press.



