William Wallace
Opinião: A lição da recolha do Autopilot da Tesla
Neste cenário hipotético, os investigadores analisam cuidadosamente o que aconteceu e concluem que, embora o homem tenha sido parcialmente culpado, as falhas na conceção do cortador de relva contribuíram para a sua morte. Recomendam algumas alterações razoáveis na conceção para evitar tragédias futuras.
O fabricante não efectua essas alterações. De facto, a empresa mantém a conceção defeituosa. Passam os anos, ocorrem centenas de incidentes semelhantes e morrem mais pessoas, incluindo utilizadores do corta-relva e pessoas que, por acaso, estavam a caminhar nas proximidades.
Estaria de acordo com esta situação? Sentiria que o fabricante estava a colocar a sua segurança em primeiro lugar?
Infelizmente, um cenário como este tem-se desenrolado em várias ocasiões nos últimos anos, ilustrando a sensação de impunidade que algumas empresas parecem sentir quando se trata de leis de segurança. A situação atual que envolve a Tesla e o seu conjunto de funcionalidades de assistência ao condutor Autopilot é apenas o exemplo mais recente.
Mostra que os reguladores federais de segurança precisam de se reafirmar e provar que podem responsabilizar as empresas em tempo útil. O Congresso deve apoiar estas agências com o financiamento, o pessoal e a autoridade simplificada de que necessitam para serem mais ágeis.
No início deste mês, após anos de escrutínio por parte de funcionários da área da segurança, defensores e legisladores, a Tesla recolheu mais de 2 milhões de veículos nos EUA. A Administração Nacional para a Segurança do Tráfego Rodoviário (NHTSA) concluiu que os condutores podiam facilmente utilizar indevidamente o Autopilot em situações em que não tinham o controlo do veículo ou em que o sistema não tinha sido concebido para ser utilizado. Estas conclusões são semelhantes às que o National Transportation Safety Board (NTSB) encontrou em investigações de acidentes da Tesla desde 2016.
É importante salientar que o Autopilot não torna um automóvel autónomo. Pode manter o carro a uma distância definida dos veículos que circulam à sua frente e fornecer apoio à direção para manter o veículo centrado na faixa de rodagem. Mas a Tesla avisa os condutores para manterem as mãos no volante, estarem atentos ao que os rodeia e estarem sempre preparados para tomar medidas imediatas.
No entanto, de acordo com o The Washington Post, houve pelo menos 17 mortes e cinco feridos graves associados ao Autopilot, e 736 acidentes nos EUA desde 2019. Várias mortes envolveram pessoas fora do Tesla, como motociclistas, e pelo menos 16 acidentes envolveram Teslas colidindo com veículos estacionários de primeiros socorros ou de manutenção.
Embora a Tesla não concordasse com a análise da NHTSA, a empresa concordou em realizar o recall voluntariamente no interesse de resolver a investigação de dois anos. A solução oferecida pela empresa é uma atualização de software gratuita sem fios que, segundo a mesma, melhorará os controlos e os alertas para manter os condutores envolvidos.
A Consumer Reports está a avaliar o Autopilot após a atualização do software nos veículos Tesla da nossa frota. Infelizmente, a avaliação preliminar dos nossos especialistas sugere que a correção é insuficiente, com o software a não ir suficientemente longe para evitar a utilização indevida ou a desatenção do condutor. Por exemplo, os testadores da CR ainda conseguiram utilizar o Autopilot depois de cobrirem a câmara do automóvel, e os condutores ainda podem utilizar a funcionalidade se estiverem a desviar o olhar da estrada.
Esta recolha assinala um momento crítico para os condutores da Tesla e para aqueles que partilham a estrada com eles. É essencial que a Tesla e a NHTSA abordem efetivamente as graves questões de segurança em causa, garantindo que o Autopilot só pode ser utilizado em situações para as quais foi concebido, como em auto-estradas de acesso limitado, e apenas quando o sistema tiver verificado que o condutor está a prestar atenção à estrada.
É alarmante que - com base na avaliação preliminar do CR e nas avaliações de outros especialistas em segurança - a recolha possa não funcionar eficazmente na sua forma atual.
Receba o nosso boletim semanal gratuito
- Subscrever o boletim informativo da CNN Opinion
- Junte-se a nós no Twitter e no Facebook
É especialmente preocupante porque o Autopilot não está sozinho no mercado. De acordo com os dados mais recentes da CR, os sistemas de assistência à condução ativa estão disponíveis em mais de metade dos veículos do ano-modelo de 2023, e poucos vêm com as salvaguardas de que necessitam. É previsível que os reguladores de segurança comecem a observar um padrão de incidentes também em veículos que não são da Tesla.
Mas a enorme retirada de circulação do Autopilot da Tesla também torna claro que o nosso sistema de segurança automóvel não está a servir os consumidores da forma esperada. Como é que as pessoas podem confiar que os seus automóveis foram concebidos para serem seguros e isentos de defeitos, se uma empresa sob escrutínio demora anos a efetuar uma recolha recomendada por especialistas em segurança - e depois fornece uma solução que pode não resolver o problema?
Enquanto consumidores, devemos exigir mais. Devemos dar crédito às empresas que colocam a segurança em primeiro lugar e apelar a outras para que dêem um passo em frente. O Congresso deve desafiar e capacitar a NHTSA para que esta disponha dos recursos, das ferramentas legais e da independência necessária para responsabilizar as empresas de forma mais rápida e abrangente.
Em última análise, quando é necessária uma recolha de segurança, esta deve ocorrer numa questão de meses - e não de anos - e deve ser eficaz. Não é certamente pedir demasiado aos consumidores.
Leia também:
- Isso mudará em dezembro
- Fusão nuclear - uma ilusão ou uma solução para os problemas energéticos?
- Activistas alemães falam no Dubai sobre o sofrimento em Israel e na Faixa de Gaza
- Crise orçamental alimenta o debate sobre o rendimento dos cidadãos - Bas adverte contra o populismo
Fonte: edition.cnn.com