A primeira morte de carro robô do mundo foi resultado de erro humano – e pode acontecer novamente

Em 20 de novembro, o National Transportation Safety Board (NTSB) divulgou os resultados de sua investigação sobre o acidente fatal de Uber de 2018 em Tempe, Arizona, que se acreditava ser a primeira morte do mundo por um carro que se dirigia sozinho.

Mas em vez de algemar o carro robô de Uber, os investigadores destacaram os muitos erros humanos que culminaram na morte de Elaine Herzberg, de 49 anos. E eles soaram um aviso: poderia acontecer novamente.

“Se a sua empresa testa sistemas de condução automatizados em vias públicas, este acidente, foi sobre você”, disse o presidente da NTSB, Robert Sumwalt, em sua declaração de abertura da audiência de ontem.

Quando a diretoria leu em voz alta suas descobertas sobre a causa provável do acidente em Tempe, a primeira pessoa a ser culpada foi Rafaela Vasquez, a motorista de segurança no veículo no momento do acidente. Vasquez nunca foi chamada pelo nome, mas as suas falhas como cão de guarda do sistema de condução automatizado foram postas em destaque pela NTSB.

Nos minutos antes do impacto, Vasquez estava a transmitir um episódio de A Voz no seu telefone, o que viola a política de Uber que proíbe o uso do telefone. Na verdade, os investigadores determinaram que ela estava olhando para o telefone e longe da estrada por mais de um terço do tempo total em que esteve no carro até o momento do acidente.

A falha de Vasquez em “monitorar o ambiente de condução e o funcionamento do sistema de condução automatizado porque ela estava visualmente distraída durante a viagem pelo seu telemóvel pessoal” foi citada como a principal causa do acidente. Mas ela compartilha a culpa com seus empregadores em Uber, onde uma cultura de segurança terrivelmente inadequada também contribuiu para a morte de Herzberg, disse a diretoria. Da mesma forma, o governo federal também assumiu a sua quota-parte de responsabilidade por não regular melhor as operações autônomas de automóveis.

Imagem: ABC 15

“Na minha opinião, eles colocaram aqui o avanço tecnológico antes de salvar vidas”, disse Jennifer Homendy, membro do conselho da NTSB, da Administração Nacional de Segurança Rodoviária (NHTSA), que é responsável pela regulamentação das normas de segurança dos veículos.

Não só Vasquez estava sozinho no carro na altura, mas a sua atitude complacente sobre o sistema de condução automatizado do carro também ajudou a contribuir para o acidente. E essa atitude foi terrivelmente deslocada. O carro detectou que Herzberg estava a atravessar a rua com a sua bicicleta 5,6 segundos antes do impacto. Mas mesmo que o sistema tenha continuado a rastrear Herzberg até o acidente, ele nunca a identificou corretamente como um ser humano na estrada, nem previu com precisão seu caminho.

“A complacência automática… precisa estar no vocabulário de todos”, disse Bruce Landsberg, um membro da diretoria da NTSB.

Vasquez estava completamente inconsciente deste conflito até ser tarde demais. Uma das lições implícitas do acidente de Uber e da subsequente investigação da NTSB é a subutilização dos condutores de segurança em carros auto-conduzidos, disse Mary “Missy” Cummings, diretora do Laboratório de Humanos e Autonomia da Universidade Duke. Uber e outras empresas que testam carros auto-conduzidos normalmente contratam empreiteiros independentes como motoristas de segurança para andar nos carros e gerar milhas. Eles são vistos como pouco mais do que corpos em assentos. Em vez disso, eles devem ser vistos como parceiros críticos em um protocolo de teste que pode dar feedback muito útil, disse Cummings.

“Claro, isto custaria dinheiro”, disse ela. “

A cultura corporativa agressiva de Uber – a necessidade de testar veículos autônomos mesmo que a tecnologia não estivesse pronta – foi exposta não apenas através desta investigação, mas também através da ação judicial trazida pela Waymo, a empresa que se auto dirige, expulsa do Google, que acusou Uber de roubar seus segredos comerciais de auto-condução”.

Foto: Uber

>

“O condutor teve uma oportunidade de salvar a sua vida”, disse ao The Verge um ex-funcionário da Uber ATG que estava na empresa na altura do acidente, “mas Uber tinha dezenas”,

>

Uber ATG estava sob enorme pressão para mostrar resultados à nova CEO, Dara Khosrowshahi, que alegadamente estava a considerar encerrar a divisão devido aos custos de montagem R&D. Isso levou-os a fazer cortes, embora a empresa tenha feito passos significativos desde então para resolver esses erros.

Os membros da diretoria da NTSB salvaram as suas avaliações mais contundentes para o governo federal. Homendy culpou a NHTSA por priorizar o avanço tecnológico em vez de salvar vidas, e ela chamou a orientação voluntária da agência de “laxista” a ponto de ser “risível”.

As orientações voluntárias de segurança foram inicialmente estabelecidas sob o Presidente Obama que temia que as regras restritivas que regem os testes dos carros auto-conduzidos pudessem asfixiar a inovação. Essas regras foram tornadas ainda mais laxistas sob o Presidente Trump, que foi mais longe ao eliminar um comitê federal all-star sobre automação veicular que deveria servir como um “recurso crítico” para o Departamento de Transportes. O Trump eliminou o comitê sem sequer dizer a alguns de seus membros, The Verge relatou recentemente.

Até agora, apenas 16 empresas submeteram relatórios de segurança voluntários à NHTSA, muitos deles pouco mais do que “folhetos de marketing”, disse Ensar Becic, gerente de projetos e investigador de desempenho humano do Escritório de Segurança Rodoviária. Isso representa apenas uma fração das mais de 60 empresas que testam carros auto-conduzidos somente na Califórnia.

“Quero dizer, mais vale dizer que gostaríamos de suas avaliações, mas realmente não estamos exigindo isso”, disse Homendy durante a audiência. “Então por que fazer isso?”

O Departamento de Transportes emitiu três versões de sua orientação automatizada de segurança veicular, e planeja emitir uma quarta versão que incorpora as lições aprendidas com o acidente de Tempe, disse Joel Szabat, atuando como secretário de política do Departamento de Transportes, durante uma audiência no Senado em 20 de novembro. (O documento original chama-se “Automated Driving Systems” (Sistemas Automáticos de Condução): Uma Visão para a Segurança”. “Eles deveriam renomeá-lo ‘Uma Visão para a Falta de Segurança'”, Homendy quipou.)

Hoje, não existem leis federais que exijam que os operadores AV demonstrem a segurança de seus veículos antes de testá-los em estradas públicas ou fornecer dados sobre desacoplamentos ou falhas em seus sistemas de condução automatizados. O único papel do governo é reactivo: recordar uma peça se esta estiver defeituosa ou lançar uma investigação em caso de acidente.

Em seu relatório final, a NTSB recomenda mudar isso. Os operadores AV devem ser obrigados, e não encorajados, a submeter avaliações de segurança se quiserem testar seus veículos nas vias públicas, argumenta, e é preciso haver um processo de avaliação contínua para determinar se os operadores AV estão aderindo aos seus objetivos de segurança.

Mas no dia seguinte ao lançamento do relatório, o administrador máximo da NHTSA testemunhou em uma audiência no Senado que o Congresso deveria aprovar uma lei para acelerar a implantação de carros com direção totalmente autônoma que não possuem controles tradicionais como volantes e pedais. Atualmente, a agência só está autorizada a isentar um total de 25.000 veículos das normas federais de segurança de veículos motorizados por ano.

“Como estamos ouvindo da indústria que o limite pode ser muito pequeno”, disse o administrador interino da NHTSA, James Owens.

A tentativa anterior de levantar as restrições dos carros sem controles humanos fracassou. Os democratas no Senado bloquearam o projeto de lei, citando medidas inadequadas para garantir a segurança. Uma segunda tentativa está em andamento, mas ainda falta ver se consegue reunir votos suficientes para passar.

Os regulamentos federais excessivamente restritivos nesta fase de uma tecnologia em rápida mudança muito provavelmente causarão significativamente mais danos do que benefícios, disse Raj Rajkumar, um professor de engenharia elétrica e de computação da Universidade Carnegie Mellon. “Só porque Uber e seu operador se comportaram mal, todos os outros não devem ser penalizados”, disse ele.

Veículos autônomos devem salvar vidas, não levá-los”. E se as pessoas não confiam nas empresas que estão construindo a tecnologia, então o potencial de salvar vidas de carros auto-conduzidos nunca se materializará. Os carros vagarão pelas ruas, vazios e subutilizados, até que os operadores puxem a tomada.

As sondagens mostram que metade dos adultos americanos pensam que os veículos automatizados são mais perigosos do que os veículos tradicionais operados por pessoas. As opiniões já estão endurecendo, e não está claro o que pode ser feito para desfazer os danos que o acidente do Uber já causou.

Leave a Reply