Der weltweit erste Todesfall durch ein Roboterauto war das Ergebnis menschlichen Versagens – und kann sich wiederholen
Am 20. November veröffentlichte das National Transportation Safety Board (NTSB) die Ergebnisse seiner Untersuchung des tödlichen Uber-Unfalls von 2018 in Tempe, Arizona, der weithin als der weltweit erste Todesfall durch ein selbstfahrendes Auto gilt.
Aber anstatt dem Roboterauto von Uber Handschellen anzulegen, hoben die Ermittler stattdessen die vielen menschlichen Fehler hervor, die zum Tod der 49-jährigen Elaine Herzberg führten. Und sie gaben eine Warnung aus: Es könnte wieder passieren.
„Wenn Ihr Unternehmen automatisierte Fahrsysteme auf öffentlichen Straßen testet, dann hat dieser Unfall Sie getroffen“, sagte der NTSB-Vorsitzende Robert Sumwalt in seiner Eröffnungserklärung der gestrigen Anhörung.
Als das Gremium seine Feststellungen zur wahrscheinlichen Ursache des Unfalls in Tempe verlas, war die erste Person, die beschuldigt wurde, Rafaela Vasquez, der Sicherheitsfahrer im Fahrzeug zum Zeitpunkt des Unfalls. Vasquez wurde nie namentlich genannt, aber ihr Versagen als Aufpasserin für das automatisierte Fahrsystem wurde von der NTSB deutlich herausgestellt.
In den Minuten vor dem Aufprall schaute Vasquez Berichten zufolge eine Folge von The Voice auf ihrem Telefon, was einen Verstoß gegen die Uber-Richtlinie darstellt, die die Benutzung von Telefonen verbietet. Die Ermittler stellten fest, dass sie mehr als ein Drittel der gesamten Zeit, die sie bis zum Unfall im Auto verbracht hatte, auf ihr Telefon und nicht auf die Straße geschaut hatte.
Vasquez‘ Versäumnis, „die Fahrumgebung und den Betrieb des automatisierten Fahrsystems zu überwachen, weil sie während der gesamten Fahrt durch ihr persönliches Mobiltelefon abgelenkt war“, wurde als Hauptursache für den Unfall angeführt. Aber sie teilt die Schuld mit ihren Arbeitgebern bei Uber, wo eine völlig unzureichende Sicherheitskultur ebenfalls zu Herzbergs Tod beitrug, so der Ausschuss. Auch die Bundesregierung trage ihren Teil der Verantwortung, weil sie es versäumt habe, den Betrieb autonomer Autos besser zu regulieren.
„Meiner Meinung nach haben sie hier den technologischen Fortschritt über die Rettung von Leben gestellt“, sagte NTSB-Vorstandsmitglied Jennifer Homendy über die National Highway Traffic Safety Administration (NHTSA), die für die Regulierung von Fahrzeugsicherheitsstandards zuständig ist.
Zum Zeitpunkt des Unfalls verfügte die Advanced Technologies Group von Uber über keinen unternehmensweiten Sicherheitsplan oder ein Leitdokument, in dem die Aufgaben und Zuständigkeiten der einzelnen Mitarbeiter für das Sicherheitsmanagement festgelegt waren, sagte Michael Fox, leitender Ermittler für Straßenverkehrsunfälle beim NTSB. Das Unternehmen verfügte auch nicht über eine Sicherheitsabteilung und hatte keinen eigenen Sicherheitsmanager, der für die Risikobewertung und -minderung zuständig war. In den Wochen vor dem Unfall traf Uber die verhängnisvolle Entscheidung, die Zahl der Sicherheitsfahrer in jedem Fahrzeug von zwei auf einen zu reduzieren. Diese Entscheidung beseitigte wichtige Redundanzen, die dazu hätten beitragen können, Herzbergs Tod zu verhindern.
Vasquez war zu diesem Zeitpunkt nicht nur allein im Auto, auch ihre selbstgefällige Haltung gegenüber dem automatisierten Fahrsystem des Fahrzeugs trug zum Unfall bei. Und diese Einstellung war völlig fehl am Platze. Das Auto erkannte 5,6 Sekunden vor dem Aufprall, dass Herzberg mit ihrem Fahrrad die Straße überquerte. Doch obwohl das System Herzberg bis zum Aufprall verfolgte, erkannte es sie weder korrekt als Mensch auf der Straße, noch konnte es ihren Weg genau vorhersagen.
„Selbstgefälligkeit bei der Automatisierung … muss in jedermanns Wortschatz vorkommen“, sagte Bruce Landsberg, ein Vorstandsmitglied des NTSB.
Vasquez war sich dieses Konflikts überhaupt nicht bewusst, bis es zu spät war. Eine der impliziten Lehren aus dem Uber-Crash und der anschließenden NTSB-Untersuchung ist der mangelnde Einsatz von Sicherheitsfahrern in selbstfahrenden Autos, sagte Mary „Missy“ Cummings, Direktorin des Humans and Autonomy Lab an der Duke University. Uber und andere Unternehmen, die selbstfahrende Autos testen, stellen in der Regel unabhängige Auftragnehmer als Sicherheitsfahrer ein, die in den Autos mitfahren und Kilometer sammeln. Sie werden kaum mehr als Körper in Sitzen gesehen. Stattdessen sollten sie als kritische Partner in einem Testprotokoll betrachtet werden, die sehr nützliches Feedback geben können, so Cummings.
„Natürlich würde das Geld kosten“, sagte sie. „
Die aggressive Unternehmenskultur von Uber – das Bedürfnis, autonome Fahrzeuge zu testen, obwohl die Technologie noch nicht ausgereift war – wurde nicht nur durch diese Untersuchung aufgedeckt, sondern auch durch die Klage von Waymo, dem aus Google ausgegliederten Unternehmen für selbstfahrende Autos, das Uber beschuldigte, seine Geschäftsgeheimnisse für selbstfahrende Autos gestohlen zu haben.
„Die Fahrerin hatte eine Chance, ihr Leben zu retten“, sagte ein ehemaliger Mitarbeiter von Uber ATG, der zum Zeitpunkt des Unfalls für das Unternehmen tätig war, gegenüber The Verge, „aber Uber hatte Dutzende.“
Uber ATG stand unter enormem Druck, dem neuen CEO Dara Khosrowshahi Ergebnisse vorzulegen, der Berichten zufolge erwog, die Abteilung aufgrund steigender F&D-Kosten zu schließen. Das führte dazu, dass man an allen Ecken und Enden sparte, obwohl das Unternehmen seither erhebliche Anstrengungen unternommen hat, diese Fehler zu beheben.
Die Mitglieder des NTSB-Vorstands sparten sich ihre schärfsten Beurteilungen für die Bundesregierung auf. Homendy warf der NHTSA vor, dem technischen Fortschritt Vorrang vor der Rettung von Menschenleben einzuräumen, und nannte die freiwilligen Richtlinien der Behörde so „lasch“, dass sie „lächerlich“ seien.
Die freiwilligen Sicherheitsrichtlinien wurden erstmals unter Präsident Obama aufgestellt, der befürchtete, dass restriktive Vorschriften für die Erprobung selbstfahrender Autos die Innovation bremsen könnten. Unter Präsident Trump wurden diese Regeln noch weiter gelockert, indem er einen All-Star-Bundesausschuss für Fahrzeugautomatisierung abschaffte, der als „kritische Ressource“ für das Verkehrsministerium dienen sollte. Trump hat den Ausschuss aufgelöst, ohne einige seiner Mitglieder zu informieren, wie The Verge kürzlich berichtete.
Bislang haben nur 16 Unternehmen freiwillige Sicherheitsberichte bei der NHTSA eingereicht, von denen viele kaum mehr als „Marketingbroschüren“ sind, so Ensar Becic, Projektleiter und Ermittler für menschliche Leistungen im Amt für Straßenverkehrssicherheit. Das ist nur ein Bruchteil der über 60 Unternehmen, die allein in Kalifornien selbstfahrende Autos testen.
„Ich meine, Sie könnten genauso gut sagen, dass wir Ihre Bewertungen gerne hätten, aber wir verlangen sie nicht wirklich“, sagte Homendy während der Anhörung. „
Das Verkehrsministerium hat drei Versionen seiner Sicherheitsrichtlinien für automatisierte Fahrzeuge herausgegeben und plant, eine vierte Version herauszugeben, in der die Lehren aus dem Unfall in Tempe berücksichtigt werden, sagte Joel Szabat, stellvertretender Staatssekretär für Politik im Verkehrsministerium, bei einer Anhörung im Senat am 20. November. (Das Originaldokument trägt den Titel „Automated Driving Systems: A Vision for Safety“. „Sie sollten es in ‚A Vision for Lack of Safety‘ umbenennen“, scherzte Homendy.)
Heute gibt es keine Bundesgesetze, die von den Betreibern automatisierter Fahrsysteme verlangen, die Sicherheit ihrer Fahrzeuge nachzuweisen, bevor sie sie auf öffentlichen Straßen testen, oder Daten über Abschaltungen oder Ausfälle ihrer automatisierten Fahrsysteme zu liefern. Die Regierung hat nur eine reaktive Rolle: Sie kann ein defektes Teil zurückrufen oder eine Untersuchung einleiten, wenn es zu einem Unfall kommt.
In seinem Abschlussbericht empfiehlt das NTSB, dies zu ändern. AV-Betreiber sollten verpflichtet und nicht ermutigt werden, Sicherheitsbewertungen einzureichen, wenn sie ihre Fahrzeuge auf öffentlichen Straßen testen wollen, argumentiert das NTSB, und es muss einen Prozess für die laufende Bewertung geben, um festzustellen, ob AV-Betreiber ihre Sicherheitsziele einhalten.
Aber am Tag nach der Veröffentlichung des Berichts sagte der oberste Verwaltungsbeamte der NHTSA bei einer Anhörung im Senat aus, dass der Kongress ein Gesetz verabschieden sollte, um den Einsatz von vollständig selbstfahrenden Autos zu beschleunigen, die keine traditionellen Bedienelemente wie Lenkräder und Pedale haben. Derzeit darf die Behörde nur insgesamt 25.000 Fahrzeuge pro Jahr von den bundesweiten Sicherheitsstandards für Kraftfahrzeuge ausnehmen.
„Wie wir von der Industrie hören, könnte diese Obergrenze zu gering sein“, sagte der amtierende NHTSA-Administrator James Owens.
Der vorherige Versuch, die Beschränkungen für Autos ohne menschliche Kontrolle aufzuheben, scheiterte. Die Demokraten im Senat blockierten das Gesetz mit der Begründung, dass die Sicherheit nicht ausreichend gewährleistet sei. Ein zweiter Versuch ist in Arbeit, aber es bleibt abzuwarten, ob er genügend Stimmen auf sich vereinigen kann, um verabschiedet zu werden.
Übermäßig restriktive Bundesvorschriften in diesem Stadium einer sich schnell verändernden Technologie werden sehr wahrscheinlich mehr Schaden anrichten als Nutzen bringen, sagte Raj Rajkumar, Professor für Elektro- und Computertechnik an der Carnegie Mellon University. „Nur weil Uber und sein Betreiber sich schlecht verhalten haben, sollten alle anderen nicht bestraft werden“, sagte er.
Autonome Fahrzeuge sollen Leben retten, nicht nehmen. Und wenn die Menschen den Unternehmen, die die Technologie entwickeln, nicht vertrauen, dann wird das lebensrettende Potenzial selbstfahrender Autos nie zum Tragen kommen. Die Autos werden leer und unausgelastet auf den Straßen herumfahren, bis die Betreiber den Stecker ziehen.
Umfragen zeigen, dass die Hälfte der Erwachsenen in den USA automatisierte Fahrzeuge für gefährlicher hält als herkömmliche, von Menschen gesteuerte Fahrzeuge. Die Meinungen verhärten sich bereits, und es ist unklar, was getan werden kann, um den Schaden rückgängig zu machen, den der Uber-Crash bereits verursacht hat.
Leave a Reply