- Aus intern geleakten Daten geht hervor, dass Tesla trotz Kenntnis von tausenden schweren Unfällen und Fehlerberichten im Zusammenhang mit autonomen Fahrfunktionen die Tests auf öffentlichen Straßen fortsetzte
- Es wurden mehr als 2400 Beschwerden über plötzliche Beschleunigung und über 1000 Unfälle im Zusammenhang mit Autopilot dokumentiert; viele Einträge waren als ungelöst markiert
- Einige Fahrzeuge zeigten grundlose starke Beschleunigung und abruptes Bremsen, und Fehlinterpretationen der Umgebung konnten bei hoher Geschwindigkeit zu tödlichen Kollisionen führen
- In einem Prozess wegen eines tödlichen Unfalls wurden gelöschte Fahrzeugdaten wiederhergestellt; dabei wurde festgestellt, dass das Fahrzeug zum Unfallzeitpunkt ein Hindernis erkannt hatte, jedoch keinen Ausweichvorgang einleitete und erst unmittelbar vor dem Aufprall einen Warnton ausgab
- Eine US-Jury verurteilte Tesla zu mehr als 243 Millionen US-Dollar Schadenersatz; zudem weitet sich die Debatte über die Verantwortung für autonome Fahrtests auf öffentlichen Straßen durch Ermittlungen des Justizministeriums und der Straßenverkehrssicherheitsbehörden aus
Überblick
- Auf Basis eines Lecks interner Daten verdichten sich die Hinweise, dass Tesla tausende schwere Unfälle und Fehlerberichte im Zusammenhang mit autonomen Fahrfunktionen verschwieg und gleichzeitig Tests auf öffentlichen Straßen fortsetzte
- Den geleakten Unterlagen zufolge wusste Tesla bereits seit Jahren von schwerwiegenden Mängeln im eigenen System
- Im ersten Juryurteil wurde Tesla dazu verurteilt, den Opfern eines tödlichen Unfalls mehr als 243 Millionen US-Dollar zu zahlen
- Entgegen den Versprechen rund um autonome Fahrzeuge wurde die Technik für manche Nutzer zum Albtraum, und es wird kritisiert, dass KI-basierte Fahrsysteme ohne ausreichende Prüfung überhastet auf den Markt gebracht wurden
- Erwähnt werden Untersuchungsergebnisse, wonach Elon Musk und Tesla die Straßen wie ein Versuchslabor genutzt hätten
- Die Folgen schwerer Unfälle betreffen nicht nur Fahrer und Insassen, sondern setzen auch andere Verkehrsteilnehmer ohne deren Zustimmung den Systemfehlern aus
Kernpunkte der geleakten Daten
- In einem umfangreichen Leak interner Dokumente wurden tausende Kundenbeschwerden und zahlreiche Unfallaufzeichnungen festgestellt
- Mehr als 2400 Beschwerden zu plötzlicher Beschleunigung
- Über 1000 Autopilot-bezogene Unfälle
- In vielen Fällen war der Bearbeitungsstatus der Vorfälle als "nicht gelöst" markiert
- Die Dokumente insgesamt zeigen, dass Tesla das Ausmaß der Systemfehler kannte
Tödliche „Halluzinationen“ auf der Straße
- Bei einigen Tesla-Fahrzeugen wurden Fälle von grundloser starker Beschleunigung und abruptem Bremsen genannt
- Der Artikel bezeichnet solche KI-Fehlfunktionen als „Halluzinationen“
- Verglichen wird das mit dem Phänomen, dass ChatGPT völlig falsche Antworten liefert
- Das autonome Fahrsystem kann die Umgebung falsch interpretieren, und bei hoher Geschwindigkeit können solche Fehler tödliche Folgen haben
- Mängel beim Autopilot sind kein Risiko nur für Tesla-Nutzer, sondern betreffen alle Menschen auf der Straße
- Viele Menschen haben nie zugestimmt, Teil von Teslas Experiment zu sein, waren den Mängeln aber faktisch ausgesetzt
Rechtliche Schritte der Opfer
- Naibel Benavides kam bei einem Unfall ums Leben, an dem ein Tesla im Autopilot-Modus beteiligt war
- Sie war zu diesem Zeitpunkt Fußgängerin
- Dillon Angulo überlebte denselben Unfall, wurde jedoch schwer verletzt und leidet weiter unter den Folgen
- Enthalten ist die Aussage: „Ich wusste nicht, dass es Autopilot gibt, und nachdem ich davon erfuhr, fühlte ich mich wie ein Versuchskaninchen.“
- Die Hinterbliebenen reichten Klage gegen Tesla ein
- Sie warfen Tesla vor, wichtige Informationen verschwiegen zu haben
- Tesla hat wiederholt auf der Verantwortung des Fahrers beharrt
Angeblich beschädigte Unfalldaten
- Im Zuge der Unfalluntersuchung mussten die Blackbox-Daten des Fahrzeugs gesichert werden, doch Tesla behauptete, diese Daten seien beschädigt
- Die Anwälte der Opfer setzten Experten ein und konnten gelöschte Daten wiederherstellen
- Den wiederhergestellten Informationen zufolge wusste Tesla bereits am Abend des Unfalltags von dem Defekt
- Zum Unfallzeitpunkt hatte das Fahrzeug das Hindernis erkannt, leitete jedoch kein Ausweichmanöver ein
- Erst unmittelbar vor dem Aufprall ertönte ein Warnton
Historisches Urteil
- Eine US-Jury sprach gegen Tesla mehr als 243 Millionen US-Dollar Schadenersatz zu
- Dieses Urteil wird als erstes bedeutendes Urteil in einem Autopilot-Fall dargestellt
- Die Jury sah sowohl Tesla als auch den Fahrer in der Verantwortung
- Der Anwalt der Opfer bezeichnete dies als einen historischen Tag für die Justiz
- Das Urteil zeige, dass öffentliche Straßen nicht wie das Labor eines Herstellers genutzt werden dürften
- Tesla versuchte, das Urteil aufheben zu lassen, doch Ende Februar hielt ein Bundesrichter die Sanktion aufrecht
- Dem Unternehmen steht weiterhin der Rechtsweg der Berufung offen
Ausweitung der Ermittlungen in den USA
- Tesla ist in den USA Gegenstand mehrerer Untersuchungen
- Das Justizministerium prüft möglichen Verbrauchertäuschung
- Die Straßenverkehrssicherheitsbehörden führen ebenfalls eigene Ermittlungen durch
- Whistleblower sagten gegenüber Behörden aus, das Unternehmen habe Geschwindigkeit vor Sicherheit gestellt
- In den Aussagen heißt es zudem, dass Testversionen autonomer Fahrfunktionen überhastet auf den Markt gebracht wurden und mehrere Mitarbeiter das Management vor den Risiken des Autopilot gewarnt hätten
- Experten gehen davon aus, dass dieses erste Urteil weitere Klagen nach sich ziehen könnte
- Es wird als Urteil beschrieben, das den Weg für neue Prozesse gegen Tesla öffnet
1 Kommentare
Hacker-News-Kommentare
Es wirkte wirklich schockierend, dass Tesla Autopilot offenbar wenige Sekunden vor dem Aufprall deaktivierte, sodass es zum Unfallzeitpunkt nicht mehr als aktiv erfasst wurde. Davon habe ich in diesem Futurism-Artikel gelesen
Ich finde, Tesla hat bei der Einhaltung von Vorschriften und bei der Offenlegung von Informationen im Zusammenhang mit Unfällen mit autonomem Fahren eine sehr schlechte Vorgeschichte
Dieser Artikel war auch auf Deutsch verfügbar. Man kann auch den deutschen SRF-Artikel ansehen
Dieser Bericht handelt von altem Autopilot, nicht von FSD, und ich sehe darin auch nichts wirklich Neues. Es scheint auf denselben geleakten Daten zu beruhen, die schon seit 2023 öffentlich waren. Auch der Titel wirkt ungenau, und ich konnte im Artikel keinen direkten Beleg dafür finden, dass Tesla einen tödlichen Unfall verborgen habe
Ich wollte noch etwas Hintergrund zum Video und zum Artikel ergänzen. Diese Doku wurde vom Schweizer öffentlich-rechtlichen Medium RTS produziert, das sich im Unterschied zu manchen anderen öffentlich-rechtlichen Medien in Europa einer relativ stabilen Finanzierung und meist auch hoher Qualität erfreut. Redaktionelle Unabhängigkeit und Neutralität sind im Allgemeinen ordentlich, politisch wirkt es leicht links. Dass das Video auf Französisch ist, liegt daran, dass die Schweizer Medien nach Sprachregionen organisiert sind; deshalb gibt es auch eine deutsche Fassung. Wenn jemand englische Untertitel vorschlagen möchte, wäre es vielleicht sinnvoll, sich direkt an RTS zu wenden
Ich habe mich gefragt, ob es sich bei diesen Unfällen letztlich doch um Fälle von Unachtsamkeit der Fahrer handelte
Ich mag Tesla auch nicht besonders und halte das Unternehmen für massiv überschätzt und überhypt, aber dieser Artikel las sich ehrlich gesagt wie ein schlampiger Artikel. Im Titel heißt es „Wie Tesla Unfälle versteckte, um Autopilot-Tests fortzusetzen“, aber im eigentlichen Text wird nicht erklärt, was genau verborgen wurde, wie es verborgen wurde oder vor wem. Er vermischt das Tesla-Datenleck von 2022 mit einem separaten Gerichtsverfahren von 2026, ohne die Verbindung zwischen beiden darzulegen. Ich denke zwar, dass Tesla ein Muster aus irreführenden Versprechen und mangelhafter Offenlegung gezeigt hat, aber dieser Artikel belegt diese Behauptung nicht sauber
Wer das ganze Video sehen möchte, kann sich den vollständigen RTS-Report ansehen
Wenn dir Deutsch lieber ist, kannst du denselben Inhalt im deutschen Artikel lesen