1 Punkte von GN⁺ 2025-08-05 | Noch keine Kommentare. | Auf WhatsApp teilen
  • Tesla versuchte nach einem Autopilot-bezogenen Unfall, die Verantwortung zu entgehen, indem es entscheidende Daten verheimlichte und falsche Angaben machte
  • Unmittelbar nach dem Unfall wurden "collision snapshot"-Daten, die vom Fahrzeug an den Server hochgeladen wurden, gegenüber der Polizei und dem Kläger als nicht vorhanden dargestellt
  • Während des gesamten Verfahrens gab Tesla auf Datenanfragen wiederholt absichtlich ungenaue Informationen an und verzerrte wichtige Beweise
  • Erst nach der Analyse externer Forensiker und gerichtlicher Zwangsmaßnahmen wurden die versteckten Daten offenlegt, wobei Teslas interne Analyse den Autopilot-Betrieb bestätigte
  • Der Juryverdict weist Tesla 33 % Verantwortung zu; Fehler in Geofencing und fehlende Fahrerüberwachung des Autopilot wurden als einer der Gründe für das Versagen der Unfallprävention identifiziert

Einleitung

Durch die Gerichtsakten wurde das detaillierte Protokoll eines Vorfalls bekannt, bei dem Tesla nach einem tödlichen Fahrzeugunfall im Zusammenhang mit Autopilot im Jahr 2019 über Jahre hinweg Daten verschwieg und Polizei, Gericht und Kläger über Jahre hinweg mit Lügen und Desinformation in die Irre führte. Diese Zusammenfassung ordnet chronologisch den organisierten Prozess der Beweisunterdrückung und -manipulation sowie die Folgen nach dem Unfall ein.

Unfall und Datenverbergung im Überblick

1 | 25. April 2019 – Unfall und unmittelbarer Datenupload

  • Innerhalb von drei Minuten nach dem Unfall wurden Sensordaten, CAN-Bus, EDR und weitere Daten als Datei snapshot_collision_airbag-deployment.tar auf den Server übertragen
  • Das Fahrzeug löschte die lokale Kopie; tatsächlich waren diese Daten nur für Tesla zugänglich
  • Ein forensischer Ingenieur bestätigte durch Analyse des internen Bordrechners die Existenz dieser Daten
  • Tesla reichte bei einer rechtlichen Datenauskunft die falsche Behauptung ein, diese Daten seien nicht vorhanden

2 | 23. Mai 2019 – Teslas Anwalt veranlasste die Polizei zur Erstellung eines offiziellen Antrags

  • Der Highway Patrol Officer Riso aus Florida forderte Tesla auf, Kollisionsdaten bereitzustellen
  • Der Anwalt von Tesla gab direkte Anweisungen zum Inhalt der offiziellen Unterlagen, wodurch die tatsächlichen Kollisionsdaten ausgeschlossen wurden (nur weniger relevante Datensätze wie Unterhaltungsprotokolle wurden bereitgestellt)
  • Obwohl Tesla die Daten bereits besaß, verheimlichte das Unternehmen diesen Umstand gegenüber Polizei und Kläger

3 | Juni 2019 – Verdächtiger Extraktionsprozess bei mangelnder Kooperation

  • Die Polizei sicherte die Autopilot-Einheit (ECU) und das MCU des Fahrzeugs
  • Bei einem Extraktionsversuch im Tesla-Servicezentrum gab ein interner Techniker an, ihm sei das Vorgehen nicht geläufig, und behauptete einen angeblichen „Datenverlust"
  • Später konnte ein forensischer Ingenieur erfolgreich auf den Bordcomputer zugreifen, womit die tatsächliche Existenz der Daten bestätigt wurde

4 | 2019–2024 – Wiederholte Datenverbergung und Falschangaben

  • Tesla behielt die Daten über Jahre hinweg bereits in eigener Verfügung, behauptete aber bei Polizeianfragen und gerichtlichen Aufforderungen weiterhin, dass Daten nicht vorhanden oder beschädigt seien
  • Das Unternehmen berief sich auf eine angebliche Funktion zur automatischen Datenlöschung
  • Eine Teilanerkennung erfolgte erst, nachdem forensische Beweise oder gerichtliche Durchsetzung die Existenz bestätigt hatten

5 | Spätes Jahr 2024 – Gerichtliche Datenextraktion im Zwang

  • Auf gerichtliche Anordnung hin führte der Gutachter der Klägerseite eine vollständige Image-Erstellung des NAND-Flash der Autopilot-Einheit durch
  • Eine von Tesla als unmöglich bezeichnete Aufgabe wurde von externen Experten erfolgreich abgeschlossen, womit die vollständigen Daten gewonnen werden konnten

6 | Februar–März 2025 – Entscheidende Beweise durch forensische Analyse

  • Der Dateiname snapshot_collision_airbag-deployment.tar, die Prüfsumme und der Serverpfad wurden als zentrale Metadaten gesichert
  • Im Gegensatz zu den zuvor bereitgestellten Daten enthielt die eigentliche Datei zahlreiche kritische Protokolle zu Autopilot-Funktionen vor und nach dem Unfall, Warnsignalen sowie Karten- und Vision-Daten
  • Auf den Karten war der Bereich als „restriced Autosteer zone“ markiert, dennoch lief Autopilot ohne Deaktivierung oder Warnung weiter

7 | Mai 2025 – Tesla in Bedrängnis durch Server-Logs und Beweisauswertung

  • Die Klägerseite reichte AWS-Logdaten ein und belegte, dass die Datei seit dem 25. April 2019 um 18:16 Uhr (PDT) auf dem Server gespeichert war
  • Teslas interne Analyse bestätigte die Nutzung der Datei, den aktiven Autopilot-Betrieb und dass der Fahrer die Hände nicht am Lenkrad hatte
  • Weder Polizei noch Opferfamilie erhielten diese Daten

8 | Juli 2025 – Überprüfung des Jury-Urteils

  • Die Jury stellte fest, dass Unfalldaten aufgedeckt und ein systematisches Verschweigen durch Tesla versucht wurde
  • Der tatsächliche Dateninhalt zeigte: Autopilot/Autosteer lief vollständig, ohne dass der Fahrer manuell eingriff
  • Es gab keine Warnung; das System reagierte unzureichend beim Verlassen eines speziell eingerichteten Autobahnbereichs (Autopilot war auf einer Straße aktiv, die nicht für den Autobahnbetrieb vorgesehen war)
  • Die NTSB hatte Tesla früher bereits empfohlen, Geofencing und stärkere Fahrerüberwachung zum Schutz vor Missbrauch des Systems einzusetzen
  • Obwohl die Fahrlässigkeit des Fahrers der direkte Auslöser war, wurde Tesla eine Mindestverantwortung von 33 % zugewiesen

Electrek-Kommentar

  • Kritiker bezeichnen den Fall als unberechtigte Klageforderung der Kläger, doch aus Sicht der Angehörigen ist das Streben nach Aufklärung und Vermeidung künftiger Unfälle legitim
  • Die direkte Verantwortung liegt beim Fahrer, dennoch sind auch Teslas Defizite gravierend: unzureichende Nutzungseinschränkung des Autopilot, unzureichende Risikowarnungen und der Versuch, Verantwortung abzuwälzen
  • Nachdem alle Beweise geprüft wurden, gaben zwölf Geschworene Tesla 33 % der Schuld; dies kann als faire Bewertung gewertet werden
  • Dieses Urteil unterstreicht die Bedeutung von Autopilot-Zuverlässigkeit, Daten-Transparenz und klarer Zuweisung der Verantwortung

Noch keine Kommentare.

Noch keine Kommentare.