2 Punkte von GN⁺ 8 일 전 | 1 Kommentare | Auf WhatsApp teilen
  • Aus intern geleakten Daten geht hervor, dass Tesla trotz Kenntnis von tausenden schweren Unfällen und Fehlerberichten im Zusammenhang mit autonomen Fahrfunktionen die Tests auf öffentlichen Straßen fortsetzte
  • Es wurden mehr als 2400 Beschwerden über plötzliche Beschleunigung und über 1000 Unfälle im Zusammenhang mit Autopilot dokumentiert; viele Einträge waren als ungelöst markiert
  • Einige Fahrzeuge zeigten grundlose starke Beschleunigung und abruptes Bremsen, und Fehlinterpretationen der Umgebung konnten bei hoher Geschwindigkeit zu tödlichen Kollisionen führen
  • In einem Prozess wegen eines tödlichen Unfalls wurden gelöschte Fahrzeugdaten wiederhergestellt; dabei wurde festgestellt, dass das Fahrzeug zum Unfallzeitpunkt ein Hindernis erkannt hatte, jedoch keinen Ausweichvorgang einleitete und erst unmittelbar vor dem Aufprall einen Warnton ausgab
  • Eine US-Jury verurteilte Tesla zu mehr als 243 Millionen US-Dollar Schadenersatz; zudem weitet sich die Debatte über die Verantwortung für autonome Fahrtests auf öffentlichen Straßen durch Ermittlungen des Justizministeriums und der Straßenverkehrssicherheitsbehörden aus

Überblick

  • Auf Basis eines Lecks interner Daten verdichten sich die Hinweise, dass Tesla tausende schwere Unfälle und Fehlerberichte im Zusammenhang mit autonomen Fahrfunktionen verschwieg und gleichzeitig Tests auf öffentlichen Straßen fortsetzte
    • Den geleakten Unterlagen zufolge wusste Tesla bereits seit Jahren von schwerwiegenden Mängeln im eigenen System
    • Im ersten Juryurteil wurde Tesla dazu verurteilt, den Opfern eines tödlichen Unfalls mehr als 243 Millionen US-Dollar zu zahlen
  • Entgegen den Versprechen rund um autonome Fahrzeuge wurde die Technik für manche Nutzer zum Albtraum, und es wird kritisiert, dass KI-basierte Fahrsysteme ohne ausreichende Prüfung überhastet auf den Markt gebracht wurden
    • Erwähnt werden Untersuchungsergebnisse, wonach Elon Musk und Tesla die Straßen wie ein Versuchslabor genutzt hätten
  • Die Folgen schwerer Unfälle betreffen nicht nur Fahrer und Insassen, sondern setzen auch andere Verkehrsteilnehmer ohne deren Zustimmung den Systemfehlern aus

Kernpunkte der geleakten Daten

  • In einem umfangreichen Leak interner Dokumente wurden tausende Kundenbeschwerden und zahlreiche Unfallaufzeichnungen festgestellt
    • Mehr als 2400 Beschwerden zu plötzlicher Beschleunigung
    • Über 1000 Autopilot-bezogene Unfälle
  • In vielen Fällen war der Bearbeitungsstatus der Vorfälle als "nicht gelöst" markiert
  • Die Dokumente insgesamt zeigen, dass Tesla das Ausmaß der Systemfehler kannte

Tödliche „Halluzinationen“ auf der Straße

  • Bei einigen Tesla-Fahrzeugen wurden Fälle von grundloser starker Beschleunigung und abruptem Bremsen genannt
    • Der Artikel bezeichnet solche KI-Fehlfunktionen als „Halluzinationen“
    • Verglichen wird das mit dem Phänomen, dass ChatGPT völlig falsche Antworten liefert
  • Das autonome Fahrsystem kann die Umgebung falsch interpretieren, und bei hoher Geschwindigkeit können solche Fehler tödliche Folgen haben
  • Mängel beim Autopilot sind kein Risiko nur für Tesla-Nutzer, sondern betreffen alle Menschen auf der Straße
    • Viele Menschen haben nie zugestimmt, Teil von Teslas Experiment zu sein, waren den Mängeln aber faktisch ausgesetzt

Rechtliche Schritte der Opfer

  • Naibel Benavides kam bei einem Unfall ums Leben, an dem ein Tesla im Autopilot-Modus beteiligt war
    • Sie war zu diesem Zeitpunkt Fußgängerin
  • Dillon Angulo überlebte denselben Unfall, wurde jedoch schwer verletzt und leidet weiter unter den Folgen
    • Enthalten ist die Aussage: „Ich wusste nicht, dass es Autopilot gibt, und nachdem ich davon erfuhr, fühlte ich mich wie ein Versuchskaninchen.“
  • Die Hinterbliebenen reichten Klage gegen Tesla ein
    • Sie warfen Tesla vor, wichtige Informationen verschwiegen zu haben
    • Tesla hat wiederholt auf der Verantwortung des Fahrers beharrt

Angeblich beschädigte Unfalldaten

  • Im Zuge der Unfalluntersuchung mussten die Blackbox-Daten des Fahrzeugs gesichert werden, doch Tesla behauptete, diese Daten seien beschädigt
  • Die Anwälte der Opfer setzten Experten ein und konnten gelöschte Daten wiederherstellen
    • Den wiederhergestellten Informationen zufolge wusste Tesla bereits am Abend des Unfalltags von dem Defekt
  • Zum Unfallzeitpunkt hatte das Fahrzeug das Hindernis erkannt, leitete jedoch kein Ausweichmanöver ein
    • Erst unmittelbar vor dem Aufprall ertönte ein Warnton

Historisches Urteil

  • Eine US-Jury sprach gegen Tesla mehr als 243 Millionen US-Dollar Schadenersatz zu
  • Dieses Urteil wird als erstes bedeutendes Urteil in einem Autopilot-Fall dargestellt
    • Die Jury sah sowohl Tesla als auch den Fahrer in der Verantwortung
  • Der Anwalt der Opfer bezeichnete dies als einen historischen Tag für die Justiz
    • Das Urteil zeige, dass öffentliche Straßen nicht wie das Labor eines Herstellers genutzt werden dürften
  • Tesla versuchte, das Urteil aufheben zu lassen, doch Ende Februar hielt ein Bundesrichter die Sanktion aufrecht
    • Dem Unternehmen steht weiterhin der Rechtsweg der Berufung offen

Ausweitung der Ermittlungen in den USA

  • Tesla ist in den USA Gegenstand mehrerer Untersuchungen
    • Das Justizministerium prüft möglichen Verbrauchertäuschung
    • Die Straßenverkehrssicherheitsbehörden führen ebenfalls eigene Ermittlungen durch
  • Whistleblower sagten gegenüber Behörden aus, das Unternehmen habe Geschwindigkeit vor Sicherheit gestellt
  • In den Aussagen heißt es zudem, dass Testversionen autonomer Fahrfunktionen überhastet auf den Markt gebracht wurden und mehrere Mitarbeiter das Management vor den Risiken des Autopilot gewarnt hätten
  • Experten gehen davon aus, dass dieses erste Urteil weitere Klagen nach sich ziehen könnte
    • Es wird als Urteil beschrieben, das den Weg für neue Prozesse gegen Tesla öffnet

1 Kommentare

 
GN⁺ 8 일 전
Hacker-News-Kommentare
  • Es wirkte wirklich schockierend, dass Tesla Autopilot offenbar wenige Sekunden vor dem Aufprall deaktivierte, sodass es zum Unfallzeitpunkt nicht mehr als aktiv erfasst wurde. Davon habe ich in diesem Futurism-Artikel gelesen

    • Deshalb habe ich auch wenig Lust, solche Fahrerassistenzsysteme einfach auszuprobieren. Wenn man nie weiß, wann man plötzlich wieder die Kontrolle übernehmen muss, fühlt es sich besser an, von Anfang bis Ende selbst die volle Kontrolle zu behalten
    • Fairerweise stand im Bericht, dass die autonome Fahrfunktion die Fahrzeugkontrolle weniger als eine Sekunde vor dem ersten Aufprall aufgegeben habe. Für mich wirkt es nachvollziehbar, dass das System in einer Situation, die es nicht lösen kann, sofort die Kontrolle abgibt. Falls aber Belege auftauchen, dass Tesla das gezielt als Argument zur Haftungsvermeidung genutzt hat, würde ich meine Meinung ändern. Persönlich fände ich eine Grenze von etwa 5 Sekunden plausibler
    • Es scheint zwar Punkte zu geben, die mit den Ergebnissen der NHTSA kollidieren, aber Tesla erklärt auf seiner FSD-Sicherheitsseite, dass ein Unfall in die FSD-Statistik eingeht, wenn FSD innerhalb von 5 Sekunden vor dem Aufprall aktiv war. Theoretisch deckt das die übliche Wahrnehmungs- und Reaktionszeit von 1 bis 1,5 Sekunden großzügig ab, aber in der Praxis kann schon der Disengagement-Prozess, bei dem das System die Kontrolle an den Fahrer zurückgibt, die Reaktionszeit verändern. Wenn sich Fahrer daran gewöhnen, dass das Auto bremst und lenkt, reagieren sie nicht mehr nur auf einen einfachen Reiz, sondern müssen ihre Aufmerksamkeit erst wieder voll herstellen, auf manuelle Kontrolle umschalten und dann handeln. Außerdem ist fraglich, ob ein Tritt auf die Bremse oder eine Lenkbewegung wirklich ein bewusstes Zurückerlangen der Kontrolle signalisiert. Es könnte auch nur eine reflexartige Reaktion sein
    • Das ist schon länger bekannt, und ich verstehe es weniger als Versuch, eine Aktivierungsaufzeichnung zu vermeiden, sondern eher als Sicherheitsdesign, damit der Computer nach einem Aufprall in möglicherweise beschädigtem Zustand nicht weiter steuert. Wenn das Auto sich überschlägt oder stark beschädigt ist, haben AP oder FSD dafür womöglich kein passendes Training, und wenn sich dann die Räder weiter drehen, könnte das für Insassen oder Rettungskräfte gefährlicher sein. Soweit ich weiß, kann AEB weiter beim Bremsen helfen, aber auto-steer und cruise control zu deaktivieren ist sicherer. Soweit ich mich erinnere, lag die Abschaltschwelle bei etwa 1 Sekunde
  • Ich finde, Tesla hat bei der Einhaltung von Vorschriften und bei der Offenlegung von Informationen im Zusammenhang mit Unfällen mit autonomem Fahren eine sehr schlechte Vorgeschichte

    • Allerdings fehlten dem Artikel selbst im Verhältnis zur zentralen Behauptung zu viele konkrete Zahlen. Unabhängig von den tragischen Einzelfällen wirkte die Gesamtdarstellung so vage, dass die Überzeugungskraft der These eher geschwächt wurde
  • Dieser Artikel war auch auf Deutsch verfügbar. Man kann auch den deutschen SRF-Artikel ansehen

    • SRF ist der staatliche Radio- und TV-Dienst der Schweiz, daher ist es gut möglich, dass ähnliche Inhalte sogar in vier oder mehr Sprachen angeboten werden
  • Dieser Bericht handelt von altem Autopilot, nicht von FSD, und ich sehe darin auch nichts wirklich Neues. Es scheint auf denselben geleakten Daten zu beruhen, die schon seit 2023 öffentlich waren. Auch der Titel wirkt ungenau, und ich konnte im Artikel keinen direkten Beleg dafür finden, dass Tesla einen tödlichen Unfall verborgen habe

    • Wieder einmal also ein falscher oder übertriebener Clickbait-Titel zu Elon oder einem Unternehmen im Besitz von Elon — daher wenig überraschend
  • Ich wollte noch etwas Hintergrund zum Video und zum Artikel ergänzen. Diese Doku wurde vom Schweizer öffentlich-rechtlichen Medium RTS produziert, das sich im Unterschied zu manchen anderen öffentlich-rechtlichen Medien in Europa einer relativ stabilen Finanzierung und meist auch hoher Qualität erfreut. Redaktionelle Unabhängigkeit und Neutralität sind im Allgemeinen ordentlich, politisch wirkt es leicht links. Dass das Video auf Französisch ist, liegt daran, dass die Schweizer Medien nach Sprachregionen organisiert sind; deshalb gibt es auch eine deutsche Fassung. Wenn jemand englische Untertitel vorschlagen möchte, wäre es vielleicht sinnvoll, sich direkt an RTS zu wenden

    • Diese Erklärung klang für mich allerdings so, als wolle sie andeuten, dass europäische öffentlich-rechtliche Medien normalerweise eher wenig vertrauenswürdig seien. Mich würde interessieren, warum du das so siehst. Wenn ich an europäische Länder mit hochwertigen öffentlich-rechtlichen Sendern denke, wird die Liste eher sehr lang — deshalb wirkt diese Verallgemeinerung auf mich merkwürdig
  • Ich habe mich gefragt, ob es sich bei diesen Unfällen letztlich doch um Fälle von Unachtsamkeit der Fahrer handelte

    • Ich denke schon. Der Kernpunkt ist aber, dass der Charakter von FSD selbst dazu führen kann, dass Fahrer ihre Aufmerksamkeit verlieren
  • Ich mag Tesla auch nicht besonders und halte das Unternehmen für massiv überschätzt und überhypt, aber dieser Artikel las sich ehrlich gesagt wie ein schlampiger Artikel. Im Titel heißt es „Wie Tesla Unfälle versteckte, um Autopilot-Tests fortzusetzen“, aber im eigentlichen Text wird nicht erklärt, was genau verborgen wurde, wie es verborgen wurde oder vor wem. Er vermischt das Tesla-Datenleck von 2022 mit einem separaten Gerichtsverfahren von 2026, ohne die Verbindung zwischen beiden darzulegen. Ich denke zwar, dass Tesla ein Muster aus irreführenden Versprechen und mangelhafter Offenlegung gezeigt hat, aber dieser Artikel belegt diese Behauptung nicht sauber

    • Ich hatte ein ähnliches Gefühl. Gerade bei Themen rund um Musk sehe ich das öfter. Es gibt mehr als genug legitime Kritikpunkte, aber wenn investigativer Journalismus wieder Respekt gewinnen will, wären weniger vage Andeutungen und dafür mehr konkrete Behauptungen mit Belegen sowohl für die Öffentlichkeit als auch für das Vertrauen in die Medien hilfreicher. Um die öffentliche Meinung zu bewegen, mag ein vager Ansatz einfacher sein, aber das ist ein gefährlicher Mechanismus, weil er keine Übereinstimmung mit der Wahrheit voraussetzt
    • Nach diesem Kommentar habe ich den Artikel selbst gelesen, und auch ich hatte den Eindruck, dass nicht viel Substanz darin steckt. Ich verstehe allerdings nicht ganz, warum diese Meinung downgevotet wird. Zur Einordnung: Ich bin auch kein Tesla-Fan, und dieser Truck ist wirklich furchtbar
  • Wer das ganze Video sehen möchte, kann sich den vollständigen RTS-Report ansehen

  • Wenn dir Deutsch lieber ist, kannst du denselben Inhalt im deutschen Artikel lesen