4 Punkte von GN⁺ 2025-09-27 | 1 Kommentare | Auf WhatsApp teilen
  • 2017 vorgestellte KI-Modelle wie CheXNet zeigten bei der Diagnose von Lungenentzündungen eine höhere Genauigkeit als menschliche Radiologen, konnten diese Ergebnisse in der realen medizinischen Praxis jedoch nicht reproduzieren
  • Obwohl in jüngster Zeit Hunderte von Radiologie-KI-Modellen eine FDA-Zulassung erhalten haben, erreichen Stellenangebote und Gehälter für Radiologen in den USA stattdessen Rekordwerte
  • Zu den Grenzen von Medical AI zählen Datenmangel, Unterschiede zur realen Einsatzumgebung, regulatorische und versicherungstechnische Hürden sowie die Tatsache, dass menschliche Radiologen neben der Diagnose viele weitere Aufgaben übernehmen
  • Statt vollständiger Automatisierung ist ein System aus Mensch und KI im Zusammenspiel zum Standard in der Gesundheitsbranche geworden, und selbst mit dem Fortschritt der KI sinkt der Bedarf an Radiologen nicht
  • Das erste Jahrzehnt der Verbreitung von Medical AI zeigt das Paradox, dass KI zwar großes Potenzial zur Produktivitätssteigerung hat, in der Praxis aber mehr Nachfrage nach menschlicher Arbeit erzeugen kann

Einleitung: Einführung von KI und Erwartungen

  • KI-Modelle wie CheXNet, die 2017 aufkamen, wurden mit mehr als 100.000 Thorax-Röntgenaufnahmen trainiert und erzielten bei der Erkennung von Lungenentzündungen bessere Resultate als menschliche Fachärzte
  • Mehrere Unternehmen wie Annalise.ai, Lunit, Aidoc und Qure.ai haben KI-Systeme veröffentlicht, die Hunderte von Krankheiten erkennen können und sich auch in Krankenhaus-Informationssysteme integrieren lassen
  • Es gibt mehr als 700 von der FDA zugelassene Radiologie-KI-Modelle, was 75 % aller Medical-AI-Geräte entspricht
  • Die Radiologie galt wegen digitaler Eingaben, Mustererkennung und klar messbarer Ergebnisse als besonders geeignet für eine Ersetzung durch KI
  • Tatsächlich erreicht die Nachfrage nach der Ausbildung von Radiologen jedoch ein Rekordniveau, und auch die Löhne sind gegenüber 2015 um 48 % gestiegen – die Nachfrage nach menschlichen Fachkräften nimmt also zu

Grenzen von KI-Systemen für radiologische Diagnostik

Unterschiede zwischen realer Umgebung und Trainingsdaten

  • Radiologie-KI-Modelle liefern bei standardisierten Daten und unter bestimmten Bedingungen hervorragende Leistungen, in realen Krankenhausumgebungen sinkt die Performance jedoch aufgrund von Unterschieden zwischen Krankenhausdaten, Eigenschaften der Diagnosegeräte und mangelnder Diversität
  • Die meisten Modelle erreichen nur für bestimmte Krankheiten und einen bestimmten Bildtyp hohe Genauigkeit; in vielfältigeren Fällen entsteht die Unbequemlichkeit, mehrere Modelle abwechselnd einsetzen zu müssen
  • Selbst von der FDA zugelassene Algorithmen decken nur einen Teil der tatsächlichen Bildbefundung ab und konzentrieren sich meist auf einige wenige wichtige Erkrankungen wie Schlaganfall, Brustkrebs und Lungenkrebs
  • Hinzu kommen Probleme durch fehlende Daten zu Kindern, Frauen und ethnischen Minderheiten sowie eine geringere Vorhersagekraft, wenn sich Krankheiten nur subtil zeigen oder mit anderen Erkrankungen vermischt auftreten

Lücke zwischen Benchmark und klinischer Anwendung

  • In Benchmark-Tests erzielt KI hohe quantitative Kennzahlen, im tatsächlichen klinischen Umfeld erreichen menschliche Radiologen und unterstützende Systeme jedoch nicht die erwarteten guten Ergebnisse
  • So erhöhte ein unterstützendes KI-System im Bereich der Mammografie zwar die Sensitivität der Befundung, steigerte aber nur die Zahl unnötiger Zusatzuntersuchungen und Biopsien, ohne die Krebsentdeckungsrate zu erhöhen
  • Das „Doppelbefunden“, bei dem ein oder zwei menschliche Befunder gemeinsam lesen, zeigte eine höhere Krebserkennungsrate als KI-Unterstützung und zugleich eine niedrigere Quote unnötiger Nachuntersuchungen

Rechtliche und institutionelle Regulierung begrenzt das Tempo der Automatisierung

  • Die FDA unterscheidet radiologische Software in „Assistenz-/Klassifikationstools“ und „vollautomatisierte Tools“
    • Vollautomatisierung ist selten und wird nur unter einigen speziellen Bedingungen angewendet, etwa bei IDx-DR
    • Bilder, die für KI schwer zu beurteilen sind, muss die Software selbstständig aussortieren und an medizinisches Personal weiterleiten
  • Die regulatorischen Anforderungen sind hoch, und selbst bei jedem erneuten Training oder jeder Änderung eines Modells ist eine neue Zulassung erforderlich
  • Versicherer gehen davon aus, dass automatisierte Tools bei Fehlern ein höheres Risiko kollektiver Schäden bergen, und neigen daher dazu, Befunde zu meiden, die ausschließlich durch KI erstellt wurden
  • Rechtlich gilt als Standard oft, dass nur Befunde, die ein Arzt direkt interpretiert und unterschrieben hat, erstattungsfähig sind

Veränderung der Rolle menschlicher Radiologen

  • Tatsächlich verwenden Radiologen nur 36 % ihrer Zeit auf die Bildinterpretation; den Rest widmen sie Beratungsgesprächen mit Patienten und Kollegen, der Überwachung von Untersuchungen, Ausbildung, Änderungen von Verordnungen und weiteren Aufgaben
  • Selbst wenn die Zeit für Bildbefundung sinkt, kam es nicht zu unnötigen Entlassungen; vielmehr nahmen neue Aufgaben zu, und insgesamt stieg sogar das Volumen der Bildauswertung
    • Beispielsweise stieg beim Wechsel von filmbasierten zu digitalen Systemen die Produktivität der Bildbefundung stark, doch es kam nicht zu einem Personalabbau; stattdessen nahm die Gesamtzahl der bildgebenden Untersuchungen um mehr als 60 % zu
  • Eine höhere Geschwindigkeit bei der Bildverarbeitung führt zu vielfältigeren Einsatzmöglichkeiten im Gesundheitssystem, etwa zu kürzeren Wartezeiten für Untersuchungen und einer besseren Reaktionsfähigkeit in Notfällen

Ausblick: Lehren aus dem ersten Jahrzehnt der KI-Verbreitung

  • In den vergangenen zehn Jahren verlief die Einführung in die Alltagsversorgung deutlich langsamer als der technische Fortschritt der KI-Modelle
  • Nichttechnische Faktoren wie Regulierung, Versicherung, Patientengespräche und die Handlungsautonomie von Ärzten wirken als Barrieren gegen vollständige Ersetzung
  • KI trägt im Grundmodell nicht zur Ersetzung von Personal bei, sondern zur Produktivitätssteigerung durch Zusammenarbeit mit Menschen
  • Auf großen Plattformen (z. B. Facebook) mag das Automatisierungspotenzial durch KI hoch sein, doch je stärker Wissensarbeit aus vielfältigen Aufgaben besteht, desto eher erhöht die Einführung von Software die menschliche Arbeitsmenge, statt sie zu verringern
  • Die Erfahrungen aus der Radiologie zeigen das paradoxe Ergebnis, dass KI menschliche Arbeit nicht sofort ersetzt, sondern zusammen mit sozialen, institutionellen und verhaltensbezogenen Veränderungen die Nachfrage nach menschlichen Fachkräften eher aufrechterhält oder sogar erhöht

1 Kommentare

 
GN⁺ 2025-09-27
Hacker-News-Kommentare
  • Ich bin interventioneller Radiologe und habe außerdem einen Master in Informatik. Außerhalb der Radiologie scheint man oft nicht gut zu verstehen, warum AI die Radiologie noch nicht ersetzt hat. Zur Erklärung: Auf die Frage, ob AI Bildbefunde besser erstellen kann als menschliche Radiologen, lautet die Antwort fast immer „ja“ oder „bald ja“. Aber auf die Frage, ob Radiologen ersetzt werden, lautet die Antwort fast immer „nein“. Der Grund ist das medizinrechtliche Risiko. Solange sich die Gesetze nicht ändern, muss ein Radiologe jeden Bericht final unterzeichnen. Selbst wenn AI die Bilder auswertet und perfekte Berichte schreibt, bleibt die abschließende Prüfung durch den Radiologen der Engpass. Radiologen lesen heute schon täglich mindestens 60 bis 100 Untersuchungen unterschiedlichster Art in hohem Tempo, und das liegt nahe an der menschlichen Belastungsgrenze. Selbst wenn AI alle Berichte schreibt, muss trotzdem alles geprüft und unterschrieben werden, also ist der Zeitgewinn gering. Natürlich mag es einzelne unverantwortliche Ärzte geben, die einfach nur auf „Unterschreiben“ klicken, aber dann wird es auch Anwälte geben, die genau darauf ihre Klagen vorbereiten.

    • Das klingt ein bisschen wie das Argument, autonome Autos würden nie kommerziell eingeführt, weil im Fahrersitz immer jemand sitzen müsse, der „haftet“. Das entspricht nicht der Realität, da es bereits von der FDA zugelassene AI-Systeme gibt, die ohne ärztliche Bestätigung arbeiten.
    • Wenn AI besser wird als menschliche Radiologen, kann man sich leicht vorstellen, dass Radiologen den ganzen Tag nur noch „Genehmigen, genehmigen“ klicken oder den AI-Ergebnissen widersprechen, am Ende aber immer wieder nachgewiesen wird, dass die AI recht hatte. Sobald sich so etwas im Gesundheitswesen als allgemein bekannt etabliert, werden Krankenhäuser zur Kostensenkung auf Gesetzesänderungen drängen und schließlich auch ohne menschliche Radiologen arbeiten wollen.
    • Es wird auch Patienten geben, die nicht 6.000 Dollar zahlen möchten, um von 99,9 % auf 99,95 % Genauigkeit zu kommen.
    • Ich bin diagnostischer Radiologe mit über 20 Jahren klinischer Erfahrung und programmiere seit 1979. Ich möchte einer zentralen Annahme widersprechen: der Aussage, dass „AI bereits besser als Menschen Bilder lesen kann oder das bald tun wird“. Dem stimme ich nicht zu. Ich nutze aktuelle AI-Produkte und verfolge die Entwicklungen laufend, aber keines davon kommt auch nur annähernd an ein Niveau heran, das für echte klinische Befundung tauglich wäre. Wegen der Grenzen der Daten und der unendlichen Variabilität menschlicher Anatomie und pathologischer Veränderungen wird AI die intuitive, analytische und integrierende Denkweise menschlicher Radiologen nicht ersetzen, solange nicht echte AGI erscheint. Wir stoßen täglich auf neue Muster und noch nie gesehene Fälle, die sich oft gar nicht sinnvoll in Datensätze fassen lassen. Ich bin am Ende meiner Karriere und muss meine Position nicht verteidigen. Wenn es wirklich eine gute Ersatztechnologie gäbe, würde ich das Mikrofon gern aus der Hand legen, aber so weit sind wir absolut noch nicht.
    • Außerhalb der Radiologie scheint man oft nicht gut zu verstehen, warum AI dort noch keinen festen Platz hat. Tatsächlich wird AI die Radiologie wohl nie vollständig ersetzen. Stattdessen sollte AI mit Radiologen zusammenarbeiten, um hohe Arbeitslast und Personalmangel abzufedern. Ein Beispiel aus der Kardiologie: Auch dort ist der Anteil an Fachärzten weiterhin sehr gering. Das Lesen von ECGs ist schwierig und repetitiv, deshalb geht in vielen Ländern selbst die Auswertung von Holter-ECGs fast vollständig in Richtung automatischer Interpretation. Aber die Genauigkeit von AI/ML ist so niedrig, dass die Sensitivität fast auf 100 % gebracht werden muss, bevor eine Zusammenarbeit mit Kardiologen sinnvoll ist. Automatisierung sollte sich daher als „Unterstützung“ statt als „Ersatz“ etablieren. Kardiologen würden ihre Zeit lieber für die Ausbildung der nächsten Generation, Eingriffe, Forschung oder Erholung nutzen. Als Beispiel siehe den Pan-Tompkins-Algorithmus: Wikipedia zum Pan-Tompkins-Algorithmus
  • Als Tesla 2016 ein Demo-Video zum vollautonomen Fahren veröffentlichte und behauptete, „der Fahrer sitzt nur aus rechtlichen Gründen dort und tut nichts, das Auto fährt selbst“, dachte ich, das Trucking-Geschäft würde sich für immer verändern, und überlegte mir den Einstieg in die Branche noch einmal. Aber 2025 steht praktisch vor der Tür, und die meisten Veränderungen sind langsam oder fast gar nicht eingetreten. Es gibt viel Optimismus darüber, wie stark Technologie die Welt verändern wird, aber in der Realität verläuft Wandel oft sehr langsam oder stagniert ganz.

    • Ich schaue nicht auf Robotaxis im Allgemeinen, sondern auf Waymo. Waymo setzt die echte Vision autonomen Fahrens um, die ich mir als Kind vorgestellt habe, und die Zahl der Kunden wächst exponentiell. Wenn man den Sicherheitsstatistiken von Waymo glaubt, ist es wirklich ein sehr sicherer Dienst. Das Sprichwort, dass technologischer Fortschritt kurzfristig überschätzt und langfristig unterschätzt wird, passt hier gut, auch wenn die Radiologie natürlich ein anderer Fall ist … Zur Sicherheit von Waymo: Waymo Safety & Impact
    • Man muss sich vom Tesla-Video nicht getäuscht fühlen, denn es stellte sich heraus, dass es inszeniert war. Dazu: Reuters – Teslas Werbevideo zum autonomen Fahren war manipuliert Ich fahre seit etwa einem Jahr regelmäßig mit Waymo und bin sehr zufrieden. Ich wünschte, die Technik würde sich schneller verbreiten, aber ich halte die unerwarteten Edge Cases eher für zeitaufwendig als für ein unlösbares Problem.
    • Machine Learning war schon immer in 98 % der Fälle hervorragend, und wir haben uns eingeredet, die restlichen 2 % würden sich leicht lösen lassen.
    • Überoptimistische Technologien haben oft extrem beeindruckende Demos, aber 10.000 tödliche Ausnahmefälle. Autonomes Fahren und radiologische Befundung sind Paradebeispiele dafür. Je weniger Ausnahmefälle es gibt, desto besser funktioniert die Technik oft als erwartet. Beispiele: TikTok-Empfehlungen, Shazam.
    • Ich finde es wirklich erstaunlich, dass die meisten Züge immer noch von Menschen gefahren werden.
  • Die beste Anekdote zu Machine Learning und Radiologie stammt für mich aus der Zeit, als alle versuchten, COVID-Infektionen anhand von Lungenröntgenbildern mit AI zu erkennen. Einer Forschungsgruppe gelang scheinbar eine recht gute Klassifikationsleistung, aber später stellte sich heraus, dass das Modell lediglich die unterschiedlichen Schriftarten der Wasserzeichen verschiedener Krankenhäuser im Datensatz gelernt hatte und nicht COVID, sondern „Fonts“ unterschied. Referenz: Nature Machine Intelligence Suchbegriff: „AI for radiographic COVID-19 detection selects shortcuts over signal“. Es gibt dazu auch frei zugängliche Paper.

    • Ich habe auch einmal einen Machine-Learning-Versuch gesehen, der COVID anhand von Hustengeräuschen erkennen wollte. Wenn die Huster von COVID-Patienten und von Patienten mit einer anderen Atemwegserkrankung wirklich statistisch signifikant unterschiedlich wären, dann hätten Menschen sie doch ebenfalls leicht unterscheiden können. Ich habe nie verstanden, warum man glaubte, dass das funktionieren würde.
    • Diese Anekdoten sind lehrreich, aber sie zeigen eher schlechte Daten und schlechtes Training als grundsätzliche Grenzen der Algorithmen selbst. Wenn Daten und Methoden richtig aufgesetzt sind, ist es technisch nicht besonders schwer, Radiologen zu ersetzen. Ohne ein allgemeines begrenzendes Prinzip oder eine offensichtliche harte Grenze sind Vision-Modelle für genau solche Aufgaben schlicht zu gut geeignet.
  • Der Kern des Artikels sind diese drei Punkte: 1) Wenn man Modellen mehr Aufgaben übertragen will, stößt man auf gesetzliche Regulierung. 2) Regulierer und Versicherer genehmigen bzw. vergüten autonome Modelle nicht. 3) Der diagnostische Teil macht nur einen kleinen Anteil der radiologischen Arbeit aus; viel Zeit geht für Kommunikation mit Patienten und medizinischem Personal drauf. Selbst wenn ein Machine-Learning-Modell Diagnosen perfekt und kostenlos liefern würde, könnten Radiologen in dieser Struktur nicht sofort „ersetzt“ werden.

    • Der Behauptung, Radiologen verbrächten den Großteil ihrer Zeit eher mit Patienten und Kollegen als mit Diagnostik, stimme ich nicht zu. Die meisten Radiologen kommen zur Arbeit, lesen durchgehend Bilder, diktieren ihre Befunde und gehen wieder nach Hause. Wenn perfekte AI kommt, verliert dieser Beruf schlicht seinen Sinn. Dann ist es ähnlich wie ein Job, bei dem man nur auf CCTV-Monitore starrt.
    • Wenn es perfekte AI gäbe, bräuchte man keine Radiologen mehr. Heute läuft es Hausarzt → Radiologietechnologe → Radiologe (Befundung) → Hausarzt. Mit perfekter AI wäre es Radiologietechnologe → ML-Modell → Hausarzt.
    • Jedes Mal, wenn ich ein Röntgen bekomme, habe ich noch nie mit einem Radiologen gesprochen. Meist bedient ein Technologe nur das Gerät, und ein externer Radiologe schreibt separat die Diagnose. Auch die anderen Ärzte, denen ich begegne, scheinen nicht direkt mit Radiologen zu kommunizieren. Ich frage mich, ob das in den gesamten USA so läuft.
    • Ich habe eine Frage zu der Behauptung, Kommunikation mit Patienten sei ein wichtiger Teil der Arbeit von Radiologen. Bei allen bildgebenden Untersuchungen, die ich erlebt habe, gab es keinerlei Kontakt mit Radiologen. Patienten sehen sie kaum, und den Großteil der Kommunikation mit Kollegen könnten wohl auch Radiologietechnologen übernehmen. Es ist schwer einzusehen, warum dafür zwingend ein Facharzt nötig sein soll. Wenn AI die Befundung übernimmt, könnte diese Kommunikationsrolle vielleicht auf Pflegekräfte oder Radiologietechniker übergehen.
  • Allein heute habe ich eine Patientin zur Core-Needle-Biopsie in die Radiologie überwiesen, einen männlichen Patienten für eine Lendenwirbelsäuleninjektion, einen weiteren für eine Schulterinjektion, und vor einem Monat eine andere Patientin zur Embolisation wegen Endometriose. Als Nächstes plane ich noch eine Überweisung zur Embolisation eines Urinlecks nach Nephrektomie. Kann ein LLM solche Eingriffe durchführen? Wenn AI eine Fähigkeit breit verfügbar macht, weichen Fachgruppen auf andere Fähigkeiten aus und geben die kommoditisierten Tätigkeiten ab. Als zum Beispiel die ECG-Befundung in Geräte automatisiert wurde, brach die Vergütung stark ein, und ich habe diese Fähigkeit bewusst vernachlässigt und mich stattdessen auf Gehirn- und Bewegungsstörungen konzentriert. Wenn ein Patient also eine ECG-Interpretation braucht, schicke ich ihn einfach zum Kardiologen, der dann weitere Untersuchungen anordnet. Das kostet Patienten und dem Gesundheitssystem zusätzlich Zeit und Geld, aber so ist es nun einmal. Künftig könnte es so etwas wie „medizinische Wüsten“ in Bereichen geben, in denen AI-Spezialisten nicht arbeiten wollen, besonders bei älteren Menschen, auf dem Land oder in der Psychiatrie.

    • Das Ziel des Gesundheitssystems ist nicht, hohe Einkommen für Ärzte zu garantieren, sondern Patienten zu behandeln. Was automatisierbar ist, sollte automatisiert werden, um den Zugang zu verbessern. Auch die ECG-Automatisierung erweitert den Zugang.
    • Interventionelle Radiologie ist etwas anderes als reine Befundradiologie und erfordert deutlich mehr Ausbildung.
    • Automatische ECG-Interpreter geben oft so wörtliche und wenig sensitive Ergebnisse aus, dass sie im Rettungsdiensteinsatz völlig nutzlos sind. Wenn das Gerät nur immer wieder „ABNORMAL ECG – EVALUATION NEEDED“ ausgibt, wünscht man sich ein wirklich brauchbares Tool.
  • 2016 sagte Geoffrey Hinton, man solle die Ausbildung von Radiologen nun einstellen. Hätte man einfach allen Aussagen von AI-Befürwortern geglaubt, wäre die Welt längst zusammengebrochen.

    • Dieses Zitat wird oft wiederholt, aber Hinton hat das wohl spontan gesagt, ohne zu verstehen, dass Radiologen mehr tun als nur diagnostizieren. Hinton ist auch kein echter AI-Superfan, eher sogar ein Pessimist in Bezug auf AI.
    • Wenn man zum Beispiel 2016 die Facharztausbildung beginnt, ist man fünf Jahre später, also 2021, fertig und etwa 31 Jahre alt. Dann arbeitet man noch ungefähr 30 Jahre als Arzt, also bis in die 2050er. Für einen Blick in die Zukunft reicht das allemal. In 25 Jahren könnte Hinton mit seiner Aussage vielleicht zu 50 % recht gehabt haben.
    • Wenn man die medizinische Regulierung abgesenkt und die AMA zerschlagen hätte, wäre Hintons Vorhersage inzwischen vielleicht eingetroffen. Und vielleicht wären dadurch alle besser dran gewesen.
    • Das größte Hindernis dafür, dass AI die Radiologie ersetzt, ist das Recht. Sich nach jahrelanger Ausbildung auf einen Beruf zu verlassen, der nur aufgrund von Regulierung existiert, ist riskant, denn wenn sich das Gesetz ändert, kann alles sofort verschwinden.
    • Zukunftsprognosen sind wirklich extrem schwierig. Niemand weiß, wie die Welt in 20 Jahren aussieht.
  • Ich bin Arzt und Full-Stack-Engineer, und deshalb habe ich kein Interesse daran, Radiologe zu werden oder noch mehr Weiterbildung zu machen. AI wird die Radiologie zuerst verstärken und danach beginnen, einige Tätigkeiten zu ersetzen. Bestehende Radiologen werden sich dann natürlich in neue Bereiche wie interventionelle Radiologie verlagern.

    • Ich bin Radiologe und Full-Stack-Engineer, und ich mache mir keine Sorgen, dass dieser Beruf verschwindet. Er wird sich verändern, aber ähnlich wie andere Berufe zuvor.
    • Ich stimme als ehemaliger Medizinstudent ebenfalls zu. Mein Zahnarzt hat bereits eine AI, die völlig neue Mundmodelle inklusive Implantaten entwirft, und er nimmt nur noch den letzten Feinschliff vor. Ich denke, viele Arten von medizinischen Fachkräften könnten am Ende nur noch für Versicherung und rechtliche Haftung zuständig sein. Interessant ist auch, dass 30 % der US-Residencies von Ausländern besetzt werden.
    • Die Kombination Arzt + Engineer ist wirklich selten, aber ich kenne bereits Leute in meinem Umfeld, die so aufgestellt sind. Solche Perspektiven braucht die Medizin dringend, und sie bringen sehr besondere Stärken mit. Ich sehe darin fast so etwas wie Neo und Morpheus.
    • Wenn man Arzt + Engineer ist, hat man gerade in der Radiologie eine große Zukunft. Der Beruf wird nicht verschwinden, eher braucht man Menschen, die Medizin und Technologie verbinden.
    • Mich würde interessieren, wie du die Zukunft von Apothekern siehst. Für mich wirkt das Feld nahezu vollständig automatisierbar, und ich verstehe nicht, welchen echten Unterschied menschliches Urteilsvermögen dort noch machen soll.
  • Im Mai dieses Jahres brachte auch die New York Times einen ähnlichen Artikel mit dem Tenor „AI ersetzt Radiologen nicht“. Zum NYT-Artikel Die Aussagen der Ärzte und von Hinton sind interessant: „AI wird unterstützen und quantifizieren, aber nicht die interpretative Schlussfolgerung der Technologie übernehmen.“ „In fünf Jahren wird es eher ein Kunstfehler sein, keine AI zu verwenden.“ „Aber am Ende werden Mensch und AI zusammengehen.“ Hinton räumte später per E-Mail ein, dass er zu stark verallgemeinert habe; er habe nur über Bildinterpretation gesprochen, mit der Richtung recht gehabt, aber beim Zeitplan falsch gelegen.

  • Die AI-Transformation der Radiologie sollte verpflichtend sein. Radiologen sollten jeden Tag einen festen Mindestanteil AI einsetzen und ihre Produktivität verdoppeln müssen; sonst sollten sie entlassen werden. Wie CEOs sagen, ist AI die revolutionärste Technologie, die wir je gesehen haben, also muss sie aus Angst unbedingt übernommen werden. Alles andere ist inakzeptabel.

    • Ich kann inzwischen wirklich nicht mehr unterscheiden, ob das ernst gemeint oder Satire ist.
  • Ich würde es nicht vertrauen, wenn Ärzte, die keine Radiologen sind, die Interpretation von AI-Befunden übernehmen müssten. Selbst wenn AI in Benchmarks hervorragend abschneidet, ist das wie bei einem 20-seitigen Fachpaper: Ohne das Hintergrundwissen für eine eigene Analyse kann man kaum beurteilen, ob man dem Ergebnis vertrauen sollte.

    • Schon das Konzept von „PhD-Level-Forschung“ ist viel zu vage. Preprints, Konferenzposter, WIP-Co-Autorenpapers, unbegutachtete Manuskripte, Monografien — all diese Stufen unterscheiden sich qualitativ stark.
    • Dann könnte man natürlich scherzhaft sagen: Lass doch einfach ein anderes Deep-Learning-Forschungsmodell die Arbeit kritisieren.