5 Punkte von GN⁺ 2025-12-16 | Noch keine Kommentare. | Auf WhatsApp teilen
  • Ein Projekt, das alle Restaurantdaten Londons gescrapt und ein Machine-Learning-Modell aufgebaut hat, um die strukturellen Auswirkungen des Google-Maps-Algorithmus auf das Überleben kleiner Unternehmen in der Stadt zu analysieren
  • Das Ranking in Google Maps ist nicht nur eine einfache Liste, sondern übernimmt über die Signale Relevanz, Distanz und Prominence aktiv die Rolle eines 'Market Makers', der Nachfrage organisiert
  • Es zeigt eine Struktur, die sich kumulativ durch Anzahl und Geschwindigkeit von Bewertungen, Markenbekanntheit und Erwähnungen im Web verstärkt, wodurch ein Kreislauf aus anfänglicher Sichtbarkeit → mehr Nachfrage → mehr Bewertungen → zusätzliche Sichtbarkeit entsteht
  • Diese Struktur begünstigt Filialketten und Restaurants in zentralen Lagen, während neue unabhängige Restaurants mit einem ‚Cold-Start-Problem‘ konfrontiert sind, bei dem sie ohne Bewertungen kaum überhaupt entdeckt werden
  • Um das zu unterscheiden, wurde ein ML-Modell aufgebaut, das allein anhand der strukturellen Bedingungen eines Restaurants die erwartete Bewertung (counterfactual) vorhersagt; die Differenz zur tatsächlichen Bewertung wird als Residual berechnet, um vom Algorithmus über- oder unterbewertete Restaurants zu identifizieren
  • Darüber hinaus werden Restaurants auf Gebietsebene aggregiert, um die strukturelle Stärke von Restaurant-Hubs mittels PCA und Clustering zu analysieren und zu zeigen, wie Plattformen das urbane Food-Ökosystem neu ordnen

Google Maps ist kein Verzeichnis, sondern ein Market Maker

  • Entgegen der offiziellen Erzählung, Google Maps bilde nur passiv „das ab, was Menschen mögen“, organisiert es in der Praxis Nachfrage über die Kernsignale relevance, distance und prominence
  • Relevance wird aus Text-Matching zwischen Suchbegriff und Business-Metadaten abgeleitet, distance ist ein rein räumlicher Faktor
  • Prominence wird aus der Zahl der Bewertungen, der Bewertungsgeschwindigkeit, der durchschnittlichen Bewertung, Markenbekanntheit, Web-Sichtbarkeit usw. berechnet – genau an diesem Punkt beginnt der politökonomische Einfluss
    • Berücksichtigt wird, wie oft Menschen mit einem Ort interagieren, ihn erwähnen und bereits kennen
  • Google Maps „spiegelt“ Nachfrage also nicht einfach wider, sondern ist ein Market Maker, der Nachfrage über seinen Ranking-Algorithmus organisiert

Struktur kumulativer Vorteile und der Matthew-Effekt

  • Sichtbarkeit in der Rangliste bestimmt die Besucherzahlen, die Besucherzahlen bestimmen die Geschwindigkeit, mit der sich Bewertungen ansammeln, und diese Bewertungen fließen wiederum in das Prominence-Signal ein – ein Muster kumulativer Vorteile
  • Das ähnelt der Weise, wie Kapital auf Finanzmärkten durch Zinseszins wächst, und ist eine Form des Matthew-Effekts von Robert Merton, angewendet auf den Kebab-Laden
    • Das Prinzip: „Wer hat, dem wird gegeben
  • Filialketten sind durch ihre Markenbekanntheit an mehreren Standorten im Vorteil, und Betriebe in hochfrequentierten Lagen sammeln selbst bei gleicher Qualität schneller Bewertungen und steigen dadurch im Prominence-Ranking
  • Neue unabhängige Betriebe stehen vor einem Cold-Start-Problem: Ohne Bewertungen werden sie schwer entdeckt, und ohne Entdeckung sammeln sich auch keine Bewertungen an
  • Was wie neutrale Konsumentenentscheidung wirkt, muss in Wirklichkeit als algorithmisch vermitteltes Marktdesign verstanden werden

Plattform als Market Maker

  • In der Ökonomie ist ein Market Maker nicht nur ein Spiegel von Angebot und Nachfrage, sondern ein Intermediär, der Liquidität, Matching und Preisfindung aktiv formt
  • Plattformen wie Google Maps übernehmen eine ähnliche Funktion für lokale Dienstleistungen, indem sie nicht Preise, sondern Sichtbarkeit kontrollieren
  • Im Vokabular der Digitalökonomie fungiert der Ranking-Algorithmus als attention allocator, der Nachfrage zu bestimmten Anbietern lenkt und von anderen wegführt

Die kontrafaktische Stadt, gebaut mit Machine Learning

  • Wenn Google Maps als Market Maker urbaner Nachfrage fungiert, lautet die zentrale Frage, wie die Stadt ohne diese Verstärkungsschicht aussehen würde
  • Um inhärente Leistung eines Restaurants und Plattform-Sichtbarkeitseffekte zu trennen, wurde ein Machine-Learning-Modell aufgebaut
  • Verwendet wurde HistGradientBoostingRegressor (ein gradient-boosted decision tree aus scikit-learn)
    • Geeignet für große, unaufgeräumte tabellarische Mischdaten und in der Lage, Interaktionseffekte ohne manuelle Vorgabe zu erfassen
  • Modell-Features:
    • Anzahl der Bewertungen (log-transformiert, um den abnehmenden Effekt von Aufmerksamkeit abzubilden)
    • Küchenart, Kette/unabhängig, Preisklasse, Betriebstyp (Restaurant/Café/Take-away/Bar)
    • Position in der Stadt über ein räumliches Grid

Separates Modell zur Klassifikation der Küchenart

  • Es wurde festgestellt, dass die Küchenart-Klassifikation in Google Maps ungenau und inkonsistent ist
    • Viele Einträge sind vage als „restaurant“, „cafe“ oder „meal takeaway“ gelabelt
  • Daher wurde ein separates Klassifikationsmodell zur Vorhersage der Küchenart anhand von Restaurantnamen, Sprache der Speisekarte und Rezensionstexten aufgebaut
  • Der Küchenart-Filter im Dashboard basiert also auf Machine-Learning-Ergebnissen und nicht auf den Google-Tags
  • Fehlklassifikationen der Küchenart würden Analysen von Diversität, Clustering und Konkurrenzbeziehungen über Distanzen hinweg verzerren

Algorithmische Unterbewertung mit dem Bewertungs-Residual messen

  • Alle Merkmale durchlaufen eine standardisierte Preprocessing-Pipeline (Imputation fehlender Werte, Encoding usw.)
  • Das Modell lernt nur die Zuordnung zwischen auf der Plattform beobachtbaren Merkmalen und Bewertungen
  • Für jedes Restaurant wird eine kontrafaktisch erwartete Bewertung erzeugt
  • Die Differenz zwischen realer und vorhergesagter Bewertung ist das rating residual
    • Positives Residual: tatsächlich bessere Leistung als die Plattform-Baseline
    • Negatives Residual: schwächere Leistung als das, was der Algorithmus normalerweise belohnt
  • Es ist zwar kein perfektes Maß für Essensqualität, aber ein starker Indikator für algorithmic mispricing
    • Also für Stellen, an denen sozialer oder kulinarischer Wert von dem abweicht, was die Plattform strukturell verstärkt

Grenzen bezahlter Werbe-Sichtbarkeit

  • Einige Restaurants zahlen für promoted pins oder lokale Suchanzeigen
  • Diese bezahlte Sichtbarkeit ist nicht öffentlich einsehbar und kann daher nicht geschätzt werden
    • Ein Hinweis darauf, wie intransparent die Plattformmacht geworden ist
  • Das Bewertungs-Residual kann daher teilweise auch nicht beobachtbare Werbeausgaben widerspiegeln

Vorstellung des London Food Dashboard

  • Es wurde das London food dashboard gebaut, das die Analyseergebnisse zusammenfasst
  • Aktuelle Funktionen: Namenssuche, Filter für unterbewertete Geheimtipps (vom Machine-Learning-Algorithmus identifiziert), Küchenart, Borough, Preisklasse, Mindestbewertung und Anzahl der Bewertungen
  • Es ist eine Beta-Version, fungiert aber bereits als Mikroskop auf Londons algorithmische Lebensmittelökonomie
  • Adresse: laurenleek.eu/food-map
  • Der Filter „underrated gems“ ist ein Beispiel für die Nutzung der Machine-Learning-Residuals
    • Größere und dunklere Blasen markieren Orte, die vom Algorithmus unterbewertet werden

Vom einzelnen Restaurant zum algorithmischen Nachbarschaftsraum

  • Restaurants scheitern nicht isoliert, sondern innerhalb eines Ökosystems
  • Um zu analysieren, was passiert, wenn sich die Plattformdynamik vom einzelnen Restaurant auf das gesamte Food-Ökosystem eines Viertels ausweitet, wurde eine zweite Modellierungsebene hinzugefügt
  • Restaurants werden in kleine räumliche Zellen aggregiert (Hexagone auf der Karte – günstiger gegenüber Edge Effects als Quadrate)
  • Für jedes Gebiet werden zusammenfassende Merkmale berechnet: Restaurantdichte, durchschnittliche Bewertung, durchschnittliches Residual, Gesamtzahl der Bewertungen, Kettenanteil, cuisine entropy, Preisklasse
  • Die Merkmale werden standardisiert, anschließend wird PCA (Hauptkomponentenanalyse) ausgeführt, um die gesamte „Stärke des Restaurant-Ökosystems“ in einen kontinuierlichen hub score zu verdichten
  • Im selben Merkmalsraum wird K-means-Clustering angewendet, um Gebiete in vier Strukturtypen einzuteilen:
    • elite, strong, everyday, weak hubs

Ergebnisse der Hub-Analyse

  • Das Muster wirkt vertraut: Das Zentrum Londons dominiert
  • Entscheidend ist jedoch nicht, wo sich die Hubs befinden, sondern welcher Typ Hub sie sind
  • Auf Basis des gesamten hub score und nicht bloßer Rohbewertungen werden die fünf strukturell stärksten Restaurant-Hubs Londons identifiziert
    • Orte, an denen Dichte, algorithmische Aufmerksamkeit, Überleben unabhängiger Betriebe und Kaufkraft der Konsumenten zusammenfallen
    • Sie sind auf der Karte beschriftet
  • Um Nachbarschaftskonflikte nicht anzuheizen, werden die Rangplätze im Fließtext nicht explizit aufgelistet

Dichte nach Küchenart und kulinarische Vielfalt in London

  • Wenn das Panel zur Dichte nach Küchenart über die Hub-Analyse gelegt wird, wird das Bild noch klarer
  • Londons kulinarische Vielfalt ist nicht gleichmäßig über die Plattformökonomie verteilt
  • Einwandererküchen clustern stark in Stadtgebieten, in denen algorithmische Sichtbarkeit strukturell schwächer ist
  • Italian, Indian, Turkish, Chinese, Thai, British, Japanese, French, American und fish-and-chips spiegeln jeweils eigene Siedlungsgeschichten, Arbeitsnetzwerke, Handelsformate und Beziehungen zu Kapital und Mieten wider
  • Manche Küchen bilden lange, zusammenhängende Korridore, andere erscheinen als diskontinuierliche Cluster, die an bestimmte Einkaufsstraßen oder Einkommensschichten gebunden sind
  • Kulinarische Vielfalt ist nicht bloß Geschmack: Sie hängt damit zusammen, wo Familien sich niedergelassen haben, welche Geschäftsstraßen lange genug günstig blieben, damit die zweite Generation dort Läden eröffnen konnte, und in welche Teile der Stadt Migration stattfand, bevor kulinarische Ökosysteme ausgereift waren

Politische Implikationen

  • Das Projekt begann als Suchproblem und mündet in eine größere Frage
  • Das wichtigste Ergebnis ist nicht, welches Viertel auf Platz eins steht, sondern die Einsicht, dass Plattformen das Überleben in alltäglichen urbanen Märkten inzwischen im Stillen strukturieren
  • Londons Restaurantszene wird nicht mehr allein durch Geschmack organisiert
    • Sondern durch sich zinseszinshaft verstärkende Sichtbarkeit, steigende Mieten, sobald Entdeckung einsetzt, und Algorithmen, die Aufmerksamkeit verteilen, lange bevor Konsumenten eintreffen
  • Was wie „Wahl“ aussieht, ist zunehmend ein nachgelagerter Effekt von Rankingsystemen

Bedarf an algorithmischer Transparenz und Auditierbarkeit

  • Wenn Entdeckung heute das Überleben kleiner Unternehmen prägt, können Wettbewerb, Fairness und Stadterneuerung Rankingsysteme von Plattformen nicht länger ignorieren
  • Selbst wenn Kommunen Straßen erneuern und Lizenzen liberalisieren, kann algorithmische Unsichtbarkeit Orte wirtschaftlich isolieren
  • Plattform-Transparenz und Auditierbarkeit sind keine Nischendebatte der Tech-Welt mehr, sondern werden still zu einem Instrument lokaler Wirtschaftspolitik
  • Ranking-Algorithmen mit mindestens dieser Größenordnung ökonomischer Folgen sollten auditierbar sein
    • So wie Finanzmärkte geprüft werden, sollte auch der attention market geprüft werden
  • Es lohnt sich, auf das Ausmaß der Macht von Google Maps als Navigations-App zu achten

Noch keine Kommentare.

Noch keine Kommentare.