14 Punkte von GN⁺ 2025-10-16 | 2 Kommentare | Auf WhatsApp teilen
  • 73 % der Besucher von E-Commerce-Websites sind mit sehr hoher Wahrscheinlichkeit keine echten Menschen, sondern ausgefeilte Bots
  • Mit standardmäßigen Analysetools lässt sich dieser Bot-Traffic nur schwer unterscheiden, wodurch die Auswertung der Werbeleistung und die Berechnung des Marketing-ROI verzerrt werden
  • Engagement Bots, Cart Abandonment Bots und Bots für Social-Media-Traffic ahmen Website-Aktivitäten äußerst präzise nach
  • Ein Teil des Bot-Traffics entsteht durch Datensammlung oder legitime Automatisierung, ein erheblicher Anteil dient jedoch Ad Fraud oder der Manipulation interner Kennzahlen
  • Das Problem ist inzwischen nicht mehr auf einzelne Websites beschränkt, sondern entwickelt sich zu einer breit angelegten und systematischen Herausforderung für die gesamte Branche

Der Anfang des Problems: Das Rätsel einer Conversion-Rate von 0,1 %

  • Die Website eines E-Commerce-Kunden verzeichnete in einem Monat 50.000 Besucher, aber tatsächlich nur 47 Verkäufe
  • In Analyseplattformen wie Google Analytics sahen die Daten sehr positiv aus, doch es zeigte sich, dass der Bezug zum tatsächlichen Umsatz gering war
  • Trotz monatlicher Werbeausgaben von 4.000 US-Dollar standen Wachstum und Ertrag in keinerlei Verhältnis zueinander
  • Anders als die anfängliche Vermutung, das Produkt selbst sei das Problem, wurden beim direkten Analysieren der Website-Traffic-Daten Auffälligkeiten entdeckt
  • Um das Problem zu verstehen, wurde ein Tracking-Skript entwickelt, das die Verhaltensweise echter Nutzer überwacht

Erste Untersuchung: Tracking zur Überprüfung der Traffic-Wahrheit

  • Entwicklung eines Tracking-Tools, das nicht bloß Klickzahlen zählt, sondern echte Verhaltensmuster von Nutzern beobachtet
    • Mausbewegungen: Analyse natürlicher Kurven gegenüber geradlinigen, maschinellen Bewegungsmustern
    • Scrollmuster: variable Geschwindigkeit mit Stopps/Rückwärts-Scrollen gegenüber perfekt konstantem maschinellem Scrollen
    • Interaktionsabstände: Messung der zeitlichen Variabilität zwischen Klicks, Hover-Ereignissen und dem Hinzufügen zum Warenkorb
  • Schon nach einer Woche zeigte sich, dass nichtmenschlicher (Non-human) Traffic ganze 68 % ausmachte
  • Es handelte sich nicht um gewöhnlichen Spam, sondern überwiegend um raffinierte Bots, die gezielt dafür entwickelt wurden, Analysetools zu täuschen

Ausweitung des Problems: Kein Einzelfall, sondern ein Branchenphänomen

  • In Marketing-Foren und Discord-Gruppen wurden andere E-Commerce-Betreiber gefragt: "Habt ihr auch Traffic, der nicht zu den Umsätzen passt?"
  • Nach Zustimmung zur Installation des Tracking-Skripts auf mehr als 200 kleinen und mittleren E-Commerce-Websites ergab eine sechsmonatige Untersuchung, dass im Durchschnitt 73 % Fake-/Bot-Traffic waren
  • Das ist kein isoliertes Problem, sondern ein strukturelles Thema im gesamten digitalen Commerce-Ökosystem

Die Struktur moderner Werbebetrugsmodelle: Analyse nach Traffic-Typen

  • Engagement Bot

    • Bots, die so entworfen wurden, dass Analyseberichte gut aussehen, indem sie das Verhalten hochwertiger Besucher simulieren
    • Sie führen komplexe Interaktionen aus, etwa Seiten-Scrollen, Cursor-Hover über Produkten und Klicks auf interne Links
    • Ihr fataler Fehler: perfekte Konsistenz
      • Auf jeder Produktbeschreibungsseite bleiben sie exakt 11 bis 13 Sekunden
      • Die Scrollgeschwindigkeit liegt immer konstant bei 3,2 Seiten pro Sekunde
    • Menschliches Verhalten ist unregelmäßig, diese Bots jedoch klinisch präzise
  • Cart Abandonment Bot

    • Fügt dasselbe Produkt in den Warenkorb, lässt es dort vier Minuten liegen und verwirft es danach — mehrfach pro Tag, dutzendfach wiederholt
    • Das geschieht über unterschiedliche IPs und Sessions und dürfte gezielt Kennzahlen wie die Warenkorbabbruchrate verfälschen oder interne Empfehlungsalgorithmen manipulieren
  • Phantom Social Media Visitor

    • Traffic, der in Analysetools so erscheint, als käme er von Instagram, TikTok usw.
    • Etwa 64 % davon verlassen die Seite nach exakt 1,8 Sekunden Wartezeit
    • Ohne Scrollen oder Klicken springen sie sofort wieder ab, werden aber als "Social-Media-Besucher" gezählt
    • Zentrale Komponente von Ad Fraud: Anbieter von Fake-Engagement nutzen dies, um den Traffic-Transfer zu "belegen"

Nicht jeder Bot ist bösartig: Legales Data Scraping

  • Information eines Insiders aus der E-Commerce-Datenbranche: 70 Millionen Retail-Webseiten pro Tag werden gescrapt
  • Legitime Zwecke im Bereich Business Intelligence
    • Große Retailer wie Amazon benachrichtigen Lieferanten nicht immer, wenn Bestände ausgehen
    • Marken bezahlen für Data-Scraping-Services, um ihre eigenen Produkte zu überwachen
    • Prüfung von Lagerbeständen, Analyse des Buy-Box-Wettbewerbs, Verifikation der Richtigkeit von Produktbeschreibungen
    • Tracking von Suchergebnis-Rankings nach Region und mobilem Gerät
    • Analyse von Bannerwerbung nach Zielgruppe
  • Laut einem Video von Kurzgesagt sind fast 50 % des gesamten Internet-Traffics Bots
  • Ein Teil davon ist legitime Wettbewerbsanalyse und Preisbeobachtung, ein erheblicher Anteil jedoch betrügerischer Traffic, der Werbebudgets verbrennt

Die zerbrochene Ökonomie digitaler Werbung

  • Ein Kunde gab monatlich 12.000 US-Dollar für Google Ads aus
  • Nach Einführung von fortgeschrittener Bot-Traffic-Erkennung und Filterung:
    • ging der gemeldete Traffic um 71 % zurück
    • der CFO war zunächst schockiert
    • der tatsächliche Umsatz stieg jedoch um 34 %
  • Echte Bemühungen zur Conversion-Rate-Optimierung (CRO) hatten von Anfang an Wirkung gezeigt, waren aber unter einer Lawine aus Fake-Klicks begraben
  • Tausende Dollar wurden dafür verschwendet, Robotern Werbung zu zeigen, die niemals kaufen sollen, weil sie genau dafür programmiert wurden
  • Der Marketing-ROI wechselte sofort von "schrecklich" zu "hervorragend"
  • Reaktion der Werbeplattformen

    • In Gesprächen mit großen Werbeplattformen änderte sich der Ton sofort, sobald Click Fraud oder Bot-Traffic erwähnt wurden
      • "Unsere AI-Erkennung gehört zum Besten der Branche"
      • "Wir nehmen Werbebetrug sehr ernst"
    • Ein Ansprechpartner räumte inoffiziell ein: "Alle wissen es"
      • "Wenn man richtig filtern würde, würden die Umsätze über Nacht um 40 % einbrechen, und die Investoren würden in Panik geraten"
    • Ein massiver Interessenkonflikt: Werbeplattformen verdienen an Klicks oder Impressionen — unabhängig davon, ob sie von potenziellen Kunden oder einem Click-Farm-Server stammen

Werben Sie für Roboter? Praktischer Leitfaden zur Erkennung von Fake-Traffic

  • 1. Traffic-Spitzen mit Umsatzdaten abgleichen

    • Entspricht ein Traffic-Anstieg auch einem Umsatzanstieg?
    • Wenn sich bei einer Promotion der Traffic verdoppelt, die Umsätze aber stagnieren, ist betrügerischer Traffic sehr wahrscheinlich
  • 2. Kennzahlen zum Nutzerverhalten analysieren

    • Nach Werten suchen, die "zu perfekt" sind
    • Ist die "durchschnittliche Verweildauer auf der Seite" wichtiger Landingpages von Monat zu Monat unheimlich stabil?
    • Echtes menschliches Verhalten ist unregelmäßig und variabel
  • 3. Geodaten segmentieren

    • Kommt erheblicher Traffic aus Ländern, in die gar nicht geliefert wird?
    • Wenn diese Besucher nicht konvertieren, ist das ein starkes Signal für minderwertigen oder Fake-Traffic
  • 4. Referral-Quellen untersuchen

    • Die wichtigsten Traffic-Quellen detailliert prüfen
    • Wenn Referral-Seiten irrelevant oder minderwertig wirken, könnten sie Teil eines Traffic-Exchange-Netzwerks sein
    • Nach "Ghost Referrals" suchen, bei denen auf der betreffenden Website in Wirklichkeit gar kein Link existiert
  • 5. Auf die Intuition vertrauen

    • Wenn sich die Zahlen merkwürdig anfühlen, gibt es wahrscheinlich tatsächlich ein Problem
    • Die Intuition von Geschäftsinhabern, die ihre Kundschaft kennen, ist ein wertvolles Werkzeug zur Bot-Erkennung

Das ernüchternde Fazit: Ein digitales Kartenhaus im Sand

  • Ein Startup-Gründer warb auf Grundlage von "User-Growth"-Kennzahlen 2 Millionen US-Dollar Investment ein
  • Später stellte sich heraus, dass 80 % dieser Kennzahlen Bots waren
  • Jetzt wird nach außen Normalität vorgetäuscht, weil das Eingeständnis der Wahrheit das Unternehmen und die Beziehung zu Investoren gefährden könnte
  • Die verborgene Bot-Ökonomie

    • Werbeplattformen verkaufen Impressionen an Bots
    • Unternehmen kaufen Fake-Traffic, um Kennzahlen aufzublähen
    • Analytics-Firmen berichten diese Bot-Aktivitäten pflichtbewusst
    • Die ganze Branche ist an einer kollektiven Maskerade beteiligt und fürchtet, dass ein Eingeständnis der Wahrheit das fragile System zum Einsturz bringen könnte
  • Abschließender Ausblick

    • Mehr als die Hälfte des Internets ist Illusion — ein digitales Bühnenspiel, in dem Bots für andere Bots auftreten
    • Dieser Anteil wächst täglich, weil AI und Automatisierung immer raffinierter werden
    • Die Frage ist nicht mehr: "Ist Ihr Unternehmen betroffen?"
    • Die eigentliche Frage lautet: "Was passiert, wenn dieses digitale Kartenhaus im Sand schließlich zusammenbricht?"

2 Kommentare

 
t7vonn 2025-10-16

Inzwischen tauchen nicht nur headless Bots auf, sondern auch Agent-Bots wie der Comet Browser, wodurch die Erkennung noch schwieriger wird.

 
GN⁺ 2025-10-16
Hacker-News-Kommentare
  • Ich betreibe eine Marketing-Agentur, und weil die Analysedaten eines Kunden überhaupt keinen Sinn ergaben (50.000 Besucher bei 47 Verkäufen), habe ich tiefer nachgeforscht. Also habe ich mit einem einfachen Skript das Nutzerverhalten verfolgt und über 200 mittelgroße E-Commerce-Websites analysiert. Im Durchschnitt waren 73 % des gesamten Besuchs-Traffics Bot-Traffic, der in Standard-Analysetools als echte Besucher gezählt wurde. Bots sind inzwischen extrem gut darin geworden, menschliches Verhalten wirklich überzeugend nachzuahmen. Ich habe die merkwürdigen Muster, die ich selbst beobachtet habe, sowie informelle Gespräche mit Leuten aus der Adtech-Branche zusammengefasst. Das Erstaunliche ist, dass dieser Bot-Traffic ein offenes Geheimnis ist, das alle kennen, über das aber niemand offen spricht. Es fühlt sich an, als würde das ganze System davon abhängen. Ich frage mich, ob andere Entwickler, Gründer oder Marketer ähnliche Diskrepanzen in ihren Daten gesehen haben

    • Als ich früher bei den Schweizer Yellow Pages gearbeitet habe, gab es ein Dashboard, in dem zahlende Kunden die Besucherzahlen ihrer Firmenseite sehen konnten. Als unser Entwicklungsteam den Bot-Traffic herausfilterte, fielen die Zahlen um mehr als 50 %. Nicht einmal einen Tag später kam aus dem Business-Bereich die Anweisung, den Filter wieder zu entfernen. Am Ende wurden Bots also quasi als echte Menschen behandelt

    • Ist es nicht eigentlich egal, selbst wenn alles Betrug ist? Wenn es 47 echte Käufe gab, dann kann man doch anhand der Werbekosten in diesem Zeitraum und im Vergleich zu den Daten davor und danach beurteilen, ob die Kampagne erfolgreich war. Bei Außenwerbung oder Werbung in Bussen interessiert auch niemanden, wer sie sieht oder ob es echte Menschen sind. Entscheidend ist am Ende der messbare reale Impact

    • Ich mache Web-Analytics-Beratung und habe 2021 merkwürdige Traffic-Muster bei einem globalen Logistikunternehmen untersucht. Ich habe auf meinem Blog eine Zusammenfassung dazu veröffentlicht diesen Artikel. Das Problem mit Bot-Traffic existiert schon seit Langem, und es gibt viele aufkommende „Ad-Fraud-Detection-Services“, die das verhindern wollen, aber ich habe bisher kaum einen gesehen, der praktisch wirklich nützlich ist. Die Frage „Wie löst man das?“ bleibt immer am Ende stehen, aber niemand weiß, wie man Bots vollständig stoppen kann. Die meisten Verbraucher sind auf großen Plattformen wie Google, Facebook, Instagram, TikTok oder LinkedIn unterwegs, und alternative Werbenetzwerke mit weniger Bots existieren praktisch nicht. Alle wissen, dass ein Teil davon fake ist, und kaufen den Traffic trotzdem weiter. Damit sich das ändert, müssten Big-Tech-Unternehmen mit Werbeeinnahmen in Milliardenhöhe einen größeren Anreiz bekommen, das System zu verändern, statt es aufrechtzuerhalten. Im Moment scheint ihnen das nicht wichtig genug zu sein. „Die Hälfte meines Werbebudgets ist verschwendet. Das Problem ist nur, ich weiß nicht, welche Hälfte.“ – John Wanamaker

    • Der Teil über „guten Bot“-Traffic war interessant. Während meiner Recherche gab mir jemand aus der Datenbranche einen ziemlich großen Hinweis: In seinem Unternehmen werden täglich 70 Millionen Retail-Webseiten gecrawlt. Das ist eine gewaltig große Quelle legitimen Bot-Traffics. Amazon informiert Lieferanten zum Beispiel nicht, wenn Lagerbestände aufgebraucht sind, deshalb nutzen Marken Data-Scraping-Dienste, um den Lagerstatus ihrer Produkte, den Wettbewerb um die „Buy Box“, die Angemessenheit von Produktbeschreibungen, Suchrankings und sogar zu prüfen, welche Banneranzeigen welchem Publikum ausgespielt werden. Selbst diese „guten Bots“ können je nach Perspektive unterschiedlich bewertet werden. Ich mag es nicht, wenn ein Konkurrent meine Website ausliest, finde es aber gut, wenn ich selbst Marktdaten sammle. Wenn jemand einen Bot programmiert hat und betreibt, dann ist es für diese Person ein nützlicher Bot. Content-Creator sehen AI-Scraping als etwas Schlechtes, die AI-Hersteller als etwas Gutes. Preisvergleichsseiten vertrauen auf die guten Absichten ihrer Crawler, Retailer hassen sie. Ob Bot-Traffic „gut“ oder „schlecht“ ist, hängt von der Perspektive ab

    • Ich stimme der Aussage zu, dass das ganze System auf Bots basiert. Ich war nie besonders rebellisch, aber ein Teil von mir, der noch etwas vom Optimismus des frühen Internets in sich trägt, würde gern sehen, wie das Werbemodell zerbricht. Selbst wenn Werbung „normal“ funktioniert, haftete ihr im Kern immer etwas Ausbeuterisches und Täuschendes an. Zum Beispiel Botschaften wie: „Wenn du dieses Produkt nicht unbedingt kaufst, werden deine Freunde dich nicht mögen“

  • Der Schreibstil des Artikels ist interessant. Dieses Muster „nicht einfach X, sondern …“, die fett gesetzten Hervorhebungen, die Bullet-Lists – das ist ein Stil, den man irgendwo schon oft gesehen hat, so ein typischer ChatGPT-Stil. Natürlich ist es kein Problem, sich von ChatGPT helfen zu lassen, aber ironischerweise klingt der Artikel selbst stilistisch sehr nach AI. Falls der eigentliche Autor sowieso so schreibt, würde das eher bedeuten, dass ChatGPT auf genau diesen Stil hin feinjustiert wurde. Ich frage mich, ob die Kommunikation in der Adtech-Branche generell so klingt

    • Eigentlich ist es eher ironisch, dass dieser Text missverstanden wird, obwohl er ein Beispiel dafür ist, wie ein Mensch „schablonenhafte Sprache“ korrekt einsetzt, aber oberflächlich AI-artig wirkt. „Das ist nicht X, sondern Y“ ist eine grammatische Struktur mit klarem Zweck: Man weiß, dass der Leser X erwarten wird, und verschiebt die Perspektive deshalb auf Y. Im Text sieht man das etwa bei „Ich habe nicht einfach Klicks gezählt, sondern Verhalten beobachtet“ oder „Es sind nicht einfach Bots, die kurz auf eine Seite gehen und wieder verschwinden, sondern Bots, die menschliches Verhalten imitieren“. Das dient dazu, die Erwartung des Lesers klar von der tatsächlichen Aussage abzugrenzen. Es wäre interessant zu erforschen, wie man zwischen AI-Stilmerkmalen und bedeutungsvoll geschriebenen menschlichen Texten unterscheidet. Vielleicht wird es später in echter Hochschulbildung oder bei Einstellungen sogar einmal darum gehen, AI und Menschen auf diese Weise zu unterscheiden

    • Bei der Stelle „Es begann mit einem einfachen, aber fatalen Problem“ habe ich das Interesse verloren. Danach kam noch „Es fühlte sich seltsam und unangenehm an“, und da war für mich völlig die Luft raus. Außerdem wirkt es so, als würde der Autor am Ende selbst irgendein Ad-Tool verkaufen

    • Gerade bei solchen Texten fühlt sich das noch ironischer an. Immerhin ist es beruhigend, dass Menschen diese Art von dünnem Geschreibsel inzwischen schnell erkennen und ignorieren können. Startups wollen zwar schnell scheitern, aber ich möchte AI-generierte Inhalte lieber schnell erkennen und einfach überspringen

    • Ich habe die AI-artigen Merkmale sofort erkannt und bin direkt in die Kommentare gesprungen. Wenn ein Text für jeden offensichtlich wie AI-Output aussieht, ist das ein Zeichen dafür, dass ihn niemand wirklich selbst geschrieben oder editiert hat, und dann sinkt die Glaubwürdigkeit automatisch

    • Auch das Bild wirkt AI-generiert oder zumindest wie unpassende Clipart

  • Ich habe 15 Jahre in der Adtech-Branche gearbeitet, und ich finde, dass auch große Unternehmen wie Google/FB Nutzer täuschen. Sie erlauben kein doppeltes Tracking und verlangen, dass man ihren Zahlen vertraut, und wenn man sich Klick-IP-Adressen anschaut, tauchen dort oft IPs von FB-/Google-Rechenzentren auf. Der Traffic von dort ist im Grunde auch nur eine Methode, bei der per Algorithmus Nutzer, die ohnehin auf meiner Seite gekauft hätten, der eigenen Anzeigenleistung zugeschrieben werden. Es gibt einige wenige Unternehmen, die versuchen, Impact-Metriken ordentlich zu messen, aber das sind wirklich nur sehr wenige. Websites, die Werbung ausspielen, nerven am Ende nur ihre Nutzer und haben keinen Nutzen davon. Werbetreibende geben nur Geld aus und bekommen nichts davon. Am Ende profitieren nur die Zwischenhändler

    • Werbung bei Google zu schalten ist so, als würde ich jemandem dafür Geld geben, vor meinem Laden Flugblätter zu verteilen. Die meisten meiner Besucher kommen vielleicht mit einem Google-Flugblatt, aber wie viele davon wirklich neue Kunden sind, weiß ich nicht

    • Facebook Ads und SA360 unterstützen 3rd-Party-Tracking, und man kann verschiedenste Third-Party-Analysetools verwenden. Dass IPs als FB-/Google-Rechenzentren auftauchen, klingt viel zu simpel, und so etwas habe ich noch nie gehört. Haben Großunternehmen denn keine VPNs? Und die Logik, dass „algorithmenbasiert organischer Traffic gestohlen wird“, verstehe ich nicht. Ich bin auch seit über 10 Jahren in der Branche, aber diese Aussage erscheint mir nicht plausibel. Selbst nach 15 Jahren kann man die Branche und die Technik offenbar nicht besonders gut verstehen

  • Ich dachte, in der Branche sei längst allgemein bekannt, dass Traffic-Zahlen größtenteils Fiktion sind und mehr als die Hälfte der Ad-Click-Daten Betrug ist. Deshalb wirkt es wenig realistisch, dass der OP, der mit „präziser Werbekostenanalyse“ wirbt, das erst jetzt bemerkt haben will. Dieser Teil ist nicht neu, deshalb klingt es merkwürdig, dass OP das angeblich zum ersten Mal entdeckt hat. Andererseits war der Teil, in dem verschiedene Bot-Muster klassifiziert wurden, interessant, und darüber habe ich bisher keinen ähnlich detaillierten Text gesehen

    • Manche Leute in der Branche wissen das schon lange, aber die Lage wird immer schlimmer. Meine Theorie aus der Zusammenarbeit mit Marketing-Teams in den letzten zehn Jahren ist, dass die meisten Zahlen völlig unkritisch geglaubt werden. Vor allem, weil Teams nur überleben, wenn ihre Metriken jedes Jahr exponentiell wachsen. Aufgeblähte Zahlen sind in so einem System eher etwas Gutes, und wenn nichts verkauft wird, schiebt man die Schuld einfach dem Vertrieb zu

    • Auch in meinem vorherigen Startup haben wir enorme Marketing- und Entwicklungsressourcen in die Optimierung des Conversion-Funnels gesteckt, obwohl die eigentliche Geschäftsrichtung falsch war. Hätten wir uns nicht von nutzlosem Datenrauschen ablenken lassen, hätten wir vielleicht schneller umsteuern können

    • Dieses Problem ist in der Branche seit über 10 Jahren bekannt. Zum Teil ist das hier einfach Marketing-Content von datacops

    • Manche reagieren mit „Wie kann es sein, dass OP das erst jetzt merkt!?“, aber dieses Unternehmen (Datacops) scheint noch nicht lange zu existieren. Es wirkt tatsächlich so, als hätten sie passend zum Produktlaunch einen Artikel zu diesem Thema veröffentlicht. Referenz

    • Bei 50.000 Traffic und 47 Conversions habe ich eher das Gefühl, dass der Fake-Anteil noch viel höher geworden ist. Früher war vielleicht die Hälfte Betrug, heute wirkt es eher so, als wären echte Nutzer nur noch eine winzige Minderheit

  • Wenn man Facebook-Werbung schaltet und dann von Betrugs-Traffic überschwemmt wird, frage ich mich, wer diese Bots eigentlich warum betreibt. Facebook hätte zwar ein mögliches Motiv, aber wenn sie dabei erwischt würden, wäre das verheerend, also glaube ich kaum, dass sie sich so etwas trauen würden. Konkurrenten? Um mein Budget zu verbrennen, erscheint das technisch viel zu aufwendig, und ob wirklich jemand dafür eine dubiose Gruppe anheuert, bezweifle ich auch. Werbeagenturen? Wenn die Daten komplett kaputt sind, würden sofort Rückforderungen bei den Werbekosten kommen, also erscheint das auch wenig plausibel. Also wer genau und mit welchem Ziel?

    • Vermutlich sind es einfach Bots, die darauf trainiert werden, wie echte Menschen zu wirken. Sie klicken nicht gezielt nur auf meine Anzeigen, sondern simulieren möglicherweise wahllos echtes Nutzerverhalten

    • Bei Facebook Ads gibt es Modelle, bei denen nicht pro Klick, sondern pro tatsächlichem Verkauf oder pro Conversion gezahlt wird, dort ist die Interessenlage klarer

    • Ich würde empfehlen, nach dem methbot-Fall zu suchen. Meist geht es darum, Werbeerlöse abzuschöpfen: Man betreibt Bots, um Algorithmen zu täuschen, leitet Traffic auf eigene Inhalte oder Seiten und erzeugt dann durch das Vorspielen echter Nutzer zusätzliche Werbebudgets. Strukturell ist es für FB/Google sehr schwer, so etwas vollständig herauszufiltern

    • Viele sagen „Facebook würde so etwas doch niemals tun“, aber historisch gesehen war es immer töricht, bei solchen Berechnungen einfach „dem Unternehmen zu vertrauen“. Das gilt als allgemeine Regel für alle Unternehmen. Wenn der erwartete Gewinn größer ist als Kosten plus Entdeckungsrisiko, wird gehandelt

    • Es muss nicht Facebook selbst sein, und solange Werbekunden weiter Anzeigen kaufen, haben sie auch kaum einen Anreiz, sich ernsthaft darum zu kümmern

  • Ich wünschte, das Skript wäre veröffentlicht worden. Ich würde gern prüfen, ob die Methode sauber ist oder ob vielleicht normale Nutzer mit Adblocker oder deaktiviertem JavaScript fälschlich als Bots klassifiziert wurden. 73 % überraschen mich nicht. Ich würde eher noch mehr erwarten. Beeindruckend war für mich der Punkt, dass sich der Ton bei den Vertriebsteams der Ad-Plattformen schlagartig in starres Corporate-Sprech verwandelt, sobald man Bots oder Klickbetrug anspricht. Ich erinnere mich noch daran, dass ein Vertriebsmitarbeiter, den ich gut kannte, off the record zugab: „Wir wissen das alle. Wirklich alle. Aber wenn wir alles sauber herausfiltern würden, bräche der Umsatz über Nacht um 40 % ein, und die Investoren würden ausrasten.“

    • Wenn Marketing-Verantwortliche anhand von Vanity-Metriken incentiviert werden, betrachten sie Conversion-Probleme nur als etwas, das irgendwo weiter hinten im Funnel passiert. Selbst Venture-Startups haben ganz klar einen Anreiz, Bot-Signups bewusst laufen zu lassen, um Investoren aufgeblähte Zahlen zu zeigen

    • Wenn man Aussagen hört wie „Wenn wir sauber filtern, verschwinden 40 % des Umsatzes“, denkt man unweigerlich an mögliche Sammelklagen

  • Als ich Anfang der 2000er im Ad-Operations-Team von Lycos gearbeitet habe, sah ich bereits interne Audit-Ergebnisse, nach denen der Bot-Anteil zwischen 25 % und 75 % lag. Schon damals wollte man das stoppen, aber ohne Erfolg, und heute ist es immer noch so. Online-Werbung ist größtenteils Geldverschwendung. Sie wirkt zwar, als würde sie wirtschaftliche Aktivität erzeugen, in Wirklichkeit verschwendet sie aber Zeit und Ressourcen

    • Werbung war schon immer größtenteils Geldverschwendung, und das Problem war immer nur herauszufinden, welcher Teil funktioniert. Internetwerbung versprach präziseres Targeting und bessere Messbarkeit, aber in der Praxis klappt das oft nicht. Um Werbewirkung zu verstehen, muss man Kunden direkt fragen, wie sie auf einen aufmerksam geworden sind, und Veränderungen beobachten, während man Werbebudgets anpasst. Das dauert aber lange, und daneben gibt es noch viele andere Fehlerquellen. Zum Beispiel kann man massiv Werbung schalten und dadurch Traffic bekommen, aber Kunden trotzdem verlieren, weil Service oder Angebot nicht mithalten. Oder eine Coupon-Kampagne bringt so viel Zulauf, dass man ihn gar nicht bewältigen kann. Im Artikel ist von 50.000 Besuchern, 47 Verkäufen und 4.000 Dollar Werbekosten die Rede, aber es ist unklar, ob das der gesamte Traffic oder nur Ad-Traffic ist. Man sollte Performance nicht nur nach Besuchern oder Verkäufen beurteilen, sondern anhand grundlegender Kennzahlen wie dem Nettogewinn. Wenn pro Verkauf 500 Dollar Nettogewinn übrig bleiben, dann sind 47 Verkäufe bei 4.000 Dollar Werbekosten okay. Wenn es aber nur 1 Dollar Gewinn pro Verkauf ist, dann ist das ein großes Problem
  • Da keine konkreten Abwehrmaßnahmen gegen Bots erwähnt wurden, würde ich noch ergänzen: Wenn man Bot-Schutz verstärkt (CAPTCHAs usw.), steigt die Abwanderung echter Nutzer stark an. Das wirkt sich sehr negativ auf die Conversion-Rate aus. Je mehr Bots sich wie Menschen verhalten, desto eher sollte man das Problem in der Analyse- und Attributionsebene lösen und nicht durch Verschlechterung der Usability

    • Es gibt zwei Arten von Bots. Solche, die die Website direkt belasten wie bei DDoS, und solche, die das nicht tun, aber lästig sind. Die zweite Kategorie blockiert man am besten gar nicht, sondern schließt sie einfach still aus den Analysetools aus
  • Unten ist ein echter Fall, den ich erlebt habe

    Nach der Einführung fortgeschrittener Bot-Traffic-Filterung sank der gemeldete Traffic um 71 %
    Aber im Umsatzbericht stieg der tatsächliche Umsatz stattdessen um 34 %
    Conversion-Rate-Optimierung (CRO) hatte ursprünglich funktioniert, war aber unter einer Masse gefälschter Klicks begraben und behindert worden
    Das Problem war nicht, dass sie schlechtes Marketing gemacht hätten, sondern dass sie ihr Werbebudget schlicht an Roboter verschwendet hatten
    Über Nacht wandelte sich der Marketing-ROI von „katastrophal“ zu „erstklassig“
    

    Was mich aber interessiert: Wie führt so ein Bot-Filtering dann direkt zu niedrigeren Werbeausgaben? Kann man Google Ads zum Beispiel direkt sagen: „Für diese Klicks will ich nicht bezahlen“? Oder wurde das Targeting selbst so geändert, dass Bots eher vermieden werden?

    • Ich könnte mir vorstellen, dass durch das Blockieren von Bot-Traffic Retargeting wieder präzise auf echte Menschen ausgerichtet wird und dadurch die Conversions steigen

    • Vermutlich bedeutet das Filtern, dass bei der Einschätzung „Das ist ein Bot“ die Anzeige gar nicht erst ausgeliefert wird

    • Wenn Bots beim Erstellen von Lookalikes oder Remarketing-Audiences enthalten sind, sendet das falsche Signale an Plattformen wie Facebook. Und bei Google Ads kann man nicht einfach sagen, dass man für bestimmte Klicks nicht zahlen will

  • Ich habe früher schon einmal einen ähnlichen Artikel gesehen, der im Kern behauptete: „Der Markt für Webwerbung ist in Wahrheit fast komplett fake/Betrug/Bots, und alle Unternehmen und die gesamte Branche halten ihn aufrecht, indem sie das ignorieren.“ Viele Berufe, Unternehmen und ganze Branchen hängen davon ab, diese Realität nicht anzuerkennen

    • Ich erinnere mich auch an diesen Artikel. Zuerst dachte ich, das hier sei bloß eine Neuauflage davon, aber als ich auf das Datum geschaut habe, sah ich, dass es ein neuer Artikel ist. Vielleicht ist es eine unerwartete Spiegelung (Mandela-Effekt)