12 Punkte von GN⁺ 2025-10-12 | 2 Kommentare | Auf WhatsApp teilen
  • Im 5-GHz-Band liefert eine schmale Kanalbreite von 20/40 MHz die beste Nutzererfahrung, doch Consumer-Produkte verwenden standardmäßig breite Kanalbreiten von 80 MHz oder mehr und verursachen dadurch Interferenzen und höhere Latenz
  • Da Verbraucher höhere Geschwindigkeiten bevorzugen, halten Hersteller und ISPs an breiten Kanälen fest, weil sie bei schmaleren Kanälen schlechtere Benchmark-Platzierungen befürchten
  • Schon das Durchführen eines Wi‑Fi-Geschwindigkeitstests verbraucht gemeinsam genutzte Bandbreite im Netzwerk und führt zu geringerer Reaktionsfähigkeit; andere Geräte im Netzwerk erleben Latenz und Paketverlust
  • Das IEEE mit dem nächsten Standard Wi‑Fi 8 (802.11bn) zielt eher auf bessere Zuverlässigkeit und Reaktionsfähigkeit als auf Geschwindigkeit, doch die Standardisierung dürfte erst 2028 abgeschlossen sein
  • Bereits durch Konfigurationsänderungen bei heute eingesetzter Hardware sind erhebliche Verbesserungen möglich

Die Bedeutung schmaler Kanalbreiten

  • Unternehmensnetzwerke nutzen Kanalbreiten von 20 MHz bis 40 MHz, um große Flächen und viele verbundene Geräte zu unterstützen
    • So stehen mehr Kanäle zur Verfügung und Co-Channel-Interference kann vermieden werden
  • Auch bei Wi‑Fi in Wohnungen und kleinen Unternehmen unterscheidet sich die Lage kaum von Unternehmensumgebungen: Der durchschnittliche US-Haushalt besitzt 21 Wi‑Fi-Geräte
    • Viele Haushalte benötigen für eine effektive Abdeckung mehrere Mesh-Nodes oder Access Points
  • Dennoch verwenden Heimrouter oder ISP-Geräte standardmäßig oft 80 MHz oder mehr und belegen damit zwei Drittel des gesamten Bands
    • Manche 2,4-GHz-Geräte erlauben nur 40 MHz, sodass Nutzer die Breite nicht einmal reduzieren können

Das Problem der „Geschwindigkeitsfixierung“

  • Der Grund für diese Einstellungen ist, dass Verbraucher Wi‑Fi-Qualität mit Geschwindigkeit gleichsetzen und andere Faktoren kaum berücksichtigen
    • Statt auf wichtigere Maßstäbe der Internetnutzung wie Reaktionsfähigkeit und Zuverlässigkeit konzentrieren sie sich nur auf Geschwindigkeit
  • Hersteller und ISPs achten stark auf Ergebnisse in Geschwindigkeitstests und belassen deshalb die Standardeinstellung bei breiten Kanälen
    • Mit schmaleren Kanälen verbessert sich zwar die tatsächlich wahrgenommene Qualität, aber die gemessene Geschwindigkeit fällt niedriger aus, was höhere Rückgabequoten befürchten lässt
  • Dadurch bleibt eine Struktur bestehen, die maximalen Durchsatz über Reaktionsfähigkeit und Stabilität stellt

Der Bumerangeffekt von Geschwindigkeitstests

  • Wi‑Fi basiert auf gemeinsam genutzter Airtime (airtime contention), daher kann immer nur ein Gerät gleichzeitig senden
    • Führt ein Gerät also einen Geschwindigkeitstest aus, steigen bei anderen Geräten die Latenz und der Paketverlust
  • Experimente zeigen, dass in demselben Netzwerk Latenz, Jitter und Paketverlust ansteigen, wenn ein anderes Gerät einen Geschwindigkeitstest durchführt
    • Wird derselbe Test über eine kabelgebundene Verbindung (Ethernet) ausgeführt, tritt dieser Effekt nicht auf
  • Bei den meisten Consumer-Geräten ist die Minderung von Buffer Bloat deaktiviert, was die Situation zusätzlich verschärft
  • Geschwindigkeitstest-Tools oder automatisierte Systeme zur Geschwindigkeitsmessung sind selbst eine Hauptursache für eine schlechtere wahrgenommene Qualität

IEEE 802.11bn (Wi‑Fi 8): Ein neuer Ansatz mit Fokus auf Reaktionsfähigkeit und Zuverlässigkeit

  • 68 % der US-Haushalte haben im vergangenen Jahr Wi‑Fi-Probleme erlebt
  • Der IEEE-Standard Wi‑Fi 8 (802.11bn) löst sich vom bisherigen Primat der Geschwindigkeit
    • Ziele sind Zuverlässigkeit, niedrige Latenz (gemessen am 95. Perzentil), minimierter Paketverlust und Robustheit in Umgebungen mit Interferenzen
    • Allerdings wird der Standard voraussichtlich erst 2028 endgültig festgelegt
  • Das von Wi‑Fi 6E und 7 genutzte 6-GHz-Band bietet zwar breitere Kanäle,
    • doch die Verbreitung entsprechender Geräte ist gering und das grundlegende Problem gemeinsam genutzter Kanäle wird dadurch nicht gelöst

Lösungen und Vorschläge

  • Es besteht kein Grund, auf eine breite Einführung von Wi‑Fi 6E und 7 oder auf die noch nicht eingelösten Versprechen von Wi‑Fi 8 zu warten
    • Schon durch Konfigurationsänderungen an vorhandener Hardware lässt sich eine deutlich bessere Leistung erzielen
    • Man muss lediglich aufhören, nur maximalen Durchsatz anzustreben, und sich auf Reaktionsfähigkeit und Zuverlässigkeit von Wi‑Fi konzentrieren
  • Geschwindigkeitstests sind nützliche Werkzeuge, doch übermäßige Abhängigkeit davon verschlechtert die Qualität eher
  • Verbraucher wollen in Wirklichkeit schnelle Reaktionszeiten und Stabilität, doch es fehlen Werkzeuge und Daten, um das zu messen
  • Hersteller und ISPs sollten neue Messgrößen einführen und eine konsistente Netzwerkerfahrung (Responsiveness & Reliability) hervorheben
  • Selbst mit bestehender Hardware lässt sich durch einfache Konfigurationsänderungen eine stabilere Wi‑Fi-Umgebung schaffen

2 Kommentare

 
GN⁺ 2025-10-12
Hacker-News-Kommentare
  • Experimente mit einem UniFi-Hub haben gezeigt, dass es ideal wäre, jedem Gerät einen eigenen WiFi-Kanal zu geben. Bei starker Interferenz liefert das deutlich bessere Ergebnisse, selbst in Umgebungen, in denen die Performance sonst einbricht, wenn Kanäle nicht kollidieren. Außerdem ist der beste Weg, die Funkumgebung schneller zu machen, WiFi nach Möglichkeit insgesamt weniger zu nutzen. Wenn man nicht mobile Geräte wie Fernseher direkt per Ethernet verbindet, lassen sich Überlastung und Geschwindigkeitsverluste im WiFi effektiv reduzieren.

    • Idealerweise sollte jedes Gerät außer Smartphones oder Laptops, die nicht fest am Schreibtisch stehen, per Ethernet angebunden werden. Als 2020 Videokonferenzen stark zunahmen, wurde im Haus direkt Ethernet verlegt, was die Nutzbarkeit deutlich verbessert hat.

    • IoT-Geräte verwenden oft langsame WiFi-Chipsätze und alte Standards, daher ist es effektiv, sie in einer separaten 2,4-GHz-SSID zu bündeln. So beeinträchtigen alte und langsame Geräte nicht die gute 5-GHz-Erfahrung. Wenn man zusätzlich weitere Access Points installiert und einen kabelgebundenen Backhaul nutzt, können sich Geräte effizient mit dem nächstgelegenen AP verbinden, wodurch WiFi deutlich stabiler wird. Nachdem alle unbeweglichen Geräte im Haus verkabelt und das Setup angepasst wurden, hat sich die Funkqualität stark verbessert.

    • Auch iPhone/iPad lassen sich über Ethernet-Adapter anschließen, was bei großen Downloads deutlich schneller ist. Leider unterstützen viele Consumer-Elektronikprodukte keine kabelgebundene Verbindung. In dicht besiedelten Stadtwohnungen ist Funk wirklich die schlechtere Wahl, und es ist außerdem lästig, dass manche Geräte unnötig Geräte aus benachbarten Netzwerken anzeigen oder WiFi nicht sauber deaktivieren.

    • Inaktive Wi-Fi-Clients ohne Netzwerkverkehr beeinflussen die Qualität kaum. Problematisch sind in der Praxis eher Geräte, die aktiv genutzt werden oder viel Hintergrundverkehr erzeugen, etwa Smart-TVs. In IoT-Netzwerken wird bei den meisten Geräten der Internetzugang blockiert, um Hintergrundverkehr zu reduzieren. Allgemein lassen sich die meisten WiFi-Probleme schon deutlich verbessern, wenn man die AP-Abdeckung erweitert, kabelgebundenen Backhaul nutzt und auf gute Hardware wechselt, etwa Ubiquiti/UniFi. Bei Mesh-WiFi wird ein 6-GHz-Backhaul empfohlen, allerdings auf Kosten der Reichweite.

    • Kabelverlegung ist die aktivste und wirkungsvollste Lösung. Wenn WiFi jedoch intensiv genutzt werden muss, lässt sich das Setup auch mit mehreren APs samt dediziertem Backhaul optimieren. Auf diese Weise wurde bereits ein Netz mit über 60 Geräten aufgebaut, das komfortables Roaming und hohe Geschwindigkeiten bietet. Die Basis war UniFi, aber auch Eero-PoE-Hardware liefert ähnlich gute Leistung.

  • Eine Ursache für schlechtes WiFi ist die WiFi-Direct-Funktion von Druckern wie denen von HP. Wenn man in der Nähe nach Signalen scannt, senden oft mehr als fünf Nachbardrucker stark hinein. In großen Gebäuden sind praktisch nur die 6-GHz-Kanäle von WiFi 6e sinnvoll nutzbar.

  • Aus dem Artikel wird nicht ganz klar, was man konkret umsetzen soll. Ist gemeint, zu Hause die Kanalbreite zu reduzieren? Damit das wirklich etwas bringt, müsste man vermutlich ziemlich viele WAPs einsetzen. In Wohnungen erscheint eher die Empfehlung realistisch, die TX-Leistung zu senken. Aber nicht alle werden das tun, und am Ende bleibt es am sinnvollsten, innerhalb der gesetzlichen Grenzwerte zu bleiben. Geräte mit hohem Leistungsbedarf sollten ohnehin verkabelt werden. Wenn man Zeit in WiFi-Optimierung investieren will, ist wiisfi.com tatsächlich eine sehr gute Quelle.

    • Der Kernpunkt ist, die 5-GHz-Kanalbreite auf 40Mhz zu reduzieren und 2,4GHz bei 20MHz zu belassen, weil das die Zuverlässigkeit erhöht. Es wäre für alle Nutzer hilfreich, wenn Hersteller diese Defaults sauber setzen würden, denn bei Heimroutern sind die voreingestellten Kanalbreiten meist zu groß. Wenn man in der eigenen Umgebung keine Probleme hat, muss man natürlich nichts ändern.

    • Mit solchen Einstellungen sollte man sich nur beschäftigen, wenn tatsächlich Probleme auftreten. In den meisten Fällen sind die Ressourcen moderner WiFi-Netze so großzügig, dass man kaum einen Unterschied merkt. Allenfalls bei sehr großen Dateiübertragungen wird es etwas langsamer, und dafür würde ich nicht extra zusätzliche Verkabelung einziehen.

    • 40MHz bei 2,4GHz zu verwenden bedeutet, dass man die Hälfte aller verfügbaren Kanäle belegt. Der Schaden durch Kanalverschmutzung kann dann größer sein als der Geschwindigkeitsgewinn. Wenn in der Umgebung zusätzlich Geräte wahllos Kanal 8 oder 9 nutzen, wird bald auch der Rest des Bands verschmutzt, sodass selbst IoT-Geräte kaum noch ein Signal bekommen. Mit sauber platzierten 20MHz können mehr als 70Mbps möglich sein, während es sonst auf 30Mbps absacken kann. Bei gemeinsamer Nutzung wird es teils so schlimm, dass man für FaceTime 5GHz erzwingen oder WiFi ganz abschalten muss.

    • Ich hatte ebenfalls häufige Verbindungsabbrüche im Schlafzimmer bei 80MHz auf 5GHz. Heute habe ich direkt auf 20MHz reduziert, und das Signal-Rausch-Verhältnis ist um etwa 5dB gestiegen, sodass die Verbindung im Schlafzimmer wieder nutzbar ist. Es gibt etwas mehr Latenz, aber der Effekt ist deutlich spürbar.

    • Das empfohlene Material ist wirklich hilfreich; ich wünschte, ich hätte es früher gekannt.

  • Das ist eine gute Erinnerung daran, dass die jüngere WiFi-Optimierung eher auf einen „Wettlauf der Geschwindigkeitsdaten“ als auf echte Nutzererfahrung ausgerichtet war. Das erinnert an den früheren „Megapixel-Krieg“ bei Digitalkameras. Im Alltag zählen eigentlich Reaktionsfähigkeit und Zuverlässigkeit, aber solche Werte sind schwer zu quantifizieren und stehen schon gar nicht auf der Verpackung. Ironischerweise können Geschwindigkeitstests selbst die Netzwerkleistung verschlechtern. Ob Router-Hersteller und ISPs künftig statt reiner Geschwindigkeit eher erfahrungsnahe Kennzahlen wie Reaktionsfähigkeit anbieten werden, ist offen. Letztlich ist es ein kulturelles Problem im Netzwerkbereich: Die Branche hat sich zu sehr auf beeindruckende Zahlen fixiert statt auf eine bessere Nutzungserfahrung.

    • Ich frage mich, wie sich reale Geschwindigkeiten auf die Nutzung und Optimierung der Wireless-„Airtime“ auswirken und wie sich diese Beziehung bei niedrigen PHY-Raten verändert.
  • Apple schlägt einen Ansatz vor, der nicht nur die reine Geschwindigkeit misst, sondern die Netzwerkqualität genauer bewertet. Die Spezifikation heißt network-quality/goresponsiveness, und auf neueren Macs ist das CLI-Tool networkQuality integriert. Es misst „Round Trips per Minute“ im Leerlauf und unter Last. Damit lässt sich die tatsächlich empfundene Internetqualität, also schnelle Reaktionsfähigkeit und unmittelbare Antworten, besser vorhersagen als mit einem klassischen Speedtest.

  • Weil die leicht messbare „Geschwindigkeit“ so viel Aufmerksamkeit bekommt, fixieren sich am Ende alle Beteiligten nur darauf. Nach vielen Jahren im Netzwerkbereich ist mein Eindruck, dass Nutzer fast jedes Problem als Geschwindigkeitsproblem wahrnehmen, obwohl es ab einem gewissen Niveau oft eher um psychologische Zufriedenheit geht.

  • Auch in der IEEE-802.11bn-Arbeitsgruppe (Wi-Fi 8) werden die Ziele der Spezifikation neu definiert: nicht nur höhere Geschwindigkeit, sondern Zuverlässigkeit, geringe Latenz, insbesondere beim 95. Perzentil, weniger Paketverlust und bessere Robustheit gegenüber Interferenz und Mobilität. Allerdings zeigt die Branchenerfahrung, dass neue Funktionen nicht in jeder Generation sofort richtig umgesetzt werden. Kernfunktionen von WiFi 6 laufen oft erst mit WiFi 7 wirklich sauber, und WiFi-7-Funktionen entfalten sich dann erst mit WiFi 8 richtig. Mit anderen Worten: Eine Generation später werden die eingeführten Features oft erst stabil. Trotzdem erreicht heutiges WiFi real längst mehr als 1Gbps, teils über 2,5Gbps, und verbessert sich bei Zuverlässigkeit und Effizienz Jahr für Jahr deutlich.

  • Es heißt, viele ISPs, Gerätehersteller und Verbraucher führen regelmäßig automatisierte Speedtests aus. Dass das der gesamten Internet-Erfahrung für Verbraucher tatsächlich schaden könnte, überrascht mich. Ich frage mich, warum absichtlich mehr Last erzeugt wird als nötig.

    • Ein Beispiel ist SamKnows, ein Unternehmen, das Leistungsdaten aus Millionen Haushalten sammelt und kürzlich von Cisco übernommen wurde. Passender Artikel: Cisco kündigt Übernahme von SamKnows an

    • Die meisten ISPs führen solche Speedtests nur im eigenen internen Netz aus, wodurch die reale Verkehrslast kaum beeinflusst wird. Das liegt auch daran, dass sich die Zahlen so nur mit internem Traffic schöner darstellen lassen und keine externen Leitungen belastet werden. Ein Netzbetreiber meines ISP hat mir dieses Prinzip einmal erklärt.

    • Schon Leute, die überhaupt wissen, was ein Speedtest ist, sind selten, und ich glaube kaum, dass die meisten Verbraucher in der Lage wären, so etwas automatisiert laufen zu lassen.

  • Der frustrierendste Teil an WiFi ist für mich das Roaming. Mein Haus hat dicke Wände, teils bis zu 120 cm, sodass praktisch in jedem Raum ein AP nötig ist. Trotz vieler Optimierungsversuche habe ich bis heute kein wirklich nahtloses Roaming erlebt. Seit dem Wechsel auf TP-Link-Omada-Hardware ist es zwar besser als vorher, aber immer noch nicht auf dem Niveau eines DECT-Schnurlostelefons. Wenn ich zum Beispiel im Zimmer Twitch schaue und in die Küche gehe, friert die Wiedergabe mit etwa 30% Wahrscheinlichkeit ein; im schlimmsten Fall muss ich WiFi aus- und wieder einschalten, damit der Wechsel klappt. Ich habe alle Tipps zu Kanälen und Überlappung ausprobiert, aber völlig fehlerfrei ist es noch nicht.

    • DECT-Schnurlostelefone nutzen das 1,9-GHz-Band, das im Vergleich zu 2,4-GHz-WiFi weniger Signalverlust durch Wasser hat und viele Materialien besser durchdringt. Oft entstehen Probleme aber auch dadurch, dass Leute WiFi-Repeater falsch platzieren oder billige Geräte ohne mehrere Radios verwenden. Wenn Repeater oder Mesh-Geräte nur ein einziges Radio haben, halbiert sich die Geschwindigkeit mit jedem Hop. Aus Sicht eines ISP ist es oft schwierig, Kunden verständlich zu machen, dass sie beim Heim-WLAN sparen und genau daraus dann die Probleme entstehen.

    • Ich wohne ebenfalls in einem Gebäude mit ähnlicher Struktur und kenne die Schwierigkeiten gut. Ich konnte das Problem fast vollständig lösen, indem ich die APs per kabelgebundenem Backhaul verbunden, Kanalüberlappungen vermieden, 2,4GHz auf 20MHz und 5GHz auf 40MHz begrenzt, bei 2,4GHz strikt nur die Kanäle 1, 6 und 11 genutzt, DFS-Kanäle auf 5GHz vermieden und bei Bedarf die Sendeleistung pro AP reduziert habe, damit sich weiter entfernte Zellen nicht überlappen. Je nach Bedarf kann man 2,4GHz auf manchen APs auch ganz abschalten.

    • Ich nutze für die meisten Gespräche ein DECT-VoIP-Telefon und bin damit zufrieden.

  • Der nächste WiFi-Standard 802.11bn (WiFi 8) trägt den Beinamen Ultra High Reliability (UHR). Referenzlink: 802.11bn Wikipedia. Es zeigt sich also ein Trend, künftig auch Variablen jenseits der Geschwindigkeit stärker zu berücksichtigen.

    • Selbst wenn WiFi sich weiter verbessert, bleibt Funk ein geteiltes Medium. Anders als bei Ethernet kann nicht jedem Paar unabhängig die volle Bandbreite zugewiesen und anschließend beliebig wiederverwendet werden. Verglichen mit der Zuverlässigkeit von Ethernet hat Funk daher prinzipbedingt Grenzen bei der Stabilität.
 
galadbran 2025-10-12

Ich nutze KT Giga Wi-Fi; der Kanalbandbreite war auf 80 MHz eingestellt, und als ich sie testweise auf 40 MHz umgestellt und die Ergebnisse von networkQuality unter macOS verglichen habe, ist bei mir bei 40 sowohl die Responsiveness als auch die Leistung deutlich eingebrochen.