Die Übertragungsrate – also die Geschwindigkeit, mit der Daten über ein Netzwerk übertragen werden können – ist ein zentraler Leistungsparameter in der Netzwerktechnik. In unserem zunehmend vernetzten Alltag und bei der fortschreitenden Digitalisierung von Unternehmen wachsen die Anforderungen an die Datenübertragungskapazität kontinuierlich. Das Verständnis der Übertragungsraten und ihrer Limitierungen ist daher für IT-Fachleute essenziell, um realistische Einschätzungen vornehmen, Engpässe identifizieren und optimale Lösungen entwickeln zu können.
Dieses Kapitel behandelt sowohl die theoretischen Grundlagen als auch die praktischen Aspekte von Datenübertragungsraten. Wir untersuchen die physikalischen und technischen Faktoren, die die maximale Übertragungsrate begrenzen, und betrachten, wie diese Grenzen in der Praxis durch verschiedene Technologien und Methoden angenähert werden können. Zudem werden wir die Unterschiede zwischen theoretischen und tatsächlich erreichbaren Übertragungsraten sowie die Messung und Optimierung von Netzwerkleistung diskutieren.
Bevor wir uns mit den Limitierungen beschäftigen, ist es wichtig, ein klares Verständnis der grundlegenden Konzepte und Messgrößen zu entwickeln.
Bit vs. Byte: Die kleinste Informationseinheit im digitalen Bereich ist das Bit (binary digit), das entweder den Wert 0 oder 1 annehmen kann. Ein Byte besteht aus 8 Bits und kann 256 verschiedene Zustände darstellen.
Datenraten-Bezeichnungen:
Zur Angabe von Dateigrößen oder Speicherkapazitäten werden dagegen häufig Byte-basierte Einheiten verwendet:
Hinweis: In der Computertechnik werden manchmal auch binäre Präfixe verwendet, bei denen 1 KiB (Kibibyte) = 1.024 Bytes, 1 MiB (Mebibyte) = 1.024 KiB usw. sind. Die Unterscheidung zwischen dezimalen und binären Präfixen sollte man im Hinterkopf behalten, insbesondere wenn es um präzise Kapazitätsangaben geht.
Es ist wichtig, zwischen der Signalrate (Baudrate) und der Datenrate zu unterscheiden:
Signalrate (Baudrate): Die Anzahl der Signaländerungen pro Sekunde. Gemessen in Baud.
Datenrate: Die Anzahl der Datenbits, die pro Sekunde übertragen werden. Gemessen in bps.
Bei einfachen binären Modulationsverfahren, bei denen jede Signaländerung genau ein Bit repräsentiert, sind Signalrate und Datenrate identisch (1 Baud = 1 bps). Bei komplexeren Modulationsverfahren können jedoch mehrere Bits pro Signaländerung übertragen werden, wodurch die Datenrate höher ist als die Signalrate:
Datenrate (bps) = Signalrate (Baud) × Anzahl der Bits pro Symbol
Beispielsweise kann ein 8-QAM-Modulationsverfahren (Quadrature Amplitude Modulation) 3 Bits pro Symbol übertragen, sodass bei einer Signalrate von 1.000 Baud eine Datenrate von 3.000 bps erreicht werden kann.
Bei der Betrachtung von Übertragungsraten ist die Unterscheidung zwischen Brutto- und Nettoraten wesentlich:
Brutto-Datenrate: Die gesamte Übertragungskapazität eines Kanals, einschließlich aller Protokoll-Overheads, Prüfsummen, Fehlerkorrekturdaten usw.
Netto-Datenrate: Die tatsächlich für Nutzdaten verfügbare Übertragungskapazität nach Abzug aller Protokoll-Overheads.
Das Verhältnis zwischen Netto- und Brutto-Datenrate wird als Effizienz bezeichnet und variiert je nach Protokoll und Anwendungsfall erheblich, typischerweise zwischen 30% und 90%.
Die maximale Übertragungsrate eines Kommunikationssystems wird durch verschiedene fundamentale physikalische und informationstheoretische Grenzen bestimmt.
Das Shannon-Hartley-Theorem ist ein grundlegendes Gesetz der Informationstheorie, das die theoretische maximale Informationsrate (Kanalkapazität) eines Übertragungskanals in Abhängigkeit von Bandbreite und Signal-Rausch-Verhältnis beschreibt:
C = B × log₂(1 + S/N)
Dabei ist: - C: Kanalkapazität in Bits pro Sekunde (bps) - B: Bandbreite des Kanals in Hertz (Hz) - S/N: Signal-Rausch-Verhältnis (SNR) als dimensionslose Zahl (nicht in dB)
Dieses Theorem hat mehrere wichtige Implikationen:
Beispiel: Ein Kanal mit einer Bandbreite von 10 MHz und einem SNR von 30 dB (entspricht einem Faktor von 1.000) hat eine theoretische Kanalkapazität von: C = 10 MHz × log₂(1 + 1.000) ≈ 10 MHz × 10 bits/Symbol ≈ 100 Mbps
Das Nyquist-Theorem betrachtet die maximale Datenrate in einem rauschfreien Kanal:
C = 2 × B × log₂(M)
Wobei: - C: Maximale Datenrate in bps - B: Bandbreite in Hz - M: Anzahl der verschiedenen Signalzustände
In einem perfekten binären System (M = 2) wäre die maximale Datenrate demnach C = 2 × B bps. Bei komplexeren Signalzuständen (z.B. 16-QAM mit M = 16) steigt die theoretische maximale Datenrate.
Die Bandbreite, gemessen in Hertz (Hz), repräsentiert den Frequenzbereich, der für die Signalübertragung genutzt werden kann. Sie ist einer der wichtigsten limitierenden Faktoren für die Übertragungsrate:
Spektrale Effizienz: Gibt an, wie viele Bits pro Sekunde pro Hz Bandbreite übertragen werden können (bps/Hz). Dies ist ein Maß für die Effizienz der Bandbreitennutzung.
Moderne Übertragungstechnologien streben eine hohe spektrale Effizienz an. Beispiele für spektrale Effizienzen verschiedener Technologien:
Der Trend zu höheren Modulationsordnungen (größere M-Werte) erhöht die spektrale Effizienz, erfordert jedoch auch ein besseres Signal-Rausch-Verhältnis und präzisere Hardware.
Latenz ist die Zeit, die ein Signal benötigt, um von einem Punkt zu einem anderen zu gelangen. Obwohl Latenz nicht direkt die Datenrate limitiert, hat sie erheblichen Einfluss auf die gefühlte Leistung eines Netzwerks und auf bestimmte Protokolle:
Komponenten der Latenz: - Ausbreitungsverzögerung: Zeit, die das Signal benötigt, um physisch von A nach B zu gelangen. Limitiert durch die Lichtgeschwindigkeit (ca. 300.000 km/s im Vakuum, etwa 200.000 km/s in Glasfasern). - Übertragungsverzögerung: Zeit, die benötigt wird, um alle Bits einer Nachricht auf das Medium zu setzen. - Verarbeitungsverzögerung: Zeit, die Geräte zur Verarbeitung der Pakete benötigen. - Warteschlangenverzögerung: Zeit, die Pakete in Warteschlangen verbringen.
Round-Trip Time (RTT): Die Zeit für ein Signal, vom Sender zum Empfänger und zurück zu reisen. Besonders relevant für Protokolle, die Bestätigungen erfordern.
Bandbreiten-Verzögerungs-Produkt (BDP): Gibt an, wie viele Daten sich maximal “unterwegs” befinden können:
BDP = Bandbreite × Rundreisezeit
Das BDP ist besonders wichtig für die optimale Konfiguration von Protokollen wie TCP, da es die optimale Fenstergröße beeinflusst.
Die verschiedenen Übertragungsmedien haben jeweils spezifische Eigenschaften und Limitierungen, die ihre maximalen Übertragungsraten begrenzen.
Twisted-Pair-Kabel (TP):
Twisted-Pair-Kabel werden nach Kategorien klassifiziert, die unterschiedliche Leistungsmerkmale aufweisen:
Limitierende Faktoren bei TP-Kabeln sind:
Koaxialkabel:
Koaxialkabel bieten im Vergleich zu TP-Kabeln eine bessere Abschirmung und können höhere Frequenzen übertragen:
Limitierenden Faktoren: - Dämpfung bei hohen Frequenzen - Mechanische Steifheit und größerer Biegeradius - Höhere Kosten im Vergleich zu TP-Kabeln
Glasfaserkabel übertragen Daten mittels Lichtimpulsen und bieten die höchsten Übertragungsraten aller kabelgebundenen Medien:
Multimode-Glasfaser (MMF): - Typische Bandbreiten zwischen 200 MHz×km und 4.700 MHz×km - Übertragungsraten bis zu 100 Gbps über kurze Distanzen (bis etwa 100m) - Limitiert hauptsächlich durch Modendispersion (unterschiedliche Laufzeiten verschiedener Lichtmoden) - Kostengünstigere optische Komponenten (LED-basierte Sender)
Singlemode-Glasfaser (SMF): - Bandbreiten bis in den THz-Bereich - Übertragungsraten von mehreren Terabit pro Sekunde über lange Distanzen - Einsatz von WDM (Wavelength Division Multiplexing) ermöglicht parallele Datenströme - Höhere Kosten für optische Komponenten (Laser-basierte Sender)
Limitierende Faktoren bei Glasfasern: - Chromatische Dispersion: Unterschiedliche Ausbreitungsgeschwindigkeiten verschiedener Wellenlängen - Polarisationsmodendispersion: Unterschiedliche Ausbreitungsgeschwindigkeiten verschiedener Polarisationsrichtungen - Dämpfung: Geringer als bei Kupferkabeln, aber relevant bei sehr langen Strecken - Nichtlineare Effekte: Werden bei sehr hohen Leistungen oder langen Strecken relevant
Drahtlose Übertragungstechnologien bieten Flexibilität, unterliegen jedoch besonderen Einschränkungen:
WLAN (IEEE 802.11): - 802.11n: Bis zu 600 Mbps (theoretisch) - 802.11ac: Bis zu 6,9 Gbps (theoretisch) - 802.11ax (Wi-Fi 6): Bis zu 9,6 Gbps (theoretisch) - 802.11be (Wi-Fi 7): Bis zu 46 Gbps (theoretisch)
Mobilfunknetzwerke: - 4G/LTE: Bis zu 1 Gbps - 5G: Bis zu 20 Gbps unter idealen Bedingungen
Limitierende Faktoren bei drahtlosen Medien: - Begrenzte und regulierte Frequenzspektren: Die verfügbare Bandbreite ist durch regulatorische Vorgaben eingeschränkt - Signaldämpfung und Hindernisse: Wände, Gebäude und andere Objekte schwächen Signale ab - Interferenzen: Andere Sender auf gleichen oder benachbarten Frequenzen - Mehrwegeausbreitung: Signale erreichen den Empfänger auf verschiedenen Wegen und können sich gegenseitig auslöschen oder verstärken - Mobilität: Bewegung kann zu variierenden Signalstärken und Handovers führen - Shared Medium: Alle Nutzer teilen sich die verfügbare Bandbreite
Neben den physikalischen Limitierungen beeinflussen auch die verwendeten Protokolle die erreichbaren Übertragungsraten.
Jedes Netzwerkprotokoll fügt den Nutzdaten zusätzliche Informationen hinzu, die für die Funktionalität des Protokolls notwendig sind, aber die effektive Datenrate reduzieren:
Typische Overhead-Komponenten: - Header und Footer auf verschiedenen Protokollschichten - Prüfsummen zur Fehlererkennung - Sequenznummern zur Sicherstellung der korrekten Reihenfolge - Timing-Informationen - Adressinformationen
Beispiel für Ethernet: Ein minimales Ethernet-Frame benötigt 64 Bytes, wovon nur 46 Bytes für Nutzdaten verwendet werden können. Bei kleinen Paketen kann der Overhead also mehr als 28% der Übertragungskapazität beanspruchen.
Die MTU definiert die maximale Paketgröße, die ein Netzwerkprotokoll verarbeiten kann:
TCP-Flusssteuerung: - Das TCP-Fenster begrenzt, wie viele Daten ohne Bestätigung gesendet werden können - Das TCP-Fensterwachstum (Slow Start, Congestion Avoidance) begrenzt die Übertragungsrate zu Beginn einer Verbindung - Der TCP-Overflow-Mechanismus reduziert die Datenrate bei Paketverlusten
TCP-Handshake: - Verbindungsaufbau erfordert mindestens eine RTT, bevor Daten übertragen werden können - Besonders relevant für kurze Verbindungen und Webseiten mit vielen kleinen Ressourcen
Beispiel: Eine TCP-Verbindung mit einer RTT von 100 ms kann theoretisch maximal 10 Verbindungen pro Sekunde etablieren, was bei vielen parallelen Webressourcen zu einem Engpass werden kann.
Verschiedene Techniken wurden entwickelt, um die protokollbedingten Limitierungen zu reduzieren:
TCP-Optimierungen: - Window Scaling: Erlaubt größere TCP-Fenster für Hochgeschwindigkeitsverbindungen - TCP Fast Open: Ermöglicht Datenübertragung während des Handshakes - Selective Acknowledgments (SACK): Verbessert die Effizienz bei Paketverlusten
Protokoll-Konsolidierung: - HTTP/2: Multiplexing mehrerer Streams über eine TCP-Verbindung - QUIC/HTTP/3: Ersetzt TCP durch ein UDP-basiertes Protokoll mit integrierter Verschlüsselung und verbesserten Latenzeigenschaften
Die in der Praxis erreichbaren Übertragungsraten liegen fast immer unter den theoretischen Maximalwerten, wobei verschiedene Faktoren diesen Unterschied erklären.
Physikalische und Umgebungsfaktoren: - Nicht ideale Kabeleigenschaften und Verbindungen - Umwelteinflüsse wie Temperatur und elektromagnetische Störungen - Alterung von Komponenten
Systematische Faktoren: - Protokoll-Overhead auf verschiedenen Schichten - Sicherheitsmechanismen wie Verschlüsselung - Verkehrsspitzen und geteilte Ressourcen
Betriebsfaktoren: - Suboptimale Konfigurationen - Überlastete Netzwerkgeräte - Konkurrierende Anwendungen und Dienste
Kabelgebundene Technologien: - Gigabit Ethernet (1 Gbps): Typisch 700-940 Mbps Nettodatenrate - 10 Gigabit Ethernet: Typisch 7-9,5 Gbps Nettodatenrate - VDSL2: Theoretisch bis zu 100 Mbps, typisch 30-80 Mbps je nach Leitungslänge - Kabel-Internet (DOCSIS 3.1): Theoretisch bis zu 10 Gbps, typisch 300-1.200 Mbps
Drahtlose Technologien: - 802.11ac (Wi-Fi 5): Theoretisch bis zu 6,9 Gbps, typisch 200-800 Mbps - 802.11ax (Wi-Fi 6): Theoretisch bis zu 9,6 Gbps, typisch 600-1.500 Mbps - 4G/LTE: Theoretisch bis zu 1 Gbps, typisch 20-100 Mbps - 5G: Theoretisch bis zu 20 Gbps, typisch 100-900 Mbps
Glasfaserverbindungen: - FTTH (Fiber to the Home): Typisch 100 Mbps bis 10 Gbps - Unternehmensverbindungen: Typisch 1-100 Gbps - Backbone-Verbindungen: Typisch 100 Gbps bis mehrere Tbps
Last- und ressourcenbedingte Degradation: - CPU-Limitierungen in Netzwerkgeräten bei hoher Paketrate - Pufferspeicherüberlauf bei Traffic Bursts - QoS-Mechanismen zur priorisierten Behandlung bestimmter Verkehrstypen
Entfernungsbedingte Degradation: - Signaldämpfung und Interferenz bei steigender Entfernung - Rate Adaptation bei drahtlosen Technologien
Beispiel: Ein WLAN-Client mit gutem Signal kann 866 Mbps erreichen, während derselbe Client bei schlechterem Signal automatisch auf 54 Mbps oder weniger zurückfällt.
Um Übertragungsraten zu optimieren, ist eine präzise Messung und Analyse erforderlich.
Durchsatztests: - iperf/iperf3: Open-Source-Tools zur Messung des maximalen TCP- und UDP-Durchsatzes - Speedtest-Dienste: Webbasierte Tests, die Durchsatz zu verschiedenen Servern messen - FTP/HTTP-Downloads: Messung anhand der Übertragungszeit großer Dateien
Paketanalyse: - Wireshark: Detaillierte Analyse des Netzwerkverkehrs auf Paketebene - tcpdump: Kommandozeilenbasiertes Paket-Capture-Tool - NetFlow/IPFIX: Aggregierte Verkehrsstatistiken
Netzwerkmonitoring: - SNMP-basierte Systeme: Langzeitüberwachung von Netzwerkgeräten - Netflow-Collector: Analyse von Verkehrsmustern und -volumen - Application Performance Monitoring (APM): Endnutzerperspektive auf Anwendungsleistung
Kontextabhängige Bewertung: - Vergleich mit theoretischen Maximalwerten und Erfahrungswerten - Berücksichtigung von Tageszeit und Nutzungsmuster - Einbeziehung aller relevanten Metriken (nicht nur Durchsatz, sondern auch Latenz, Jitter, Paketverlust)
Typische Fehlinterpretationen: - Verwechslung von Bits und Bytes (Umrechnung um Faktor 8) - Überbewertung von Spitzenwerten gegenüber Durchschnittswerten - Nicht-Beachtung asymmetrischer Verbindungen (unterschiedliche Up- und Download-Raten)
Methodik zur Engpassidentifikation: - Strukturierte Ausschlussverfahren - End-to-End-Tests mit schrittweiser Segmentierung - Vergleichsmessungen unter kontrollierten Bedingungen
Häufige Engpässe: - Überlastete Uplinks oder Shared Media - Ressourcenlimitierte Endgeräte (CPU, RAM, Festplatte) - Nicht optimale Konfigurationen (TCP-Window-Size, Buffer-Größen) - Ineffiziente Anwendungen oder Protokollimplementierungen
Die Leistung eines Netzwerks kann durch verschiedene Techniken und Best Practices optimiert werden.
Netzwerkinfrastruktur: - Einsatz höherwertiger Kabel und Steckverbinder - Optimale Platzierung von Access Points für WLAN-Abdeckung - Einsatz von Repeatern, Bridges oder Mesh-Systemen zur Abdeckungserweiterung - Erweiterung von Uplink-Kapazitäten an Engpässen
Client- und Server-Hardware: - Leistungsfähige Netzwerkkarten mit Hardware-Offloading-Funktionen - Ausreichende CPU-Leistung und Speicherausstattung - SSD statt HDD für datenintensive Anwendungen - PCIe-Slots mit ausreichender Bandbreite für Hochleistungsnetzwerkkarten
Betriebssystemoptimierungen: - Anpassung der TCP/IP-Stack-Parameter (Window Size, Scaling, Buffer) - Optimierung der Interrupt-Handling und CPU-Affinität - Aktualisierung von Treibern und Firmware - Einsatz von TCP BBR oder anderen modernen Congestion-Control-Algorithmen
Anwendungsoptimierungen: - Effizienter Code und optimierte Datenstrukturen - Kompression von Daten vor der Übertragung - Caching zur Reduzierung redundanter Übertragungen - Asynchrone Operationen zur besseren Ressourcennutzung
WAN-Optimierung: - TCP-Acceleration durch optimiertes Windowing und Congestion Control - Deduplizierung redundanter Daten - Caching und Prädiktion - Protokollspezifische Optimierungen (HTTP, CIFS, etc.)
Quality of Service (QoS): - Priorisierung zeitkritischer Anwendungen (VoIP, Videokonferenzen) - Traffic Shaping zur Kontrolle von Bandbreitennutzung - Policing zum Schutz vor übermäßiger Ressourcennutzung
Spezielle Techniken: - Multipathing für Lastverteilung und Redundanz - Content Delivery Networks (CDNs) zur Verteilung von Inhalten - Edge Computing zur Reduzierung von Latenz und Bandbreitenbedarf
Verschiedene Anwendungen stellen unterschiedliche Anforderungen an die Netzwerkleistung, wobei nicht nur die reine Datenrate, sondern auch Latenz und Jitter relevant sein können.
Web-Browsing: - Datenrate: 2-10 Mbps für normales Surfen - Latenz: < 100 ms für gute Benutzererfahrung - Charakteristik: Burstartiger Verkehr mit vielen kleinen Anfragen
E-Mail: - Datenrate: < 1 Mbps für normale Nutzung - Latenz: Unkritisch (< 1 Sekunde ist ausreichend) - Charakteristik: Sporadischer Verkehr mit gelegentlichen größeren Anhängen
Dateiübertragung: - Datenrate: Je nach Dateigröße und Zeitanforderung - Latenz: Unkritisch für die meisten Anwendungsfälle - Charakteristik: Kontinuierlicher Verkehr über längere Zeiträume
Streaming Video: - SD-Video: 2-3 Mbps - HD-Video: 5-8 Mbps - 4K-Video: 15-25 Mbps - 8K-Video: 50-100 Mbps - Latenz: < 100 ms für interaktive Anwendungen, für reines Streaming unkritisch - Jitter: < 30 ms für flüssige Wiedergabe
Online-Gaming: - Datenrate: 3-6 Mbps für die meisten Spiele - Latenz: < 50 ms für Shooter und Actionspiele, < 100 ms für die meisten anderen Genres - Jitter: < 20 ms für konsistentes Spielerlebnis - Paketverlust: < 1% tolerierbar, idealerweise < 0,1%
VoIP und Videokonferenzen: - Audio-Datenrate: 30-128 Kbps je nach Codec - Video-Datenrate: 0,5-2,5 Mbps für Standard-HD - Latenz: < 150 ms für natürliche Konversation - Jitter: < 30 ms für klaren Ton - Paketverlust: < 1% für akzeptable Qualität