27 Übertragungsraten und Limitierungen

27.1 Einführung

Die Übertragungsrate – also die Geschwindigkeit, mit der Daten über ein Netzwerk übertragen werden können – ist ein zentraler Leistungsparameter in der Netzwerktechnik. In unserem zunehmend vernetzten Alltag und bei der fortschreitenden Digitalisierung von Unternehmen wachsen die Anforderungen an die Datenübertragungskapazität kontinuierlich. Das Verständnis der Übertragungsraten und ihrer Limitierungen ist daher für IT-Fachleute essenziell, um realistische Einschätzungen vornehmen, Engpässe identifizieren und optimale Lösungen entwickeln zu können.

Dieses Kapitel behandelt sowohl die theoretischen Grundlagen als auch die praktischen Aspekte von Datenübertragungsraten. Wir untersuchen die physikalischen und technischen Faktoren, die die maximale Übertragungsrate begrenzen, und betrachten, wie diese Grenzen in der Praxis durch verschiedene Technologien und Methoden angenähert werden können. Zudem werden wir die Unterschiede zwischen theoretischen und tatsächlich erreichbaren Übertragungsraten sowie die Messung und Optimierung von Netzwerkleistung diskutieren.

27.2 Grundlegende Konzepte und Einheiten

Bevor wir uns mit den Limitierungen beschäftigen, ist es wichtig, ein klares Verständnis der grundlegenden Konzepte und Messgrößen zu entwickeln.

27.2.1 Datenraten und Einheiten

Bit vs. Byte: Die kleinste Informationseinheit im digitalen Bereich ist das Bit (binary digit), das entweder den Wert 0 oder 1 annehmen kann. Ein Byte besteht aus 8 Bits und kann 256 verschiedene Zustände darstellen.

Datenraten-Bezeichnungen:

Zur Angabe von Dateigrößen oder Speicherkapazitäten werden dagegen häufig Byte-basierte Einheiten verwendet:

Hinweis: In der Computertechnik werden manchmal auch binäre Präfixe verwendet, bei denen 1 KiB (Kibibyte) = 1.024 Bytes, 1 MiB (Mebibyte) = 1.024 KiB usw. sind. Die Unterscheidung zwischen dezimalen und binären Präfixen sollte man im Hinterkopf behalten, insbesondere wenn es um präzise Kapazitätsangaben geht.

27.2.2 Signalrate und Datenrate

Es ist wichtig, zwischen der Signalrate (Baudrate) und der Datenrate zu unterscheiden:

Signalrate (Baudrate): Die Anzahl der Signaländerungen pro Sekunde. Gemessen in Baud.

Datenrate: Die Anzahl der Datenbits, die pro Sekunde übertragen werden. Gemessen in bps.

Bei einfachen binären Modulationsverfahren, bei denen jede Signaländerung genau ein Bit repräsentiert, sind Signalrate und Datenrate identisch (1 Baud = 1 bps). Bei komplexeren Modulationsverfahren können jedoch mehrere Bits pro Signaländerung übertragen werden, wodurch die Datenrate höher ist als die Signalrate:

Datenrate (bps) = Signalrate (Baud) × Anzahl der Bits pro Symbol

Beispielsweise kann ein 8-QAM-Modulationsverfahren (Quadrature Amplitude Modulation) 3 Bits pro Symbol übertragen, sodass bei einer Signalrate von 1.000 Baud eine Datenrate von 3.000 bps erreicht werden kann.

27.2.3 Netto- und Brutto-Datenraten

Bei der Betrachtung von Übertragungsraten ist die Unterscheidung zwischen Brutto- und Nettoraten wesentlich:

Brutto-Datenrate: Die gesamte Übertragungskapazität eines Kanals, einschließlich aller Protokoll-Overheads, Prüfsummen, Fehlerkorrekturdaten usw.

Netto-Datenrate: Die tatsächlich für Nutzdaten verfügbare Übertragungskapazität nach Abzug aller Protokoll-Overheads.

Das Verhältnis zwischen Netto- und Brutto-Datenrate wird als Effizienz bezeichnet und variiert je nach Protokoll und Anwendungsfall erheblich, typischerweise zwischen 30% und 90%.

27.3 Theoretische Grundlagen und Limitierungen

Die maximale Übertragungsrate eines Kommunikationssystems wird durch verschiedene fundamentale physikalische und informationstheoretische Grenzen bestimmt.

27.3.1 Das Shannon-Hartley-Theorem

Das Shannon-Hartley-Theorem ist ein grundlegendes Gesetz der Informationstheorie, das die theoretische maximale Informationsrate (Kanalkapazität) eines Übertragungskanals in Abhängigkeit von Bandbreite und Signal-Rausch-Verhältnis beschreibt:

C = B × log₂(1 + S/N)

Dabei ist: - C: Kanalkapazität in Bits pro Sekunde (bps) - B: Bandbreite des Kanals in Hertz (Hz) - S/N: Signal-Rausch-Verhältnis (SNR) als dimensionslose Zahl (nicht in dB)

Dieses Theorem hat mehrere wichtige Implikationen:

  1. Die Kanalkapazität steigt linear mit der Bandbreite, aber nur logarithmisch mit dem SNR.
  2. Es gibt eine fundamentale Grenze für die maximale Datenrate, die auch durch bessere Hardware nicht überwunden werden kann.
  3. Selbst bei Vorhandensein von Rauschen ist eine theoretisch fehlerfreie Übertragung möglich, solange die Datenrate unter der Kanalkapazität bleibt.

Beispiel: Ein Kanal mit einer Bandbreite von 10 MHz und einem SNR von 30 dB (entspricht einem Faktor von 1.000) hat eine theoretische Kanalkapazität von: C = 10 MHz × log₂(1 + 1.000) ≈ 10 MHz × 10 bits/Symbol ≈ 100 Mbps

27.3.2 Nyquist-Theorem

Das Nyquist-Theorem betrachtet die maximale Datenrate in einem rauschfreien Kanal:

C = 2 × B × log₂(M)

Wobei: - C: Maximale Datenrate in bps - B: Bandbreite in Hz - M: Anzahl der verschiedenen Signalzustände

In einem perfekten binären System (M = 2) wäre die maximale Datenrate demnach C = 2 × B bps. Bei komplexeren Signalzuständen (z.B. 16-QAM mit M = 16) steigt die theoretische maximale Datenrate.

27.3.3 Bandbreite und Spektrale Effizienz

Die Bandbreite, gemessen in Hertz (Hz), repräsentiert den Frequenzbereich, der für die Signalübertragung genutzt werden kann. Sie ist einer der wichtigsten limitierenden Faktoren für die Übertragungsrate:

Spektrale Effizienz: Gibt an, wie viele Bits pro Sekunde pro Hz Bandbreite übertragen werden können (bps/Hz). Dies ist ein Maß für die Effizienz der Bandbreitennutzung.

Moderne Übertragungstechnologien streben eine hohe spektrale Effizienz an. Beispiele für spektrale Effizienzen verschiedener Technologien:

Der Trend zu höheren Modulationsordnungen (größere M-Werte) erhöht die spektrale Effizienz, erfordert jedoch auch ein besseres Signal-Rausch-Verhältnis und präzisere Hardware.

27.3.4 Latenz und ihre Auswirkungen

Latenz ist die Zeit, die ein Signal benötigt, um von einem Punkt zu einem anderen zu gelangen. Obwohl Latenz nicht direkt die Datenrate limitiert, hat sie erheblichen Einfluss auf die gefühlte Leistung eines Netzwerks und auf bestimmte Protokolle:

Komponenten der Latenz: - Ausbreitungsverzögerung: Zeit, die das Signal benötigt, um physisch von A nach B zu gelangen. Limitiert durch die Lichtgeschwindigkeit (ca. 300.000 km/s im Vakuum, etwa 200.000 km/s in Glasfasern). - Übertragungsverzögerung: Zeit, die benötigt wird, um alle Bits einer Nachricht auf das Medium zu setzen. - Verarbeitungsverzögerung: Zeit, die Geräte zur Verarbeitung der Pakete benötigen. - Warteschlangenverzögerung: Zeit, die Pakete in Warteschlangen verbringen.

Round-Trip Time (RTT): Die Zeit für ein Signal, vom Sender zum Empfänger und zurück zu reisen. Besonders relevant für Protokolle, die Bestätigungen erfordern.

Bandbreiten-Verzögerungs-Produkt (BDP): Gibt an, wie viele Daten sich maximal “unterwegs” befinden können:

BDP = Bandbreite × Rundreisezeit

Das BDP ist besonders wichtig für die optimale Konfiguration von Protokollen wie TCP, da es die optimale Fenstergröße beeinflusst.

27.4 Physikalische Limitierungen nach Medientyp

Die verschiedenen Übertragungsmedien haben jeweils spezifische Eigenschaften und Limitierungen, die ihre maximalen Übertragungsraten begrenzen.

27.4.1 Kupferbasierte Medien

Twisted-Pair-Kabel (TP):

Twisted-Pair-Kabel werden nach Kategorien klassifiziert, die unterschiedliche Leistungsmerkmale aufweisen:

Limitierende Faktoren bei TP-Kabeln sind:

Koaxialkabel:

Koaxialkabel bieten im Vergleich zu TP-Kabeln eine bessere Abschirmung und können höhere Frequenzen übertragen:

Limitierenden Faktoren: - Dämpfung bei hohen Frequenzen - Mechanische Steifheit und größerer Biegeradius - Höhere Kosten im Vergleich zu TP-Kabeln

27.4.2 Optische Medien

Glasfaserkabel übertragen Daten mittels Lichtimpulsen und bieten die höchsten Übertragungsraten aller kabelgebundenen Medien:

Multimode-Glasfaser (MMF): - Typische Bandbreiten zwischen 200 MHz×km und 4.700 MHz×km - Übertragungsraten bis zu 100 Gbps über kurze Distanzen (bis etwa 100m) - Limitiert hauptsächlich durch Modendispersion (unterschiedliche Laufzeiten verschiedener Lichtmoden) - Kostengünstigere optische Komponenten (LED-basierte Sender)

Singlemode-Glasfaser (SMF): - Bandbreiten bis in den THz-Bereich - Übertragungsraten von mehreren Terabit pro Sekunde über lange Distanzen - Einsatz von WDM (Wavelength Division Multiplexing) ermöglicht parallele Datenströme - Höhere Kosten für optische Komponenten (Laser-basierte Sender)

Limitierende Faktoren bei Glasfasern: - Chromatische Dispersion: Unterschiedliche Ausbreitungsgeschwindigkeiten verschiedener Wellenlängen - Polarisationsmodendispersion: Unterschiedliche Ausbreitungsgeschwindigkeiten verschiedener Polarisationsrichtungen - Dämpfung: Geringer als bei Kupferkabeln, aber relevant bei sehr langen Strecken - Nichtlineare Effekte: Werden bei sehr hohen Leistungen oder langen Strecken relevant

27.4.3 Drahtlose Medien

Drahtlose Übertragungstechnologien bieten Flexibilität, unterliegen jedoch besonderen Einschränkungen:

WLAN (IEEE 802.11): - 802.11n: Bis zu 600 Mbps (theoretisch) - 802.11ac: Bis zu 6,9 Gbps (theoretisch) - 802.11ax (Wi-Fi 6): Bis zu 9,6 Gbps (theoretisch) - 802.11be (Wi-Fi 7): Bis zu 46 Gbps (theoretisch)

Mobilfunknetzwerke: - 4G/LTE: Bis zu 1 Gbps - 5G: Bis zu 20 Gbps unter idealen Bedingungen

Limitierende Faktoren bei drahtlosen Medien: - Begrenzte und regulierte Frequenzspektren: Die verfügbare Bandbreite ist durch regulatorische Vorgaben eingeschränkt - Signaldämpfung und Hindernisse: Wände, Gebäude und andere Objekte schwächen Signale ab - Interferenzen: Andere Sender auf gleichen oder benachbarten Frequenzen - Mehrwegeausbreitung: Signale erreichen den Empfänger auf verschiedenen Wegen und können sich gegenseitig auslöschen oder verstärken - Mobilität: Bewegung kann zu variierenden Signalstärken und Handovers führen - Shared Medium: Alle Nutzer teilen sich die verfügbare Bandbreite

27.5 Protokoll-bedingte Limitierungen

Neben den physikalischen Limitierungen beeinflussen auch die verwendeten Protokolle die erreichbaren Übertragungsraten.

27.5.1 Protokoll-Overhead

Jedes Netzwerkprotokoll fügt den Nutzdaten zusätzliche Informationen hinzu, die für die Funktionalität des Protokolls notwendig sind, aber die effektive Datenrate reduzieren:

Typische Overhead-Komponenten: - Header und Footer auf verschiedenen Protokollschichten - Prüfsummen zur Fehlererkennung - Sequenznummern zur Sicherstellung der korrekten Reihenfolge - Timing-Informationen - Adressinformationen

Beispiel für Ethernet: Ein minimales Ethernet-Frame benötigt 64 Bytes, wovon nur 46 Bytes für Nutzdaten verwendet werden können. Bei kleinen Paketen kann der Overhead also mehr als 28% der Übertragungskapazität beanspruchen.

27.5.2 Maximum Transmission Unit (MTU)

Die MTU definiert die maximale Paketgröße, die ein Netzwerkprotokoll verarbeiten kann:

27.5.3 TCP/IP-spezifische Limitierungen

TCP-Flusssteuerung: - Das TCP-Fenster begrenzt, wie viele Daten ohne Bestätigung gesendet werden können - Das TCP-Fensterwachstum (Slow Start, Congestion Avoidance) begrenzt die Übertragungsrate zu Beginn einer Verbindung - Der TCP-Overflow-Mechanismus reduziert die Datenrate bei Paketverlusten

TCP-Handshake: - Verbindungsaufbau erfordert mindestens eine RTT, bevor Daten übertragen werden können - Besonders relevant für kurze Verbindungen und Webseiten mit vielen kleinen Ressourcen

Beispiel: Eine TCP-Verbindung mit einer RTT von 100 ms kann theoretisch maximal 10 Verbindungen pro Sekunde etablieren, was bei vielen parallelen Webressourcen zu einem Engpass werden kann.

27.5.4 Protokoll-Optimierungen

Verschiedene Techniken wurden entwickelt, um die protokollbedingten Limitierungen zu reduzieren:

TCP-Optimierungen: - Window Scaling: Erlaubt größere TCP-Fenster für Hochgeschwindigkeitsverbindungen - TCP Fast Open: Ermöglicht Datenübertragung während des Handshakes - Selective Acknowledgments (SACK): Verbessert die Effizienz bei Paketverlusten

Protokoll-Konsolidierung: - HTTP/2: Multiplexing mehrerer Streams über eine TCP-Verbindung - QUIC/HTTP/3: Ersetzt TCP durch ein UDP-basiertes Protokoll mit integrierter Verschlüsselung und verbesserten Latenzeigenschaften

27.6 Praktische Übertragungsraten in realen Systemen

Die in der Praxis erreichbaren Übertragungsraten liegen fast immer unter den theoretischen Maximalwerten, wobei verschiedene Faktoren diesen Unterschied erklären.

27.6.1 Gründe für die Diskrepanz zwischen theoretischen und praktischen Raten

Physikalische und Umgebungsfaktoren: - Nicht ideale Kabeleigenschaften und Verbindungen - Umwelteinflüsse wie Temperatur und elektromagnetische Störungen - Alterung von Komponenten

Systematische Faktoren: - Protokoll-Overhead auf verschiedenen Schichten - Sicherheitsmechanismen wie Verschlüsselung - Verkehrsspitzen und geteilte Ressourcen

Betriebsfaktoren: - Suboptimale Konfigurationen - Überlastete Netzwerkgeräte - Konkurrierende Anwendungen und Dienste

27.6.2 Typische reale Übertragungsraten nach Technologie

Kabelgebundene Technologien: - Gigabit Ethernet (1 Gbps): Typisch 700-940 Mbps Nettodatenrate - 10 Gigabit Ethernet: Typisch 7-9,5 Gbps Nettodatenrate - VDSL2: Theoretisch bis zu 100 Mbps, typisch 30-80 Mbps je nach Leitungslänge - Kabel-Internet (DOCSIS 3.1): Theoretisch bis zu 10 Gbps, typisch 300-1.200 Mbps

Drahtlose Technologien: - 802.11ac (Wi-Fi 5): Theoretisch bis zu 6,9 Gbps, typisch 200-800 Mbps - 802.11ax (Wi-Fi 6): Theoretisch bis zu 9,6 Gbps, typisch 600-1.500 Mbps - 4G/LTE: Theoretisch bis zu 1 Gbps, typisch 20-100 Mbps - 5G: Theoretisch bis zu 20 Gbps, typisch 100-900 Mbps

Glasfaserverbindungen: - FTTH (Fiber to the Home): Typisch 100 Mbps bis 10 Gbps - Unternehmensverbindungen: Typisch 1-100 Gbps - Backbone-Verbindungen: Typisch 100 Gbps bis mehrere Tbps

27.6.3 Performance-Degradation in Netzwerken

Last- und ressourcenbedingte Degradation: - CPU-Limitierungen in Netzwerkgeräten bei hoher Paketrate - Pufferspeicherüberlauf bei Traffic Bursts - QoS-Mechanismen zur priorisierten Behandlung bestimmter Verkehrstypen

Entfernungsbedingte Degradation: - Signaldämpfung und Interferenz bei steigender Entfernung - Rate Adaptation bei drahtlosen Technologien

Beispiel: Ein WLAN-Client mit gutem Signal kann 866 Mbps erreichen, während derselbe Client bei schlechterem Signal automatisch auf 54 Mbps oder weniger zurückfällt.

27.7 Messung und Analyse von Übertragungsraten

Um Übertragungsraten zu optimieren, ist eine präzise Messung und Analyse erforderlich.

27.7.1 Methoden zur Leistungsmessung

Durchsatztests: - iperf/iperf3: Open-Source-Tools zur Messung des maximalen TCP- und UDP-Durchsatzes - Speedtest-Dienste: Webbasierte Tests, die Durchsatz zu verschiedenen Servern messen - FTP/HTTP-Downloads: Messung anhand der Übertragungszeit großer Dateien

Paketanalyse: - Wireshark: Detaillierte Analyse des Netzwerkverkehrs auf Paketebene - tcpdump: Kommandozeilenbasiertes Paket-Capture-Tool - NetFlow/IPFIX: Aggregierte Verkehrsstatistiken

Netzwerkmonitoring: - SNMP-basierte Systeme: Langzeitüberwachung von Netzwerkgeräten - Netflow-Collector: Analyse von Verkehrsmustern und -volumen - Application Performance Monitoring (APM): Endnutzerperspektive auf Anwendungsleistung

27.7.2 Interpretation von Messergebnissen

Kontextabhängige Bewertung: - Vergleich mit theoretischen Maximalwerten und Erfahrungswerten - Berücksichtigung von Tageszeit und Nutzungsmuster - Einbeziehung aller relevanten Metriken (nicht nur Durchsatz, sondern auch Latenz, Jitter, Paketverlust)

Typische Fehlinterpretationen: - Verwechslung von Bits und Bytes (Umrechnung um Faktor 8) - Überbewertung von Spitzenwerten gegenüber Durchschnittswerten - Nicht-Beachtung asymmetrischer Verbindungen (unterschiedliche Up- und Download-Raten)

27.7.3 Engpassidentifikation und -analyse

Methodik zur Engpassidentifikation: - Strukturierte Ausschlussverfahren - End-to-End-Tests mit schrittweiser Segmentierung - Vergleichsmessungen unter kontrollierten Bedingungen

Häufige Engpässe: - Überlastete Uplinks oder Shared Media - Ressourcenlimitierte Endgeräte (CPU, RAM, Festplatte) - Nicht optimale Konfigurationen (TCP-Window-Size, Buffer-Größen) - Ineffiziente Anwendungen oder Protokollimplementierungen

27.8 Optimierungstechniken und Best Practices

Die Leistung eines Netzwerks kann durch verschiedene Techniken und Best Practices optimiert werden.

27.8.1 Hardware-Optimierungen

Netzwerkinfrastruktur: - Einsatz höherwertiger Kabel und Steckverbinder - Optimale Platzierung von Access Points für WLAN-Abdeckung - Einsatz von Repeatern, Bridges oder Mesh-Systemen zur Abdeckungserweiterung - Erweiterung von Uplink-Kapazitäten an Engpässen

Client- und Server-Hardware: - Leistungsfähige Netzwerkkarten mit Hardware-Offloading-Funktionen - Ausreichende CPU-Leistung und Speicherausstattung - SSD statt HDD für datenintensive Anwendungen - PCIe-Slots mit ausreichender Bandbreite für Hochleistungsnetzwerkkarten

27.8.2 Software- und Konfigurationsoptimierungen

Betriebssystemoptimierungen: - Anpassung der TCP/IP-Stack-Parameter (Window Size, Scaling, Buffer) - Optimierung der Interrupt-Handling und CPU-Affinität - Aktualisierung von Treibern und Firmware - Einsatz von TCP BBR oder anderen modernen Congestion-Control-Algorithmen

Anwendungsoptimierungen: - Effizienter Code und optimierte Datenstrukturen - Kompression von Daten vor der Übertragung - Caching zur Reduzierung redundanter Übertragungen - Asynchrone Operationen zur besseren Ressourcennutzung

27.8.3 Protokolloptimierungen und spezielle Techniken

WAN-Optimierung: - TCP-Acceleration durch optimiertes Windowing und Congestion Control - Deduplizierung redundanter Daten - Caching und Prädiktion - Protokollspezifische Optimierungen (HTTP, CIFS, etc.)

Quality of Service (QoS): - Priorisierung zeitkritischer Anwendungen (VoIP, Videokonferenzen) - Traffic Shaping zur Kontrolle von Bandbreitennutzung - Policing zum Schutz vor übermäßiger Ressourcennutzung

Spezielle Techniken: - Multipathing für Lastverteilung und Redundanz - Content Delivery Networks (CDNs) zur Verteilung von Inhalten - Edge Computing zur Reduzierung von Latenz und Bandbreitenbedarf

27.9 Anwendungsspezifische Anforderungen an Übertragungsraten

Verschiedene Anwendungen stellen unterschiedliche Anforderungen an die Netzwerkleistung, wobei nicht nur die reine Datenrate, sondern auch Latenz und Jitter relevant sein können.

27.9.1 Klassische Internet-Anwendungen

Web-Browsing: - Datenrate: 2-10 Mbps für normales Surfen - Latenz: < 100 ms für gute Benutzererfahrung - Charakteristik: Burstartiger Verkehr mit vielen kleinen Anfragen

E-Mail: - Datenrate: < 1 Mbps für normale Nutzung - Latenz: Unkritisch (< 1 Sekunde ist ausreichend) - Charakteristik: Sporadischer Verkehr mit gelegentlichen größeren Anhängen

Dateiübertragung: - Datenrate: Je nach Dateigröße und Zeitanforderung - Latenz: Unkritisch für die meisten Anwendungsfälle - Charakteristik: Kontinuierlicher Verkehr über längere Zeiträume

27.9.2 Multimedia-Anwendungen

Streaming Video: - SD-Video: 2-3 Mbps - HD-Video: 5-8 Mbps - 4K-Video: 15-25 Mbps - 8K-Video: 50-100 Mbps - Latenz: < 100 ms für interaktive Anwendungen, für reines Streaming unkritisch - Jitter: < 30 ms für flüssige Wiedergabe

Online-Gaming: - Datenrate: 3-6 Mbps für die meisten Spiele - Latenz: < 50 ms für Shooter und Actionspiele, < 100 ms für die meisten anderen Genres - Jitter: < 20 ms für konsistentes Spielerlebnis - Paketverlust: < 1% tolerierbar, idealerweise < 0,1%

VoIP und Videokonferenzen: - Audio-Datenrate: 30-128 Kbps je nach Codec - Video-Datenrate: 0,5-2,5 Mbps für Standard-HD - Latenz: < 150 ms für natürliche Konversation - Jitter: < 30 ms für klaren Ton - Paketverlust: < 1% für akzeptable Qualität