Ethernet hat sich seit seiner Entstehung in den 1970er Jahren zum dominierenden Standard für lokale Netzwerke (LANs) entwickelt. Was als experimentelles Netzwerk bei Xerox PARC begann, hat sich zu einer Technologiefamilie entwickelt, die heute die Grundlage für die meisten kabelgebundenen Netzwerke weltweit bildet – von kleinen Heimnetzwerken bis hin zu leistungsstarken Rechenzentrumsinfrastrukturen.
Der anhaltende Erfolg von Ethernet beruht auf mehreren Schlüsselfaktoren. Zum einen basiert Ethernet auf offenen Standards, die vom IEEE (Institute of Electrical and Electronics Engineers) in der Standardfamilie 802.3 gepflegt werden. Dies hat zu einem breiten Ökosystem von interoperablen Geräten verschiedener Hersteller geführt. Zum anderen hat Ethernet eine bemerkenswerte Anpassungsfähigkeit bewiesen, indem es sich kontinuierlich weiterentwickelt hat, um höhere Geschwindigkeiten, größere Reichweiten und neue Anwendungsfälle zu unterstützen, während gleichzeitig die Abwärtskompatibilität weitestgehend erhalten blieb.
In diesem Kapitel konzentrieren wir uns auf die Evolution der Ethernet-Geschwindigkeitsstandards von 10 Mbps bis 10 Gbps. Wir betrachten die technischen Merkmale, Innovationen und Herausforderungen jeder Generation und wie diese überwunden wurden. Wir werden die physikalischen Medien, Kodierungsverfahren, Reichweiten und typischen Anwendungsfälle für jede Geschwindigkeitsstufe untersuchen und dabei ein besonderes Augenmerk auf die Kompatibilitätsmechanismen zwischen verschiedenen Standards legen.
Es ist wichtig zu verstehen, dass jede neue Ethernet-Generation nicht nur eine Erhöhung der Geschwindigkeit mit sich brachte, sondern oft auch fundamentale Änderungen in der Signalübertragung, Kodierung und dem physikalischen Medium. Diese Entwicklungen spiegeln sowohl die technologischen Fortschritte als auch die sich wandelnden Anforderungen an Netzwerke wider.
Bevor wir uns mit den Details der verschiedenen Geschwindigkeitsstandards befassen, ist es hilfreich, einen kurzen Blick auf die historische Entwicklung von Ethernet zu werfen.
Die Ursprünge von Ethernet gehen auf die frühen 1970er Jahre zurück. Bob Metcalfe und sein Team bei Xerox PARC (Palo Alto Research Center) entwickelten 1973 ein System zur Vernetzung von Computern, das sie “Ethernet” nannten – inspiriert vom “Äther” (Ether), von dem man damals annahm, dass er elektromagnetische Wellen trägt. Dieses erste Ethernet-System arbeitete mit einer Geschwindigkeit von etwa 3 Mbps und verwendete ein dickes Koaxialkabel als Übertragungsmedium.
Das grundlegende Zugriffsverfahren war CSMA/CD (Carrier Sense Multiple Access with Collision Detection), das den gemeinsamen Zugriff mehrerer Stationen auf ein geteiltes Medium regelte. Dieses Verfahren sollte Ethernet für viele Jahre prägen.
1980 schlossen sich Digital Equipment Corporation (DEC), Intel und Xerox zusammen, um die Ethernet-Spezifikation zu standardisieren, was zum sogenannten DIX-Ethernet oder Ethernet II führte. Dieses unterstützte bereits 10 Mbps und legte den Grundstein für die kommerzielle Verbreitung von Ethernet.
Parallel dazu begann das IEEE mit der Entwicklung des 802.3-Standards, der 1983 veröffentlicht wurde und weitgehend mit dem DIX-Ethernet übereinstimmte, jedoch einige Unterschiede im Frame-Format aufwies. Im Laufe der Zeit konvergierten diese beiden Standards, und heute können die meisten Ethernet-Geräte mit beiden Frame-Formaten umgehen.
Die Geschichte der Ethernet-Geschwindigkeitsentwicklung lässt sich wie folgt zusammenfassen:
In diesem Kapitel konzentrieren wir uns auf die Entwicklungen bis 10 Gbps, während höhere Geschwindigkeiten in späteren Kapiteln behandelt werden.
10 Mbps Ethernet war der erste weitverbreitete Ethernet-Standard und bildete die Grundlage für alle späteren Entwicklungen. Obwohl es heute kaum noch in aktiven Netzwerken zu finden ist, sind viele der grundlegenden Konzepte und Designentscheidungen von 10 Mbps Ethernet nach wie vor relevant.
Der erste standardisierte Ethernet-Typ war 10BASE5, auch bekannt als “Thick Ethernet” oder “Thicknet”. Die Bezeichnung folgt der IEEE-Nomenklatur: - “10” steht für 10 Mbps Übertragungsrate - “BASE” steht für Baseband-Übertragung (im Gegensatz zu Broadband) - “5” steht für die maximale Segmentlänge von 500 Metern
10BASE5 verwendete CSMA/CD als Medienzugriffsverfahren. Wenn eine Station Daten senden wollte, prüfte sie zunächst, ob das Medium frei war (Carrier Sense). War dies der Fall, begann sie mit der Übertragung. Da mehrere Stationen gleichzeitig senden konnten, konnten Kollisionen auftreten. Diese wurden durch die Collision Detection erkannt, woraufhin alle beteiligten Stationen die Übertragung abbrachen und nach einer zufälligen Wartezeit erneut versuchten zu senden.
Als Weiterentwicklung von 10BASE5 folgte 10BASE2, auch bekannt als “Thin Ethernet” oder “Cheapernet”. Es verwendete ein dünneres, flexibleres und kostengünstigeres Koaxialkabel.
10BASE2 war einfacher zu installieren als 10BASE5, brachte jedoch auch einige Nachteile mit sich. Insbesondere war das Netzwerk anfällig für Ausfälle, wenn ein einzelnes Kabel oder T-Stück defekt war, was die Fehlersuche erschwerte. Dennoch war 10BASE2 in den 1980er und frühen 1990er Jahren weit verbreitet, besonders in kleineren Netzwerken.
Der entscheidende Durchbruch für die breite Akzeptanz von Ethernet kam mit der Einführung von 10BASE-T, das statt Koaxialkabel ungeschirmtes Twisted-Pair-Kabel (UTP) verwendete und eine Stern-Topologie einführte. Diese Umstellung war revolutionär für die Ethernet-Technologie.
Die Stern-Topologie von 10BASE-T bot mehrere entscheidende Vorteile: - Einfachere Installation und Fehlerbehebung - Erhöhte Zuverlässigkeit, da ein Kabelbruch nur eine einzelne Station betraf - Flexiblere Erweiterungsmöglichkeiten - Einfachere Verwaltung und Überwachung des Netzwerkverkehrs
Mit der Einführung von 10BASE-T begann auch der Übergang von Hubs zu Switches. Während Hubs einfach alle eingehenden Signale an alle Ports weiterleiten (und damit das gemeinsame Medium emulieren), leiten Switches Frames gezielt nur an den Port weiter, an dem der Empfänger angeschlossen ist. Dies erhöhte die Effizienz und effektive Bandbreite des Netzwerks erheblich.
Neben den drei Hauptvarianten gab es weitere 10 Mbps Ethernet-Standards:
Ein wichtiges Merkmal aller 10 Mbps Ethernet-Varianten war die Verwendung der Manchester-Kodierung für die Signalübertragung. Bei dieser Kodierung wird jedes Bit durch einen Übergang in der Mitte der Bitzeit dargestellt: - Eine fallende Flanke (von hoch nach niedrig) repräsentiert eine binäre 1 - Eine steigende Flanke (von niedrig nach hoch) repräsentiert eine binäre 0
Dies gewährleistet eine Selbsttaktung des Signals, da in jeder Bitzeit mindestens ein Übergang stattfindet, was die Taktrückgewinnung am Empfänger erleichtert. Allerdings verdoppelt die Manchester-Kodierung die erforderliche Bandbreite, da die Signalrate doppelt so hoch ist wie die Datenrate. Dies wurde bei höheren Ethernet-Geschwindigkeiten zu einer Herausforderung, die alternative Kodierungsverfahren erforderlich machte.
10 Mbps Ethernet basierte auf dem CSMA/CD-Zugriffsverfahren, das Kollisionen erkennen und behandeln konnte. Dies war besonders wichtig in Shared-Media-Umgebungen wie 10BASE5 und 10BASE2 sowie in Netzwerken mit Hubs.
Eine wichtige Einschränkung von CSMA/CD ist die maximale Netzwerkausdehnung in Relation zur Übertragungsrate. Damit Kollisionen zuverlässig erkannt werden können, muss die Rundlaufzeit eines Signals (von einem Ende des Netzwerks zum anderen und zurück) kürzer sein als die Zeit, die für die Übertragung eines minimalen Frames benötigt wird. Dies führte zur “5-4-3-Regel” für 10 Mbps Ethernet: - Maximal 5 Segmente - Verbunden durch maximal 4 Repeater - Nur 3 der Segmente können mit Endgeräten besetzt sein
Mit der Einführung von Switches wurde CSMA/CD weniger relevant, da Switches separate Kollisionsdomänen für jeden Port schaffen. Im Vollduplex-Modus, bei dem gleichzeitiges Senden und Empfangen möglich ist, wird CSMA/CD vollständig deaktiviert.
Mit dem Wachstum von Netzwerken und dem zunehmenden Datenaufkommen in den frühen 1990er Jahren entstand der Bedarf nach höheren Übertragungsraten. Dies führte zur Entwicklung von Fast Ethernet, das zehnmal schneller war als das ursprüngliche Ethernet, dabei aber viele Konzepte des 10 Mbps Ethernet beibehielt, um Kompatibilität und einfache Migration zu gewährleisten.
100BASE-TX ist die am weitesten verbreitete Variante von Fast Ethernet und verwendet Kupferkabel.
Die größte Änderung gegenüber 10BASE-T war das Kodierungsverfahren. Die Manchester-Kodierung mit ihrer Bandbreitenverdopplung war für 100 Mbps nicht mehr praktikabel. Stattdessen verwendete 100BASE-TX einen zweistufigen Ansatz:
4B/5B-Kodierung: Jede Gruppe von 4 Datenbits wird in ein 5-Bit-Symbol kodiert. Dies stellt sicher, dass keine langen Folgen von Nullen auftreten und ermöglicht die Erkennung bestimmter Fehler.
MLT-3-Signalisierung (Multi-Level Transition): Hierbei wechselt das Signal zwischen drei Pegeln (+V, 0, -V), wobei ein Übergang eine 1 und kein Übergang eine 0 repräsentiert. Dies reduziert die erforderliche Bandbreite im Vergleich zur Manchester-Kodierung.
Durch diese Kombination konnte Fast Ethernet auf der gleichen Kabelinfrastruktur wie 10BASE-T implementiert werden, sofern diese mindestens Cat 5 entsprach.
Für Anwendungen, die längere Strecken, höhere Störfestigkeit oder bessere Isolation erforderten, wurde 100BASE-FX entwickelt, das auf Glasfaser basiert.
100BASE-FX verwendete die gleiche 4B/5B-Kodierung wie 100BASE-TX, jedoch mit einer anderen physikalischen Signalisierung, die für optische Übertragung geeignet war. Die deutlich größere Reichweite machte 100BASE-FX zur bevorzugten Wahl für Backbone-Verbindungen und Gebäudeverbindungen.
Eine weniger verbreitete Variante von Fast Ethernet war 100BASE-T4, die entwickelt wurde, um auch auf älterer Cat 3 Verkabelung zu funktionieren, die in vielen bestehenden 10BASE-T-Installationen verwendet wurde.
Wegen seiner Komplexität und der zunehmenden Verbreitung von Cat 5 Verkabelung spielte 100BASE-T4 jedoch nur eine untergeordnete Rolle und wurde schließlich obsolet.
Eine wichtige Innovation bei der Einführung von Fast Ethernet war die Auto-Negotiation, ein Protokoll, das es Ethernet-Geräten ermöglicht, automatisch die höchste gemeinsame Übertragungsgeschwindigkeit und den besten Duplex-Modus auszuhandeln. Dies war entscheidend für die reibungslose Integration von Fast Ethernet in bestehende 10 Mbps Netzwerke.
Bei der Auto-Negotiation tauschen die verbundenen Geräte Fast Link Pulses (FLPs) aus, die Informationen über ihre Fähigkeiten enthalten. Auf Basis dieser Informationen wird dann der beste Betriebsmodus ausgewählt. Dabei gilt folgende Prioritätsreihenfolge:
Die Auto-Negotiation wurde später für Gigabit Ethernet und höhere Geschwindigkeiten erweitert und ist bis heute ein wichtiger Mechanismus zur Sicherstellung der Interoperabilität zwischen verschiedenen Ethernet-Generationen.
Um den Übergang von 10 Mbps zu 100 Mbps zu erleichtern, wurden Dual-Speed Netzwerkgeräte entwickelt, die beide Geschwindigkeiten unterstützten. Diese Geräte konnten entweder automatisch die passende Geschwindigkeit für jeden Port erkennen oder erlaubten eine manuelle Konfiguration.
Mit Fast Ethernet begann auch der Trend weg von Hubs hin zu Switches, da die höheren Datenraten die Limitierungen von gemeinsam genutzten Medien noch deutlicher machten. Switches bieten dedizierte Bandbreite für jeden Port und können im Vollduplex-Modus betrieben werden, was die effektive Bandbreite verdoppelt.
Das Frame-Format von Fast Ethernet blieb identisch mit dem von 10 Mbps Ethernet. Dies war ein wichtiger Aspekt der Abwärtskompatibilität und ermöglichte die nahtlose Integration von Fast Ethernet in bestehende Netzwerke. Die minimale und maximale Frame-Größe sowie alle anderen Aspekte des MAC-Protokolls blieben unverändert.
Die einzige wesentliche Änderung betraf die Uhr- und Timing-Parameter, die an die höhere Geschwindigkeit angepasst werden mussten. Insbesondere wurde der Slot Time (die Zeit, in der Kollisionen erkannt werden können) unverändert bei 512 Bitzeiten belassen, was aufgrund der höheren Geschwindigkeit zu einer verkürzten absoluten Zeit führte. Dies hatte Auswirkungen auf die maximale Netzwerkausdehnung im Halbduplex-Modus, die bei 100 Mbps nun deutlich geringer war als bei 10 Mbps.
Ende der 1990er Jahre wurden Netzwerke erneut mit steigenden Bandbreiteanforderungen konfrontiert, insbesondere durch den zunehmenden Einsatz von Multimedia-Anwendungen, Datenbanken und Internet-Diensten. Als Antwort auf diese Anforderungen wurde Gigabit Ethernet entwickelt, das eine Geschwindigkeit von 1000 Mbps (1 Gbps) bot – eine weitere Verzehnfachung gegenüber Fast Ethernet.
Gigabit Ethernet wurde zunächst für Backbone- und Server-Verbindungen eingesetzt, fand aber mit der Zeit auch seinen Weg zu Desktop-Computern und wurde zum Standard in Unternehmens- und später auch in Heimnetzwerken.
Die ersten Implementierungen von Gigabit Ethernet basierten auf Glasfaser und wurden unter dem Sammelbegriff 1000BASE-X standardisiert, der verschiedene physikalische Medien umfasste.
1000BASE-SX ist für kürzere Strecken mit Multimode-Glasfaser konzipiert und verwendet eine Wellenlänge im Bereich von 770-860 nm (typischerweise 850 nm).
1000BASE-LX ist für längere Strecken konzipiert und kann sowohl mit Multimode- als auch mit Singlemode-Glasfaser verwendet werden. Es arbeitet mit einer Wellenlänge von etwa 1310 nm.
Eine weniger verbreitete Variante ist 1000BASE-CX, die spezielles Twinaxialkabel für sehr kurze Strecken verwendet.
Der Durchbruch für Gigabit Ethernet in der breiten Anwendung kam mit dem Standard 1000BASE-T (IEEE 802.3ab), der die Nutzung von Standard-Twisted-Pair-Kabeln ermöglichte.
Die Herausforderung bei 1000BASE-T bestand darin, 1 Gbps über die bestehende Twisted-Pair-Verkabelung zu übertragen, die ursprünglich nur für viel niedrigere Datenraten ausgelegt war. Dies wurde durch mehrere innovative Techniken erreicht:
Nutzung aller vier Adernpaare: Anders als bei 10BASE-T und 100BASE-TX, die nur zwei Paare nutzen, verwendet 1000BASE-T alle vier verfügbaren Adernpaare im Kabel.
Bidirektionale Übertragung: Jedes Adernpaar wird für gleichzeitige Übertragung in beide Richtungen genutzt, was eine komplexe Echokompensation erfordert.
4D-PAM5 Kodierung: Statt einer binären Signalisierung verwendet 1000BASE-T fünf Signalpegel (-2, -1, 0, +1, +2). Dies ermöglicht die Übertragung von 2 Bits pro Symbol und Adernpaar.
Komplexe Signalverarbeitung: DSP-Techniken (Digital Signal Processing) werden eingesetzt, um Echokompensation, Übersprechenunterdrückung und Entzerrung durchzuführen.
Mit diesen Techniken erreicht 1000BASE-T eine Datenrate von 250 Mbps auf jedem der vier Adernpaare, was zusammen die 1 Gbps ergibt.
Ein wichtiger Aspekt der glasfaserbasierten Gigabit-Ethernet-Varianten war die Einführung der 8B/10B-Kodierung. Bei dieser Kodierung werden jeweils 8 Datenbits in 10-Bit-Codes umgewandelt. Dies bietet mehrere Vorteile:
DC-Balance: Die Codes sind so gewählt, dass sie eine ausgewogene Anzahl von 0en und 1en enthalten (4-6 Einsen pro 10-Bit-Code). Dies verhindert DC-Verschiebungen, die bei optischen Übertragungen problematisch sein können.
Ausreichende Übergänge: Die Codes gewährleisten eine Mindestanzahl von Übergängen, was die Taktrückgewinnung am Empfänger erleichtert.
Fehlererkennungsfähigkeit: Bestimmte ungültige Codewörter können zur Erkennung von Übertragungsfehlern verwendet werden.
Spezielle Kontrollcodes: Die zusätzlichen Bit-Kombinationen erlauben die Definition spezieller Kontrollcodes für Funktionen wie Idle, Start of Packet und End of Packet.
Der Nachteil der 8B/10B-Kodierung ist ein Overhead von 25%, da 10 Bits übertragen werden müssen, um 8 Datenbits zu kodieren. Dies bedeutet, dass die tatsächliche Symbolrate bei 1,25 GBaud liegt, um eine effektive Datenrate von 1 Gbps zu erreichen.
Obwohl Gigabit Ethernet hauptsächlich im Vollduplex-Modus betrieben wird, in dem keine Kollisionen auftreten können, wurde auch der Halbduplex-Modus standardisiert, um Kompatibilität mit älteren Netzwerkgeräten zu gewährleisten. Dies erforderte eine Anpassung des CSMA/CD-Mechanismus.
Der grundlegende CSMA/CD-Algorithmus blieb unverändert, aber es wurden zwei wichtige Erweiterungen eingeführt:
Carrier Extension: Die minimale Frame-Größe für Kollisionserkennung müsste bei 1 Gbps eigentlich 512 Bytes betragen (im Vergleich zu 64 Bytes bei 10/100 Mbps). Um Abwärtskompatibilität zu wahren, wurde stattdessen die “Carrier Extension” implementiert, die das Sendesignal künstlich verlängert, bis die erforderliche Zeit für die Kollisionserkennung erreicht ist.
Packet Bursting: Um die Effizienz trotz Carrier Extension zu verbessern, wurde “Packet Bursting” eingeführt. Nach Übertragung eines ersten Frames kann die Station ohne erneuten Medienzugriff weitere Frames senden, solange die Gesamtdauer einen bestimmten Wert nicht überschreitet. Dies vermeidet den Overhead der Carrier Extension für alle Frames außer dem ersten in einem Burst.
In der Praxis spielte der Halbduplex-Modus bei Gigabit Ethernet jedoch eine untergeordnete Rolle, da die meisten Implementierungen direkt auf Switches und den Vollduplex-Betrieb setzten.
Mit der Einführung von Gigabit Ethernet kamen auch “Jumbo Frames” auf – Ethernet-Frames, die größer sind als die standardmäßige maximale Größe von 1518 Bytes. Typische Jumbo Frames haben eine Größe von 9000 Bytes, obwohl der Begriff nicht standardisiert ist und verschiedene Implementierungen unterschiedliche maximale Größen unterstützen können.
Die Hauptvorteile von Jumbo Frames sind:
Jumbo Frames sind jedoch kein offizieller IEEE-Standard, und alle beteiligten Netzwerkgeräte müssen sie unterstützen, damit sie funktionieren. Sie werden hauptsächlich in kontrollierten Umgebungen wie Rechenzentren und Storage Area Networks (SAN) eingesetzt, wo ihre Vorteile genutzt werden können, ohne Kompatibilitätsprobleme zu verursachen.
Mit der steigenden Übertragungsgeschwindigkeit wurde auch die Gefahr von Pufferüberläufen in Netzwerkgeräten größer. Als Antwort darauf wurde in Gigabit Ethernet ein standardisierter Flow-Control-Mechanismus eingeführt, basierend auf PAUSE-Frames (IEEE 802.3x).
Der Flow-Control-Mechanismus funktioniert wie folgt:
Dies ist besonders nützlich in Vollduplex-Verbindungen, wo kein CSMA/CD-Mechanismus existiert, um die Übertragungsrate zu regulieren. Flow Control kann jedoch zu Head-of-Line-Blocking und anderen Problemen in komplexen Netzwerken führen, weshalb es in großen Produktionsnetzwerken oft deaktiviert wird zugunsten von Ende-zu-Ende-Flow-Control auf höheren Protokollebenen.
Eine wichtige Innovation im Bereich der Gigabit-Ethernet-Schnittstellen war die Einführung von austauschbaren Transceiver-Modulen. Die ersten waren GBICs (Gigabit Interface Converters), die später durch die kleineren SFPs (Small Form-factor Pluggable) ersetzt wurden.
Diese Module bieten mehrere Vorteile:
Die Modularität der Transceiver wurde in späteren Ethernet-Generationen beibehalten und weiterentwickelt, mit Formaten wie SFP+ für 10 Gigabit Ethernet, QSFP für 40 Gigabit Ethernet und QSFP28 für 100 Gigabit Ethernet.
Die Entwicklung des 10 Gigabit Ethernet begann bereits Ende der 1990er Jahre, parallel zur Einführung von Gigabit Ethernet. Der Standard IEEE 802.3ae wurde 2002 verabschiedet und markierte einen wichtigen Meilenstein in der Evolution von Ethernet.
10 Gigabit Ethernet brachte einige bedeutende Änderungen gegenüber früheren Ethernet-Generationen mit sich. Die wichtigste davon war, dass 10GbE ausschließlich für den Vollduplex-Betrieb konzipiert wurde, ohne Unterstützung für Halbduplex oder CSMA/CD. Dies vereinfachte den Standard erheblich und spiegelte die Realität wider, dass in modernen Netzwerken fast ausschließlich Switches eingesetzt werden.
Die ersten 10 Gigabit Ethernet Standards waren ausschließlich für Glasfaser konzipiert und verwendeten die 10GBASE-R Kodierung als Basis.
10GBASE-SR ist für kurze Strecken über Multimode-Glasfaser konzipiert und wird hauptsächlich in Rechenzentren eingesetzt.
10GBASE-LR ist für längere Strecken über Singlemode-Glasfaser konzipiert und eignet sich für Campus- und Metropolnetzwerke.
10GBASE-ER bietet noch größere Reichweiten für Weitverkehrsnetze.
Ähnlich wie bei früheren Ethernet-Generationen war die Entwicklung einer Twisted-Pair-Variante ein wichtiger Schritt, um 10 Gigabit Ethernet für breitere Anwendungsbereiche zugänglich zu machen. Der Standard 10GBASE-T (IEEE 802.3an) wurde 2006 verabschiedet.
10GBASE-T stand vor enormen technischen Herausforderungen:
Diese Herausforderungen führten zu einer langsameren Marktakzeptanz von 10GBASE-T im Vergleich zu früheren Twisted-Pair-Standards. Mit der Zeit verbesserten sich jedoch die Chiptechnologie und die Energieeffizienz, was zu einer breiteren Akzeptanz führte.
Neben den Hauptstandards gibt es mehrere spezialisierte 10GbE-Varianten:
Eine frühe Kupfervariante, die InfiniBand-CX4-Verkabelung nutzt.
Ein Standard für Backplane-Implementierungen, z.B. in Blade-Servern.
Passive oder aktive Twinax-Kupferkabel mit integrierten SFP+-Steckern.
Ein wichtiges neues Element in 10 Gigabit Ethernet war die Einführung der 64B/66B-Kodierung, die die 8B/10B-Kodierung früherer Standards ersetzte. Diese Änderung reduzierte den Kodierungsoverhead von 25% auf etwa 3%.
Bei der 64B/66B-Kodierung werden 64 Datenbits mit 2 Synchronisationsbits zu einem 66-Bit-Block kombiniert. Die 2 Synchronisationsbits können nur die Werte 01 oder 10 annehmen, was einen regelmäßigen Übergang für die Taktrückgewinnung garantiert. Der 64-Bit-Datenteil wird gescrambled (verschlüsselt), um eine gleichmäßige Verteilung von 0en und 1en zu erreichen.
Die 64B/66B-Kodierung bietet mehrere Vorteile: - Geringerer Overhead im Vergleich zu 8B/10B - Bessere Bandbreiteneffizienz - Ausreichende Übergangsdichte für die Taktrückgewinnung - Unterstützung für Kontrollinformationen
Diese Kodierung wurde in späteren, noch schnelleren Ethernet-Standards beibehalten und weiterentwickelt.
Eine Besonderheit von 10 Gigabit Ethernet ist, dass es von Anfang an für den Einsatz sowohl in LANs als auch in WANs konzipiert wurde. Dies markierte einen Wendepunkt, an dem Ethernet begann, in Domänen vorzudringen, die traditionell von spezialisierten WAN-Technologien wie SONET/SDH dominiert wurden.
Für WAN-Anwendungen wurden spezielle Standards entwickelt:
Diese Familie von Standards passt das 10GbE-Signal an SONET/SDH-Framing an:
Diese Standards ermöglichen die nahtlose Integration von Ethernet in bestehende SONET/SDH-Infrastrukturen und markieren einen wichtigen Schritt in der Evolution von Ethernet zu einer universellen Netzwerktechnologie.
Mit steigenden Datenraten wurde auch der Energieverbrauch zu einem wichtigen Thema. 10 Gigabit Ethernet, insbesondere 10GBASE-T, war anfänglich für seinen hohen Stromverbrauch bekannt.
Um dieses Problem anzugehen, wurden mehrere Ansätze verfolgt:
Energy Efficient Ethernet (IEEE 802.3az): Dieser Standard, der 2010 verabschiedet wurde, definiert Mechanismen zur Reduzierung des Energieverbrauchs während Phasen geringer Aktivität. 10GBASE-T war eine der ersten Technologien, die EEE unterstützten.
Verbesserte Chipdesigns: Fortschritte in der Halbleitertechnologie führten zu deutlichen Verbesserungen der Energieeffizienz bei 10GbE-Chips.
Intelligente Leistungsanpassung: Moderne 10GbE-Schnittstellen können ihre Leistungsaufnahme basierend auf der Kabellänge und Signalqualität anpassen.
Diese Verbesserungen haben dazu beigetragen, dass 10 Gigabit Ethernet auch für Anwendungen mit begrenztem Energiebudget praktikabel wurde.
Um die Evolution der Ethernet-Technologie besser zu verstehen, ist es hilfreich, die verschiedenen Generationen direkt zu vergleichen.
| Standard | Medium | Max. Länge | Steckverbinder |
|---|---|---|---|
| 10BASE-T | Cat 3+ UTP | 100 m | RJ-45 |
| 100BASE-TX | Cat 5+ UTP/STP | 100 m | RJ-45 |
| 100BASE-FX | MM Glasfaser | 2 km | SC/ST |
| 1000BASE-T | Cat 5e+ UTP/STP | 100 m | RJ-45 |
| 1000BASE-SX | MM Glasfaser | 550 m | LC/SC |
| 1000BASE-LX | SM/MM Glasfaser | 5 km/550 m | LC/SC |
| 10GBASE-T | Cat 6A+ UTP/STP | 100 m | RJ-45 |
| 10GBASE-SR | OM3/OM4 MM Glasfaser | 300-400 m | LC |
| 10GBASE-LR | SM Glasfaser | 10 km | LC |
| 10GBASE-ER | SM Glasfaser | 40 km | LC |
| Standard | Kodierung | Signalisierung | Adernpaare | Übertragungsmodus |
|---|---|---|---|---|
| 10BASE-T | Manchester | Binär | 2 | Halb-/Vollduplex |
| 100BASE-TX | 4B/5B | MLT-3 | 2 | Halb-/Vollduplex |
| 1000BASE-T | 4D-PAM5 | 5-Level PAM | 4 | Halb-/Vollduplex |
| 1000BASE-X | 8B/10B | NRZ | - | Vollduplex |
| 10GBASE-T | DSQ128 | DSQ128 | 4 | Vollduplex |
| 10GBASE-R | 64B/66B | NRZ | - | Vollduplex |
| Standard | CSMA/CD-Unterstützung | Typischer Betriebsmodus | Flow Control |
|---|---|---|---|
| 10BASE-T | Ja | Halb-/Vollduplex | Nein |
| 100BASE-TX | Ja | Halb-/Vollduplex | Optional |
| 1000BASE-T | Ja (erweitert) | Vorwiegend Vollduplex | Ja |
| 10GBASE-T/R | Nein | Nur Vollduplex | Ja |
| Standard | Einführung | Hauptanwendungen bei Einführung | Spätere Verbreitung |
|---|---|---|---|
| 10BASE-T | 1990 | Desktop-Verbindungen | Historisch, kaum noch genutzt |
| 100BASE-TX | 1995 | Desktop, kleine Server | Legacy-Anwendungen |
| 1000BASE-T | 1999 | Server, Backbone | Desktops, Standard für LANs |
| 10GBASE-SR/LR | 2002 | Rechenzentrum, WAN | Server, Campus-Backbone |
| 10GBASE-T | 2006 | Spezielle Server-Anwendungen | Hochleistungs-Desktops, Server |
Eine der Stärken der Ethernet-Familie ist die Möglichkeit der graduellen Migration und die Koexistenz verschiedener Geschwindigkeiten im selben Netzwerk. Dies wurde durch mehrere Mechanismen ermöglicht.
Wie bereits erwähnt, ist Auto-Negotiation ein Schlüsselmechanismus für die Interoperabilität verschiedener Ethernet-Geschwindigkeiten. Mit der Zeit wurde dieses Protokoll erweitert, um neue Geschwindigkeiten und Fähigkeiten zu unterstützen:
Die Auto-Negotiation ermöglicht es Geräten, automatisch die höchste gemeinsame Geschwindigkeit und den besten Duplex-Modus auszuhandeln, was eine nahtlose Integration neuer Technologien in bestehende Netzwerke ermöglicht.
Switches, die mehrere Ethernet-Geschwindigkeiten unterstützen, sind ein wesentliches Element für die Migration. Moderne Switches bieten typischerweise eine Mischung aus Ports mit verschiedenen Geschwindigkeiten und Medientypen:
Diese Flexibilität ermöglicht es, die Netzwerkkapazität schrittweise zu erhöhen, indem wichtige Links und Server auf höhere Geschwindigkeiten umgestellt werden, während weniger anspruchsvolle Verbindungen bei niedrigeren Geschwindigkeiten bleiben.
Trotz der Bemühungen um Abwärtskompatibilität gibt es einige Herausforderungen bei der Migration zwischen Ethernet-Generationen:
Duplex-Mismatches: Eines der häufigsten Probleme tritt auf, wenn ein Gerät im Vollduplex- und das andere im Halbduplex-Modus arbeitet, oft aufgrund fehlgeschlagener Auto-Negotiation. Dies führt zu Kollisionen und stark reduzierter Leistung.
Kabelqualität: Ältere Installationen erfüllen möglicherweise nicht die Anforderungen neuerer Standards. So funktioniert z.B. 1000BASE-T möglicherweise nicht zuverlässig über Cat 5 Kabel, obwohl es theoretisch möglich sein sollte.
Jumbo Frames: Netzwerke mit unterschiedlichen MTU-Größen können zu Fragmentierung oder Paketverwerfungen führen.
Flow Control: Unterschiedliche Flow-Control-Implementierungen können zu unerwarteten Leistungsproblemen führen.
Diese Herausforderungen unterstreichen die Wichtigkeit sorgfältiger Planung und Testung bei der Einführung neuer Ethernet-Technologien in bestehende Netzwerke.
Obwohl dieses Kapitel den Fokus auf die Evolution von 10 Mbps bis 10 Gbps Ethernet legt, ist es wichtig, kurz auf die weitere Entwicklung hinzuweisen, die nach 10 Gigabit Ethernet stattgefunden hat und weiterhin stattfindet.
IEEE 802.3ba, verabschiedet im Jahr 2010, definierte die ersten Standards für 40 Gbps und 100 Gbps Ethernet:
Diese Standards nutzten hauptsächlich parallele Optik oder WDM-Technologie (Wavelength Division Multiplexing), um die höheren Datenraten zu erreichen.
2016 wurden Standards für 25 Gbps und 50 Gbps Ethernet (IEEE 802.3by und 802.3cd) eingeführt, die eine kosteneffizientere Alternative zu 40 Gbps für Rechenzentrumsanwendungen bieten.
2017 wurde der Standard für 200 Gbps und 400 Gbps Ethernet (IEEE 802.3bs) verabschiedet, mit Varianten wie:
Diese Standards verwenden fortschrittliche Modulationsverfahren wie PAM-4 anstelle des traditionellen NRZ, um die Bandbreiteneffizienz zu erhöhen.
Die Arbeit an 800 Gbps und 1,6 Tbps Ethernet ist bereits im Gange, mit Standardisierungsbemühungen in IEEE 802.3df. Diese Standards werden voraussichtlich noch fortschrittlichere Technologien wie höherstufige Modulation, kohärente Optik und integrierte Photonik nutzen.
Die kontinuierliche Evolution von Ethernet unterstreicht die Anpassungsfähigkeit und Relevanz dieser Technologie auch nach Jahrzehnten ihrer Existenz. Mit jeder neuen Generation werden neue technische Herausforderungen gemeistert, um den stetig wachsenden Bandbreitenbedarf in Netzwerken aller Größen zu decken.