ABC News ist diese Woche neuer ausführender Produzent von CNN
Mar 06, 2023Brembo und Camfin stimmen auf die Governance-Position von Pirelli überein
Mar 08, 2023Die neuesten Glasfaserkabel für 2022
Mar 10, 2023Wirbelsäule
Mar 12, 2023Die fünf häufigsten Probleme mit der Kabelverbindung im Rechenzentrum
Mar 14, 2023Der Aufstieg von 400G verändert die Rechenzentrumslandschaft
Rechenzentrumsbetreiber und die Lieferkette von Rechenzentren bleiben auf dem Weg zu 400G
Höhere Ethernet-Geschwindigkeiten, Cloud Computing, IoT und virtuelle Rechenzentren haben den Einsatz für Rechenzentrumsbetreiber erhöht. Betreiber von Hyperscale-Rechenzentren treiben die breitere Einführung von 100G-Verbindungen und Modultechnologien voran. Gleichzeitig stehen 400G-Formfaktoren und optische Module kurz vor der vollständigen Einführung, die schrittweise im Jahr 2019 erfolgen soll. Dieser Wandel innerhalb der Rechenzentrumsbranche wird eine beeindruckende Verdoppelung der Dichte des bewährten QSFP28 (Quad Small Form Factor Pluggable 28G) bedeuten ) Module für eine bis zu vierfache Bandbreite bei geringerem Gesamtstromverbrauch für ein 400G-Modul als vier 100G-Module.
Mit der Entwicklung immer leistungsfähigerer 56G PAM-4 ASIC-Chips (anwendungsspezifischer integrierter Schaltkreis) für Netzwerk-Switches von Unternehmen wie Broadcom, Innovium, Nephos und Barefoot Networks wächst die Nachfrage nach optischen Verbindungen und Modulen der nächsten Generation weiter.
Diese neuen ASICs liefern eine Bandbreite von 12,8 Tbit/s, was zu Switches der nächsten Generation führt, die 32 Ports mit 400 Gbit/s bereitstellen können. Wenn eine Rechenzentrumsarchitektur eine höhere Basis erfordert, können diese ASICs alternativ im umgekehrten Getriebemodus betrieben werden, sodass sie 128 Ports mit 100 Gbit/s bereitstellen können. Sowohl traditionelle OEMs wie Cisco und Arista als auch White-Box-Hersteller wie Accton, QCT und Celestica konkurrieren um die Produktion dieser schnelleren Switches, von denen viele bereits auf den Markt gebracht wurden. Mit der zunehmenden Verfügbarkeit von 400G-Switches ist es von entscheidender Bedeutung, dass auch optische und Kupferverbindungen qualifiziert und verfügbar sind, um den tatsächlichen Einsatz zu unterstützen.
Welche Faktoren treiben neue Bedürfnisse voran? Der Speicherbedarf von Rechenzentren steigt laut IDC jährlich um mehr als 50 Prozent, wobei die digitalen Informationen bis 2020 voraussichtlich auf 40 Zettabyte und bis 2025 auf 163 Zettabyte ansteigen werden. Zu diesem Wachstum tragen mehrere Schlüsselfaktoren bei, darunter eine Welle von Umstellungen in die Cloud Speicher, offene Systeme, Edge Computing, maschinelles Lernen, Deep Learning und künstliche Intelligenz.
Die virtuelle Realität hat gerade erst begonnen, sich in großem Umfang durchzusetzen. Und die Realität, dass selbstfahrende Fahrzeuge in absehbarer Zukunft zum Mainstream werden, wird die Infrastrukturen von Rechenzentren exponentiell belasten.
Geplante Obsoleszenz ist für Hyperscale-Rechenzentren, die die gesamte Netzwerkarchitektur im Durchschnitt etwa alle zwei Jahre aktualisieren, um mit den Bandbreitenanforderungen Schritt zu halten, immer eine Tatsache.
Die Lieferkette von Rechenzentren hat sich intensiviert, um immer leistungsfähigere, energieeffizientere und skalierbarere Lösungen zu schaffen. Derzeit liefern 100G-Technologien die schnellsten Verbindungen für Ethernet-Verbindungen. Die Implementierung von 100G- und 400G-Ethernet-Technologien wird in den kommenden Jahren weiter zunehmen, wobei letztere letztendlich die Führung übernehmen und sich zur vorherrschenden Geschwindigkeit bei Switch-Chips und Netzwerkplattformen entwickeln werden.
Was sehen wir, wenn wir nach vorne blicken? Eine beeindruckende Auswahl an Infrastrukturlösungen für Rechenzentren, die darauf ausgelegt sind, den wachsenden Hyperscale-Anforderungen nach höherer Bandbreite und Leistung gerecht zu werden. Lösungen der nächsten Generation, die Kupfer und Optik nutzen, bieten eine hohe Signalintegrität, geringere Latenz und geringere Einfügungsdämpfung für maximale Effizienz, Geschwindigkeit und Dichte.
Es gibt bereits Kupferkabel (DAC), die 400G erreichen können, während optische Transceiver, die 400G-Switch-Verbindungen ermöglichen, rasch qualifiziert werden, um die vollständige Markteinführung vorzubereiten. Derzeit befinden sich 100G-Single-Lambda- und 400G-Transceiver im Betatest und werden bald auf den Markt kommen. Der Hochlauf für 400G wird Mitte bis Ende 2019 beginnen, da Early Adopters, die eine höhere Bandbreite benötigen, diese Produkte einsetzen werden, noch bevor die Kosten für die Lieferkette sinken und ein Preisverfall einsetzt.
Viele Rechenzentren werden weiterhin 100G-CWDM4-Transceiver für Verbindungen mit größerer Reichweite einsetzen, während die Nachfrage nach 100G-PSM4 schnell verschwindet und Anbieter den Markt verlassen. Da die 100G-Single-Lambda-Transceiver-Produkte (100G-DR oder 100G-FR) Anfang 2019 erhältlich sein werden, wird davon ausgegangen, dass sie den 100G-CWDM4-Markt ausschlachten werden, da niedrigere Preiserwartungen bestehen und die Single-Lambda-Produkte außerdem direkt zusammenarbeiten können mit 400G-Transceivern in einer Breakout-Topologie.
Mit steigenden Bandbreiten wird die Branche weiterhin einen stetigen Ausstieg aus den 10G- und 40G-Technologien erleben, da diese durch optische Transceiver, Direct-Attach-Kabel (DAC) und aktive optische Kabel (AOC) ersetzt werden, die 100G, 200G, 400G und mehr unterstützen eine Reihe von Kommunikationen zwischen und innerhalb von Rechenzentren. QSFP-DD-Transceiver (Quad Small Form-Factor Pluggable Double Density) werden in dieser Aufwärtsspirale eine wichtige Rolle spielen.
Der QSFP-DD-Transceiver verfügt über eine achtspurige elektrische Schnittstelle, wobei jede Spur eine Datenrate von bis zu 50 G erreichen kann. Mit einer Leistung von bis zu 20 W (gemäß QSFP-DD MSA Rev 5.0) kann ein QSFP-DD-Modul mithilfe innovativer Kühlkörperfunktionen eine Leistung von 400 G in verschiedenen Reichweiten liefern. Das ist wichtig, da fortschrittliche ASICs mehr Strom verbrauchen und mehr Wärme ableiten, die der QSFP-DD-Formfaktor mit einer effektiven Wärmemanagementstrategie effizient abführen kann.
Der breitere und tiefere OSFP-Formfaktor (Octal Small Form Factor Pluggable) unterstützt auch 400G. Einer der Hauptvorteile des QSFP-DD-Transceivers gegenüber dem OSFP besteht darin, dass er vollständig abwärtskompatibel mit vorhandenen QSFP+- und QSFP28-Transceivern ist. Die 56G-PAM-4-Technologie wird allgemein als Schlüssel zur Ermöglichung von QSFP-DD- und OSFP-Formfaktor-Transceivern angesehen. Zur Unterstützung von 400G-Ethernet in Cloud-Anwendungen werden Plattformen eingeführt, die die Formfaktoren optischer QSFP-DD- und OSFP-Module integrieren. Diese neuen Plattformen bieten Abwärtskompatibilität mit 100G-Ports, um eine gestaffelte Implementierung in einem Rechenzentrum oder Unternehmen zu ermöglichen.
Unabhängig vom Formfaktor erfordern 400G-Transceiver den Einsatz eines DSP-Getriebes, um aus acht elektrischen 50G-Spuren vier optische 100G-Kanäle zu erstellen. Dies wird eine entscheidende Komponente in der Lieferkette sein und könnte eine wichtige Rolle bei der Fähigkeit von Transceiver-Lieferanten spielen, Produkte zu liefern und das Volumen zu erhöhen, um den hohen Anforderungen der Kunden von Rechenzentren gerecht zu werden. Die Verfügbarkeit weniger stromhungriger 7-nm-DSPs im Jahr 2019 wird diese Lieferkette weiter stören, da Transceiver-Anbieter versuchen, ihre Produkte zu differenzieren.
Molex hat 100G FR QSFP28- und 400G DR4 QSFP-DD-Produkte in Übereinstimmung mit dem 100G Lambda MSA demonstriert. Das Technologie-Ökosystem für Netzwerkgeräte der nächsten Generation fördert 112G PAM-4 als Grundlage zur Unterstützung von 400G-Lösungen für Rechenzentren mit hohem Volumen. Die MSA-Spezifikationen befassen sich mit den technischen Designherausforderungen beim Erreichen optischer Schnittstellen mithilfe der PAM-4-Technologie mit 100 G pro Wellenlänge und der Interoperabilität mit mehreren Anbietern. PAM-4-Technologien ermöglichen 100G optisch mit Reichweiten von 2 und 10 Kilometern und für 400G mit einer Reichweite von 2 Kilometern über Duplex-Singlemode-Glasfaser. Eine PAM-4-Plattform kann effektiv den ersten Grundstein für eine kostengünstige vollständige Migration auf 400G legen. Durch die Zusammenfassung von vier 100G-Lanes pro Wellenlänge kann die Technologieplattform 400G-Versionen wie 400G DR4, 400G FR4 und 4x100G für Breakout-Anwendungen unterstützen.
Moderne Kommunikationsnetze erfordern eine größere Bandbreite, um einer Datenexplosion auf globaler Ebene gerecht zu werden. Infolgedessen wachsen und entwickeln sich die Märkte für Rechenzentrums-Switches und -Transceiver rasant. Optische Hochgeschwindigkeits-Transceiver, flexible und skalierbare optische Transportprodukte, kompakte Steckverbinder und Glasfasermanagement sind wichtige Voraussetzungen für den Aufbau von 400G-Netzwerkgeräten für Telekommunikationsanbieter mit hohem Volumen, Unternehmen und Hyperscale-Rechenzentren.
Die Bewertung des Glasfasermanagements im Rechenzentrum bei 400G und darüber hinaus ist wichtig, und Produkte wie die Glasfaser-Aggregationsboxen von Molex bieten effiziente Lösungen für Systeme mit hohem Glasfaseranteil und ein organisiertes Glasfasermanagement. Diese Produkte können tote Kanäle reduzieren oder eliminieren und einen passiven Schaltort bieten, der kompakt ist und weder Strom noch Kühlung benötigt. Sie können auch die Konnektivitätslücke zwischen aktuellen LC-Duplex-Patching- und MPO-Steckverbinderlösungen der nächsten Generation mit hoher Dichte schließen. Ein Beispiel hierfür ist, dass ein Rechenzentrum über eine bestehende LC-Duplex-Glasfaseranlage verfügt, die CWDM4-Transceiver bei 100G verwendet, jetzt aber auf DR4 bei 400G umsteigt und eine parallele Glasfaserinfrastruktur benötigt.
Anbieter von Switch-ASICs für Rechenzentren haben bereits die allgemeine Verfügbarkeit von 56G PAM-4 12,8 Tbit/s ASICs angekündigt und arbeiten nun an 112G PAM-4 25,6 Tbit/s ASICs, die in der Lage wären, einen 32-Port-Switch anzutreiben, wobei jeder Port 800 Gbit/s leisten kann. Diese ASIC-Fähigkeit wird dann eine Reihe von Herausforderungen in Bezug auf Themen wie Signalintegrität, Thermik, Leistung und Verluste mit sich bringen, um nur einige zu nennen, und gleichzeitig die Frage aufwerfen, ob Verbindungen weiterhin modular sein können oder sollten, und wenn ja, welcher Formfaktor dies kann unterstütze dies realistischerweise.
Während Rechenzentrumsbetreiber Pläne für eine schnelle und kostengünstige Skalierung ausarbeiten, kann das Design der 100G- und 400G-Infrastruktur durch enge Zusammenarbeit mit Lieferanten optimiert werden, die über die Fähigkeiten, das Fachwissen und die Skalierbarkeit verfügen, die die heutigen Rechenzentren erfordern. Die Implementierung erfordert eine Orchestrierung, um die Datenübertragung zwischen Hunderten oder Tausenden von Komponenten zu koordinieren, um die optimale Rechenzentrumsstruktur zu erreichen, das Gesamtrisiko zu mindern und dynamische Anforderungen in der Zukunft zu erfüllen.