Neue Herausforderungen durch Cloud Computing
Im Idealfall bedeutet Cloud Computing, dass Hosted Services in einer vorhersehbaren und zuverlässigen Weise über ein Shared WAN (Wide Area Network) wie das Internet bereitgestellt werden. Unabhängig davon, in welcher Form und für welchen Anwendungszweck Cloud Computing zum Einsatz kommt, weisen alle Ansätze eine Gemeinsamkeit auf: Die Daten lagern an einem zentralen Ort, dem Cloud-Rechenzentrum, während die Nutzer von unterschiedlichen Standorten aus darauf zugreifen. Doch exakt diese Konstellation kann dazu führen, dass die Cloud-Computing-Projekte eines Unternehmens oder einer Organisation ins Leere laufen. Wenn dieser Fall eintritt, stehen die gesamten Investitionen in ein solches Projekt auf dem Spiel.
IT-Verantwortliche müssen sich vor allem der Tatsache bewusst sein, dass drei Faktoren den Datendurchsatz beim Replizieren von Informationen zwischen räumlich entfernten Standorten oder Rechenzentren maßgeblich beeinflussen - und damit den Erfolg von Cloud-Storage-Projekten. Und alle drei Punkte hängen eng mit der Netzwerkinfrastruktur zusammen:
· Eine zu geringe Bandbreite der WAN-Verbindungen,
· zu hohe Verzögerungszeiten (Latenzzeiten, Latency) beim Transport der Daten, bedingt durch die Entfernungen, die überbrückt werden müssen, sowie
· eine ungenügende Qualität des Netzwerks, die beispielsweise durch eine zu hohe Verlustrate von Datenpaketen (Packet Loss Rate) hervorgerufen wird.
Mehr Bandbreite hilft nicht weiter
Lösungsansätze, die auf den ersten Blick praktikabel erscheinen, erweisen sich in der Praxis oft als unzureichend. Sind beispielsweise wegen der großen Entfernung zwischen Firmenstandorten beziehungsweise Rechenzentren die Latenzzeiten zu hoch, hilft auch eine größere WAN-Bandbreite nicht weiter. Das ist auch dann der Fall, wenn wegen Überlastung des Netzwerks zu viele Datenpakete verloren gehen oder diese beim Empfänger in der falschen Reihenfolge eintreffen. Speziell bei Internet-Verbindungen und in MPLS-Netzen (Multi-Protocol Label Switching) treten diese Phänomene häufig auf.
WAN-Leitungen mit größerer Bandbreite zu ordern, bietet in solchen Fällen keinen Ausweg, wie sich mathematisch nachweisen lässt. So sinkt der Datendurchsatz selbst bei einer WAN-Verbindung mit mehr als 40 MBit/s auf unter 10 MBit/s, wenn die Paketverlustrate (Packet Loss Rate) zwei Prozent übersteigt und die Latenzzeit bei 10 Millisekunden liegt. Derselbe Effekt tritt auf, wenn der WAN-Link eine noch größere Kapazität hat und somit theoretisch eine höhere Bandbreite zur Verfügung stehen müsste. Unternehmen und Organisationen, die auf diese vermeintliche Lösung setzen, verschwenden somit Geld.
Die Lösung: Das Netzwerk optimieren
Unternehmen müssen sich deshalb darüber klar werden, dass es nur eine Lösung gibt, um die stetig wachsendenden Datenmengen in den Griff zu bekommen, die Cloud-basierte Storage-Lösungen mit sich bringen: ein leistungsstarkes, effizientes Netzwerk. Eine Schlüsselrolle spielt dabei die Optimierung der Weitverkehrsverbindungen. Mithilfe von WAN-Optimierungslösungen können Unternehmen und Organisationen den Datenverkehr im Netzwerk um bis zu 90 Prozent reduzieren und zudem die Skalierbarkeit von vorhandenen und künftigen Anwendungen sicherstellen.
WAN-Optimierung ist vor allem dann unverzichtbar, wenn große Datenmengen über Netzwerke transportiert werden müssen. Dies ist beim Zugriff auf Cloud-Storage-Services und beim Replizieren von Datenbeständen zwischen Rechenzentren der Fall. Zudem stellen WAN Optimization Appliances sicher, dass Daten und Applikationen für Anwender schnell und auf einfache Weise zugänglich sind. Speziell dann, wenn Informationen über ein WAN zwischen mehreren Standorten repliziert werden sollen, müssen alle drei genannten Problempunkte beseitigt werden. Erst dann sind die Voraussetzungen erfüllt, um Cloud Storage erfolgreich zu nutzen und Recovery Point Objectives einzuhalten.
Drei Optimierungstechniken ebnen Weg zu Cloud-Storage
Ausgereifte WAN-Optimierungs-Appliances, wie etwa die Lösungen der Reihe Silver Peak VX, VRX und NX, nutzen mehrere Echtzeit-Optimierungstechniken:
· Die Reduzierung von Latenzzeiten mithilfe von Verfahren, welche die Datenübermittlung über bestimmte Protokolle beschleunigen. Das verringert den negativen Einfluss von großen Übertragungsdistanzen auf die Netzwerk-Performance;
· Forward Error Correction (FOC) und Packet Order Correction (POC), um in Echtzeit eine reibungslose Übermittlung von Datenpaketen sicherzustellen. FOC und POC werden durch Quality-of-Service-Mechanismen (QoS) ergänzt. Diese ermöglichen es dem IT-Manager, wichtigen Anwendungen, die zudem empfindlich auf hohe Latenzzeiten und Paketverluste reagieren, die erforderlichen Ressourcen zur Verfügung zu stellen. Solche Applikationen sind beispielsweise Voice und Video over IP sowie die Datenreplizierung;
· Deduplizierung und Komprimierung von Datenpaketen, um eine optimale Ausnutzung der Netzwerkbandbreite sicherzustellen. Werden mehrfach vorhandene Daten auf der Netzwerk-Ebene (Network Layer) ausgefiltert und durch Zeiger (Pointer) ersetzt, erhöht dies die Effizienz von Geschäftsanwendungen deutlich.
Reduzierung der Datenmenge um bis zu 99 Prozent
Mit Deduplizierung lässt sich der Datenverkehr auf WAN-Strecken sich je nach Datentyp um bis zu 99 Prozent reduzieren. Dies sind Werte, die bei Dateien erreicht werden, bei denen sich nur wenige Details ändern, etwa bei CAD/CAM-Dokumenten. Bei Office-Dokumenten, die in stärkerem Maße verändert werden, fällt die Deduplizierungsquote niedriger aus.
Bei Forward Error Correction wird zusammen mit einer bestimmten Zahl von Paketen ein Fehlerkorrektur-Paket mitübertragen. Die Netzwerkkomponenten beim Empfänger sind mithilfe dieses zusätzlichen Pakets in der Lage, verlorene Datenpakete zu rekonstruieren. Bei einer FEC-Rate von 1:10, also einem Fehlerkorrektur-Paket pro zehn Datenpaketen, lässt sich die Packet Loss Rate von 1 Prozent auf 0,09 Prozent verringern.
Um die Latenzzeiten zu verringern, verwenden WAN-Optimierungssysteme mehrere Techniken. Diese setzen bei den Übertragungsprotokollen TCP, IP und UDP und CIFS (Common Internet File System) an. Zu den eingesetzten Verfahren zählen eine exakte Messung der Round Trip Time (RTT) der Datenpakete, ein größeres Sende- und Empfangsfenster von TCP-Paketen von bis zu 1 Gigabyte statt der üblichen 64 Kilobyte sowie eine Überlastkontrolle (Congestion Control) wie HighSpeed TCP von Silver Peak. Sie passt die TCP-Sende- und Empfangsfenster entsprechend der aktuellen Packet Loss Rate einer WAN-Verbindung an.
Höhere Übertragungsdistanzen
Mithilfe dieser Technologien lassen sich die Latenzzeiten auf weniger als 100 Millisekunden verringern. Höhere Latency-Werte sind für zeitkritische Anwendungen wie das Replizieren von Daten nicht akzeptabel. Zudem lassen sich bei niedrigen Latenzzeiten Daten über größere Entfernungen hinweg replizieren. Bei synchroner Datenreplikation sind ohne WAN-Optimierung rund 150 Kilometer das Maximum, bei Einsatz dieser Technik bis zu 1000 Kilometer.
Die Investitionen in WAN-Optimierungssysteme, die den Zugang zu Cloud-Speicher-Ressourcen erleichtern, kommen somit auch anderen Applikationen zugute. Denn dank WAN-Optimierung können Daten aller Art über größere Entfernungen übermittelt werden und stehen Usern in kürzerer Zeit zur Verfügung.
Fazit: Ohne WAN-Optimierung kein Cloud Storage
Zusammenfassend lässt sich sagen, dass WAN-Optimierung wichtiger denn je ist, vor allem dann, wenn Unternehmen verstärkt auf Speicherkapazitäten in der Cloud zurückgreifen. Nur wenn eine optimierte Netzwerk-Infrastruktur zur Verfügung steht, zahlen sich die Investitionen in Cloud-basierte Storage-Lösungen aus. Die Fakten sprechen für sich: Mit WAN Optimization lassen sich Daten 20 Mal schneller über Netzwerkverbindungen übermitteln; der Prozentsatz Daten, die mehrfach übertragen werden müssen, sinkt um mehr als 50 Prozent.
Daher ist WAN-Optimierung unverzichtbar, wenn ein Unternehmen die angestrebten Wiederherstellungszeiten nach einem Daten-GAU einhalten will und Cloud-Anwendungen auf effiziente Weise nutzen möchte. Wer dies ignoriert, nimmt in Kauf, dass sich seine Investitionen in Cloud-Services nicht auszahlen oder solche Projekte im Extremfall komplett scheitern. Und dieses Risiko sollte heutzutage kein Unternehmen eingehen.