Leitfaden für die Einführung einer Cloud im Unternehmen – Teil 3: Computing, Networking, Storage

0
04.11.2014ǀ ǀ Cloud
Entscheidungshilfe Cloud

Entscheidungshilfe Cloud

Nachdem ich in den ersten Teilen der Artikelserie auf die Geschäftsprozessseite und den IT-organisatorischen Teil der Cloud eingegangen bin, können wir in diesem Beitrag endlich in die Cloud abheben. Bei der Planung der eigentlichen Cloud lassen sich drei zentrale Bereiche bei der Bereitstellung von Ressourcen unterscheiden: Computing, Networking und Storage.

Computing
Im Bereich Computing werden die eigentlichen Rechenkapazitäten (CPU-Leistung und Arbeitsspeicher) zusammengefasst. Dabei kann es sich sowohl um eine virtualisierte Umgebung als auch um einen Pool aus dedizierten Servern handeln, die den Endanwendern direkt zur Verfügung gestellt werden. Im Regelfall ist eine vollständige Virtualisierung die flexibelste und kostengünstigste Variante.

Unternehmen sollten darauf achten, dass unterschiedliche Virtualisierungslösungen in die von ihnen gewählte Managementlösung integrierbar sind. Durch die Bereitstellung von OpenStack-Treibern zu KVM, VMware, XEN, Microsoft Hyper-V, libvirt und anderen Virtualisierungslösungen können mehrere Plattformen nahtlos miteinander integriert werden. Geschäftskritische Applikationen, die aus Support-Gründen eine proprietäre Virtualisierung erfordern, lassen sich auf diese Weise parallel zu Entwicklungsumgebungen auf einem kostengünstigen KVM betreiben.

Das Konzept eines übergeordneten Managements, das herstellerübergreifend agiert und auch dedizierte Server integriert, nennt man Software-Defined-Computing, kurz SDC. Während die Virtualisierung die Abstraktion von der Hardware-Plattform beschreibt, bezeichnet SDC ein höheres Level der Abstraktion. Dabei werden sowohl die zur Verfügung stehenden Ressourcen von der Hardware als auch die eingesetzte Virtualisierung vom Hersteller abstrahiert. Die Software-Schicht schafft damit ein in alle Richtungen flexibles Framework. Durch den SDC-Ansatz wird die Planung und Umsetzung der Virtualisierung für die meisten Cloud-Installationen deutlich vereinfacht.

Networking
Die Verwaltung von unterschiedlichen Netzwerken und der zur Verfügung stehenden Bandbreite kann sehr komplex werden. Der Umgang mit vielen voneinander getrennt zu behandelnden Netzwerken muss im automatisierten Management der Cloud berücksichtigt werden, sowohl bei der Konfiguration der Server-Instanzen wie auch bei den auf Switches hinterlegten Port- und VLAN-Konfigurationen. Einige Hersteller bieten zwar proprietäre Schnittstellen an, über die die Konfigurationen angepasst werden können, allerdings kann deren Implementierung in die Automatismen schnell zu einem Vendor-Lock-in führen. Deshalb sollten offene Standards wie zum Beispiel „openFlow“ (www.opennetworking.org) bevorzugt werden.

Ähnlich wie beim Computing hat sich auch im Netzwerk-Segment ein neuer Begriff für diese Art des Managements etabliert: Software-Defined-Networking, kurz SDN. Die damit eingeführte Softwareschicht übernimmt die Aufgaben dezentraler, meist auf proprietären Betriebssystemen basierender Netzwerkgeräte und führt sie an zentraler Stelle zusammen.

Storage
Auch bei der Verwaltung von Speicherressourcen müssen das Management und die technischen Funktionalitäten von der Hardware getrennt werden, um ein flexibles Framework zu schaffen. Sie ahnen es bereits: auch für dieses Problem ist die Lösung ein softwarebasiertes Framework. Dieses ist eine Weiterentwicklung der Storage Area Network-Virtualisierungen (SAN), ist aber noch herstellerunabhängiger. Für dieses Ressourcensegment hat sich die Bezeichnung Software-Defined-Storage (SDS) eingebürgert. Aufgrund des großen Funktionsumfangs dieser Lösungen sollten vor der Entscheidung für ein SDS-Framework einige grundlegende Fragen beantwortet werden:

Unterstützt das SDS-Framework eine breite Protokollbasis?
Für den Betrieb von Datenbanken innerhalb eines virtuellen Servers muss eine dedizierte Logical Unit Number (LUN) angebunden werden, während vorhandene Umgebungen zu einem Mischbetrieb von Fibrechannel und iSCSI (internet Small Computer System Interface) führen. Die Endanwender benötigen Dateifreigaben über NFS (Network File System) oder CIFS (Common Internet File System).

Wie kann mit dem SDS-Framework eine Hochverfügbarkeit sichergestellt werden und ist das auch standortübergreifend möglich?
Eine synchrone und konsistente Spiegelung der Daten in Verbindung mit einem transparenten Failover-Konzept ist essentiell, um Ausfallzeiten, Datenverlust und Performanceeinbußen zu vermeiden. Ist darüber hinaus eine standortübergreifende Redundanz mit Datenspiegelung über eine WAN-Strecke erforderlich, wird die Liste einsatzfähiger Storage-Frameworks auf einen Schlag übersichtlicher.

Wie effizient und ressourcenschonend ist das SDS-Framework bei der Ablage von Daten?
Durch Deduplizierung kann in homogenen Umgebungen der benötigte Speicherplatz um bis zu 50 Prozent reduziert werden. Darüber hinaus schonen eine zusätzliche Komprimierung, insbesondere von Mediendaten, und die Verwendung von Snapshots zur Datensicherung die Speicherressourcen. Das gewählte Storage-System sollte alle drei Methoden unterstützten.

Besteht die Möglichkeit der Überbuchung von vorhandenen Speicherressourcen?
Für eine effiziente Auslastung der vorhandenen Ressourcen können Cloud-Betreiber ihren Nutzern mehr Speicherplatz zur Verfügung stellen als physisch vorhanden ist, wenn ihr System ein sogenanntes Over-Commitment unterstützt. Statt also für jeden Nutzer jederzeit die gesamten ihm zugesicherten Ressourcen exklusiv zu reservieren, belegt ein Nutzeraccount nur den tatsächlich genutzten Speicherplatz und erhält bei Bedarf weiteren Speicher aus einer gemeinsamen Reserve. Unplanmäßige Auslastungsspitzen können bei einem zu großen Over-Commitment aber schnell zu Problemen bis hin zum Stillstand des Gesamtsystems führen. Eine vorherige Risikoanalyse ist deshalb unverzichtbar. Damit diese Option in Zukunft offensteht, sollte das gewählte Storage-System die Fähigkeit zum Over-Commitment aber auch dann mitbringen, wenn aktuell nicht geplant ist, diese zu nutzen.

Wie effizient skaliert das Storage Framework?
Im Storage-Umfeld werden zwei Arten der Skalierung unterschieden: Das Scale-Up-Prinzip und das Scale-Out-Prinzip. Scale-Up bezeichnet die Erweiterung bestehender Storage-Nodes um zusätzlichen Speicher. Es hat den Nachteil, dass sämtliche Daten auf eine größere Baureihe migriert werden müssen, wenn die maximale Speicherunterstützung des Storage-Kopfs erreicht ist. Beim Scale-Out-Prinzip werden zusätzliche Speichersysteme neben die alten gestellt und ein zentrales Management integriert sie in einen einheitlichen Ressourcen-Pool. Neben der zusätzlichen Flexibilität bietet diese Variante auch eine mit der Speichergröße steigende Bandbreite der Anbindung, ist fast unbegrenzt skalierbar und verursacht geringe Kosten (Total cost of ownership).

Wie lässt sich die Bereitstellung und Zuordnung von Speicher automatisieren?
Das SDS-Framework muss dafür eine AP mitbringen, über die sich alle Funktionalitäten bedienen lassen. Außerdem muss es selbst bei verteilten Anlagen möglich sein, das System darüber zu überwachen. Wichtig ist deshalb, dass sich nicht nur die Deployment-Anforderungen darüber abbilden lassen, sondern auch administrative Vorgänge.

Wie wird das Framework in die Datensicherungsprozesse integriert?
Für eine Cloud-Umgebung ist eine herkömmliche, agentenbasierte Sicherung zu unflexibel. Snapshot-basierte Sicherungsmechanismen haben den Vorteil, dass sie das Produktivsystem nur wenige Sekunden beeinflussen und die gesicherten Daten auf ein getrenntes Speichersystem übertragen.  Von dort aus können sie dann – ohne Performance-Einbußen am Produktivsystem zu verursachen – in einen zusätzlichen Brandabschnitt oder ein Langzeitarchiv gesichert werden. Für die Sicherung von Datenbanken oder von vollständigen virtuellen Maschinen ist allerdings eine Erweiterung der Snapshot-Funktionalität notwendig. Das Storage Framework interagiert dann mit dem Zielsystem, bereitet es auf den Backup-Prozess vor und sorgt so für eine zuverlässige Konsistenz der Snapshots. Weil es dafür mit herstellerspezifischen Schnittstellen kommunizieren muss, sollte das gewählte Storage-System eine große Anzahl an Agenten bereitstellen.

Nach diesem Blick auf die Bereitstellung von Ressourcen für die Cloud wird der Fokus im vierten Teil unserer Blogserie in eine etwas andere Richtung gehen: Dann beschäftigen wir uns mit den Parallelen von Open Source und Cloud. Schauen Sie also wieder rein!

Tags: , , ,

Steffen Rieger - Director Infrastructure & Operations
Steffen Rieger leitet den Bereich Infrastruktur bei it-novum. Das umfasst den strategischen Vertrieb von Open Source Datacenter-Lösungen, den Betrieb der Rechenzentren der Konzerngruppe sowie die Leitung diverser operativer Teams für Consulting, Development und Support mit den Schwerpunkten Monitoring, Servicemanagement und Business Critical Computing. Nach 15 Jahren Erfahrung in diesem Bereich ist Steffen aber immer noch mit Leidenschaft als Open Source Enterprise Architekt an der Front unterwegs, regelmäßig auf Konferenzen und Symposien zu hören und als Experte der Computerwoche aktiv. Die Open Source-Projekte openITCOCKPIT und openATTIC hat er federführend mitentwickelt.
Webprofile von Steffen: Twitter, XING, Google+

Kommentar schreiben

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.