Die 5 wichtigsten Infrastrukturtrends 2016

0
17.12.2015ǀ ǀ Cloud

Was bringt 2016 für die IT-Infrastruktur?

Was bringt 2016 für die IT-Infrastruktur?

Was kommt auf IT-Leiter im nächsten Jahr zu? Welche Themen werden 2016 im Infrastrukturbereich wichtig? In meinen Augen werden uns diese Themen in den nächsten zwölf Monaten beschäftigen (und hoffentlich das Leben erleichtern): Container, Fog Computing, neue Prozessoren als Schubgeber für SDS, Cloud-Centric Design und virtuelle Netzwerke.

1. Cloud-Betriebssysteme und Container
Wer virtuelle Systeme auf Basis von OpenStack oder anderen Infrastrukturmanagementlösungen betreibt, nutzt die Funktionalitäten von Linux-Distributionen wie Ubuntu, SUSE, Red Hat & Co. Diese Systeme sind aber für den Einsatz in der Cloud gar nicht vorgesehen.
Aus diesem Grund haben minimalistische Cloud-Betriebssysteme wie Core OS an Popularität gewonnen. Core OS versteht sich als Werkzeugsammlung, um den Betrieb von Containern in einem großen Verbund zu verwalten. Anfänglich setzte Core OS auf Docker als Container-Format. Inzwischen haben sich die Core OS-Gründer aber aus Sicherheitsgründen und wegen des Umfangs, den die Container-Plattform inzwischen angenommen hat, von Docker losgesagt und entwickeln ihre eigene Implementierung namens Rocket.
Die gleiche Richtung schlägt auch Ubuntu ein. Canonical setzt ebenfalls auf sein eigenes Containerprodukt LXD. LXD ist ein Aufsatz für die virtuelle Umgebung LXC (Linux Containers) und erlaubt damit den verteilten Betrieb von LXC-Containern in einer OpenStack-Installation. Da derzeit die meisten OpenStack-Clouds unter Ubuntu laufen, ist für ihre Betreiber LXD das optimale Container-Format.
Fazit: Monolithisches Applikationsdesign fällt langsam aus der Zeit. Die Architektur der Zukunft erfordert mehr Agilität und Flexibilität. Sie orientiert sich an Services und funktioniert nach dem Software-Defined-Ansatz. Die technologischen Grundlagen bilden Cloud-Betriebssysteme und Container. Anwender sollten sich nicht frühzeitig auf populäre Container wie Docker festlegen, weil hier das letzte Wort noch nicht gesprochen ist. Dadurch dass sich die Hersteller von (Cloud-)Betriebssystemen immer stärker ihrer eigenen Container-Software zuwenden, werden ihre Lösungen für Anwender 2016 deutlich interessanter werden.

2. Fog Computing für die Ära des IoT (Internet of Things)
Fog Computing oder Distributed Computing (geografisch verteilt über heterogene Plattformen) ist ein neues Technologiemodell, das Cloud Computing um Network Edge (auf Geräteebene Router und Switches und auf Netzebene 3G) erweitert. Ähnlich wie die Cloud bietet ein Fog Daten-, Rechen-, Storage- und Application Services. Der Unterschied: ein Fog konzentriert Daten, Prozesse und Applikationen in Devices, unterstützt geografische Verteilung und Mobilfunk. Konzentriert meint, dass die Daten lokal in Smart Devices verarbeitet anstatt zur Verarbeitung in die Cloud gesandt werden. Services werden auf Network Appliance gehostet oder direkt auf Geräten wie Set-Top-Boxen oder Access Points. In einer Fog Computing-Umgebung würde ein großer Teil der Verarbeitung also direkt z.B. in einem Router stattfinden anstatt die Daten zu übertragen.
Cloud und Fog Computing konkurrieren nicht miteinander, sondern Fog Computing ist ein Ansatz für den Umgang mit den Anforderungen der ständig steigenden Anzahl an Internet-verbundenen Geräten. Damit ist Fog eine Erweiterung der Cloud im Zeitalter des „Internet of Things“ (IoT). IoT erfordert nämlich eine neue Schichtenarchitektur, die Edge Computing unterstützt. Einige IoT Cloud Provider setzen Fog Computing um, indem sie eigene Clients auf Netzwerk Appliances installieren.
Fazit: Fog Computing ist besser gerüstet für die zukünftigen Anforderungen als Cloud Computing. Es wird deshalb auch 2016 eine immer entscheidendere Rolle im Internet of Things spielen. Während das theoretische Konzept schon sehr weit ist, müssen für den Praxiseinsatz noch offene Fragen wie Sicherheit, Vertraulichkeit und Zuverlässigkeit geklärt werden. Das Fog-Thema wird aber wachsen, da es hilft, die neuen Network-Paradigmen mit schnellerer Datenverarbeitung und weniger Verzögerungen bei der Übertragung zu erfüllen. Trotzdem wird Cloud Computing mit seinen High-end Computing-Anforderungen seine Daseinsberechtigung für Unternehmen nicht verlieren.

3. Neue Intel-Prozessoren: Performance-Schub für Software-Defined Storage
Bei den Prozessoren für Cloud- und Storage-Server will Intel dem Konkurrenten ARM nicht das Feld überlassen: ab 2016 sollen neue Xeon-D-Prozessen den weit verbreiteten ARM-SoCs-Produkten Paroli bieten. Intels Storage-CPUs sind besonders interessant für SDS-Software (Software-Defined-Storage) wie zum Beispiel Ceph oder openATTIC. Bei Ceph hat der OSD-Prozess der Festplatte Auswirkungen auf die CPU-Auslastung, da er I/O zwischen Netzwerk und HDD produziert. Wenn Aufgaben wie „Erasure Coding“ oder On-Disk-Verschlüsselung ausgeführt werden, steigt die CPU-Auslastung stark an.
Den Markt aufmischen dürfte Intels Open Source-Initiative. Intel greift mit zwei Open Source-Kits den Entwicklern von Software für Storage- und Netzwerksysteme unter die Arme: Die Storage Acceleration Library beschleunigt Speicher-Aufgaben, wodurch Prozessoren wie der Xeon D-1500 eine besonders hohe Performance liefern sollen können. Zusätzlich bietet Intel ein Storage Performance Development Kit an, um High Performance und skalierbare Storage Anwendungen zu entwickeln. Beide Pakete stehen unter einer Open Source Lizenz, damit „Software-Architekten und Entwickler ihre Storage Lösungen optimieren“ können.
Fazit: SDS setzt auf Standard-Hardware. Wenn Intel mit seinen Storage-Prozessoren explizit SDS-Applikationen unterstützt, dann wird die Hardware für diese Lösungen immer leistungsfähiger und dank Intels Marktdurchdringung auch preiswerter. Zudem fördert Intel mit seinen Open Source Developer Tools die Storage-Software Entwicklung auf Intel Basis. Die Luft für proprietäre und hochpreisige HW-Storage Hersteller dürfte damit 2016 dünner werden.

4. Hybrid Cloud verzögert sich oder: Cloud-Centric Design wird eine Notwendigkeit
Hybrid Clouds sind für Unternehmen vor allem deshalb attraktiv, weil die Anwendungsausführung so weit wie möglich in der IT des Unternehmens selbst erfolgt. Nur zu hohen Lastzeiten wird die Abarbeitung in eine öffentliche Cloud ausgelagert. Mit der richtigen Software bieten Hybrid Clouds damit Unternehmen die Möglichkeit, ihre Rechenzentren zu verkleinern, Kosten zu senken und die Energieeffizienz zu verbessern.
Was sich für viele CIOs in der Theorie nach einer idealen Lösung anhört, hat in der Praxis leider einige Ecken und Kanten. Das hauptsächliche Problem besteht darin, dass die meisten Anwendungen noch nicht auf eine derartige Auslagerung ausgelegt sind. Unternehmen können nur dann in vollem Umfang vom Konzept der Hybrid Clouds profitieren, wenn ihre Software auch Cloud-Architekturen unterstützt. Das ist aber in den meisten Anwenderfirmen noch nicht der Fall. Laut Gartner werden in den nächsten Jahren mehr als 60% der Cloud-Projekte darin bestehen, bei bestehenden Anwendungen erneut die Cloud-Unterstützung zu implementieren.
Fazit: Um das Potential eines Cloud-Modells voll auszunutzen, müssen Anwendungen mit den besonderen Eigenschaften, Limitierungen und Chancen des Cloud-Modells im Hinterkopf neu konzipiert werden. Unternehmen sind 2016 gut beraten, wenn sie ihren Fokus nicht länger auf die Migration der Enterprise Workloads richten, sondern zukünftig mehr in die Schaffung von Cloud-optimierten Applikationen (Cloud-Centric Design) investieren. Erst dann können sie das volle Leistungsvermögen der Cloud ausschöpfen.

5. Der hinterherhinkende Trend: Virtuelle und softwarekonfigurierbare Netzwerke
Daten und Anwendungen wandern zunehmend in die Cloud. Notwendig ist daher ein stabiles Netzwerk, das diese Datenflut sicher zur Verfügung stellt. Virtuelle Netzwerke sind der fehlende Baustein, damit Unternehmen Virtualisierung vollständig nutzen können.
Das aktuelle Netzwerkdesign ist für feste Muster, vorhersehbare Bandbreite und gut definierte Endpunkte optimiert. Für die Anforderungen in der Vergangenheit reicht das aus, aber heute müssen viele Server, Services, Data Stores und Clouds, inklusive Mobilgeräten unterstützt werden – und das weltweit verteilt und mit schwankenden Datenvolumina. Software-Defined Network (SDN) hilft, diese neuen Anforderungen und ihre Komplexität in den Griff zu bekommen. Dazu kommen u.a. Workload-Monitoring, programmierbare Weiterleitungen und automatische Switch-Konfigurationen zum Einsatz.
Fazit: Softwarekonfigurierbare Netzwerke bzw. virtuelle Netzwerke werden in Zukunft die Unternehmensnetze revolutionieren. Infrastrukturen, bei denen die Funktionsebenen eines Netzwerkes in virtuelle Services ausgelagert werden, bilden die grundlegende Basis für moderne Technologien wie Software-Defined Datacenter (SDDC), Cloud Computing, Virtualisierung oder Big Data.

Tags: , , ,

Steffen Rieger - Director Infrastructure & Operations
Steffen Rieger leitet den Bereich Infrastruktur bei it-novum. Das umfasst den strategischen Vertrieb von Open Source Datacenter-Lösungen, den Betrieb der Rechenzentren der Konzerngruppe sowie die Leitung diverser operativer Teams.

Kommentar schreiben

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.