Close

6. Dezember 2016

Die Evolution der Enterprise Infrastruktur

Moderne und verändernde Geschäftsmodelle haben die Anforderungen an die IT-Infrastruktur in den letzten Monaten stark verändert. Ständig wechselnde Marktsituationen erfordern immer schnellere Entscheidungen und höhere Flexibilität. Und Zeit ist bekanntlich Geld. Dabei stehen wir erst am Anfang des digitalen Wandels.

Heterogene IT-Infrastrukturen, bestehend aus Speicher, Netzwerk und Server, stossen immer mehr an ihre Grenzen. Neuinvestitionen oder Erweiterungen durchlaufen in einer klassischen Drei-Tier-Architektur oft lange Prozesse und Abteilungen. Soll zum Beispiel eine neue Applikation publiziert werden, welche Kundendaten sammelt und beim nächsten Einkauf anhand von älteren Einkäufen dem Kunden Vorschläge unterbreitet, stellt das neue Anforderungen an die IT-Infrastruktur. So muss beispielsweise mit dem Speicherspezialisten geklärt werden, ob die notwendige Festplattenkapazität und -geschwindigkeit ausreichen. Der Server-Administrator kümmert sich um die Beschaffung neuer Server-Systeme und auch die Netzwerk- und Security-Abteilungen haben ein Wort mitzureden.

Mit den wachsenden Anforderungen wird auch die Infrastruktur immer wie grösser und auch immer wie komplexer. Was vor allem im Betrieb und der Fehlersuche im Alltag eine immer grösser werdende Herausforderung wird. Einerseits sind für die einzelnen Komponenten unterschiedliche Verwaltungskonsolen im Einsatz, andererseits müssen diese auch alle separat gewartet werden.

Trends wie Internet of Things (IoT), Cloud-Computing, Software-Defined Datacenter (SDDC) und hyper-konvergente Systeme sind Reaktionen auf veränderte Geschäftsmodelle. Durch den hyper-konvergenten Ansatz sollen einerseits die Betriebskosten gesenkt aber auch die Verwaltung der Infrastruktur erleichtert werden. Der Ansatz ist eigentlich nichts Neues, denn alle grossen Cloud-Rechenzentren (Microsoft, Google, Amazon, Facebook) betreiben ihre Infrastrukturen schon lange hyper-konvergent.

Von konvergent zu hyper-konvergent

Als ersten Ansatz der Konvergenz wurden die Hardware-Komponenten Server, Netzwerk und Speicher zusammengeführt und in einer vorab getesteten und validierten Lösung verkauft. Durch den Wegfall einzelner Komponenten und der dazu benötigten Verkabelung, liess sich bereits ein Teil der Komplexität aus der Gesamtlösung extrahieren. Durch die Virtualisierung, und die damit verbundene Verschiebung des Workloads in virtuelle Server, wurde ein wichtiger Teil im Betrieb ausser Acht gelassen – der Software Stack.

3tier-to-hyperconverged

3-Tier und hyper-konvergente Architektur

Im Gegenzug zu heterogenen Drei-Tier Architekturen oder konvergenten Systemen liegt der Fokus bei Hyper-konvergenz in der Software. Hyper-konvergenz ist die konsequente Weiterführung der Konvergenz. Durch den Software-Ansatz lassen sich die Systeme völlig modular skalieren. Bevor wir uns näher mit dem Thema hyper-konvergent beschäftigen, schweifen wir kurz über das Thema SDDC (Software Defined Data Center), was eine grundlegende Basis der Hyper-konvergenz bildet.

Software Defined Datacenter (SDDC)

Ziel des SDDC ist die Verbesserung der zur Verfügung gestellten IT Services. Dies soll durch die zentrale Verwaltung und Kontrolle der Infrastruktur sowie einem umfassenden IT- und Service-Management erreicht werden.

Eine Kernkomponente des SDDC ist die Virtualisierung, welche weit über die Servervirtualisierung hinausgeht. Auch das Netzwerk (Software Defined Networking) und der Speicher (Software Defined Storage) werden virtualisiert. Weitere Komponenten wie eine Deduplizierung-Engine oder WAN-Optimierungen sind Teil des SDDC. Durch die Virtualisierungsschicht werden sämtliche Hardware-Komponenten von der Software abstrahiert.  Welche Hardware dabei eingesetzt wird, hängt immer weniger von Server-, Speicher oder Netzwerk-Komponenten ab.

Durch die Abstrahierung und die durchzogene Virtualisierung sämtlicher Komponenten wird auch das Thema Automatisierung in privaten Rechenzentren immer interessanter. Bislang waren die Infrastrukturen so vielfältig und komplex, dass es fast unmöglich war diese zu automatisieren. Mittels SDDC kommt man dem automatisierten Datacenter einen grossen Schritt näher. Durch die durchgängige Integration lassen sich über vorgefertigte Workflows oder Self-Service-Portale ohne grosse Programmierkenntnisse einfache Prozesse abbilden und automatisieren. Zusätzlich lassen sich durch Schnittstellen und Automatisierungshilfen wie APIs (Application Programming Interfaces) der komplette Software-Stack steuern. Damit sich IT-Dienste künftig auch effizient betreiben lassen, sind solche Automatisierungsmechanismen unumgänglich. Auch bilden diese die Basis, damit IT Dienste effektiv als Service betrieben und genutzt werden können (IT as a Service).

Vorteile der Hyper-Konvergenz

Hyper-konvergente Systeme vereinen die wichtigsten Kernfunktionen einer IT-Infrastruktur wie Server, Netzwerk, Speicher und Virtualisierung, in einer zentralen Appliance. Die Daten liegen da, wo sich die virtuelle Maschine befindet und müssen nicht mehr über ein SAN (Storage Area Network) hinweg gelesen werden. Durch die Konsolidierung der einzelnen Stacks sind diese untereinander perfekt abgestimmt, was neben einer spürbar besseren Performance viele weitere Vorteile mit sich bringt. So sind die einzelnen Stacks zentral aus einer Konsole verwaltbar, was die Komplexität drastisch verringert. Auch die modulare Skalierbarkeit ist ein grosser Mehrwert, welche die Lösung mit sich bringt: Ich kaufe was ich brauche.

Hyper-konvergente Appliances können in sich oder über weitere Appliances oder Nodes erweitert werden. Bei vielen Lösungen lassen sich diese Erweiterungen automatisch und ohne Unterbruch im Betrieb durchführen. Zeitraubende Kommunikation und Meetings unter den Teams (Speicher, Netzwerk, Server) entfallen. Die zu Beginn erwähnte und lästige Bereitstellungszeit, welche sich in heterogenen Infrastrukturen bis auf mehrere Monate herauszögerte, kann auf wenige Stunden reduziert werden.

Die Xtreme Computing Plattform, die Hyper-konvergente Lösung von Nutanix bietet einen weiteren Vorteil: Es gibt keinen einzigen «Single Point of Failure». Das System wurde so konzipiert, das etwas ausfallen kann. Zudem wird alles verteilt und nichts wird mehr gemeinsam genutzt. Sogenannte „Self-healing“-Mechanismen sorgen für eine automatische Wiederherstellung beeinträchtigter Dienste.

Durch intelligente Forecasting-Mechanismen und das flexible Pay-As-You-Grow-Design kann einfach und schnell auf wachsende oder verändernde Geschäftsanforderungen reagiert werden. So unterstützt eine Nutanix Xtreme Computing Platform zum Beispiel auch bei der Kapazitätsplanung. Die Lösung zeigt per Mausklick auf, in welchem Zeithorizont weitere Ressourcen benötigt werden. Diese lassen sich in der Form von Nodes nahtlos und ohne Unterbruch in einen bestehenden Cluster integrieren.

Sogenannte x86-Server bilden Die Grundlage von hyper-konvergenten Systemen. Die Ressourcen der einzelnen Systeme werden von der Hardware abstrahiert und zu einem Ressourcenpool zusammengefasst. Die ganze Intelligenz der Systeme liegt in der Software.

hyperconverged-softwarelayer

Hyper-konvergenz Softwarelayer

Dies ist auch der Hauptunterschied, welcher hyper-konvergente von konvergenten Systemen unterscheidet. Neben den erwähnten Stacks bringen diese weitere Software–Technologien, wie zum Beispiel direkte Cloud-Integrationen, Deduplizierung, Replikation und Backupmechanismen, mit sich.

Wo geht die Reise hin

Obwohl sich die Technik der Hyper-Konvergenz für sehr viele Szenarien anbietet, gibt es noch weiteres Optimierungspotential. Wir sind überzeugt davon, dass sich Hyper-Konvergenz auch in Privat-Cloud- Datacenter durchsetzen wird, sehen aus dem Alltag aber auch das ansteigende Gewicht von Public- Clouds. Aus diesem Grund sind wir überzeugt, dass sich zunehmend spannende Hybridszenarien zwischen einer Privat-Cloud mit hyper-konvergenten Systemen und Public-Clouds, wie Microsoft Azure oder Amazon AWS, bilden. Nutanix bietet mit der built-in Lösung „Cloud Connect“ bereits erste Ansätze von Hybridszenarien. So können zum Beispiel virtuelle Server als Langzeit-Backup auf eine Public-Cloud repliziert werden.

Stehen Sie vor einer Datacenter-Erneuerung und sind sich nicht sicher, ob eine klassische Drei-Tier Architektur noch das richtige für Sie ist? Zögern Sie nicht uns anzurufen. Gerne begleiten wir Sie auf der Reise zum hyper-konvergenten Datacenter.

One Comment on “Die Evolution der Enterprise Infrastruktur

[…] erfordern immer schnellere Entscheidungen sowie höhere Flexibilität. Wie im Artikel Die Evolution der Enterprise Infrastruktur aufgezeigt wird, ist die Agilität auch in der Technologie kein Fremdwort mehr. Durch agile […]

Antworten

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.