Warum CIOs besser heute als morgen Docker-Projekte starten sollten
Mit der Open-Source-Software Docker können CIOs die Flexibilität, Betriebssicherheit und Effizienz ihres IT-Betriebs wesentlich erhöhen.
Was Docker genau ist, wird bereits in einer eine Vielzahl von Fachartikeln beschrieben, so dass ich hier nur ganz kurz und stark vereinfacht auf das Grundprinzip eingehen will:
Bei Docker teilen sich Anwendungen den Betriebssystem-Kernel in gegeneinander abgeschotteten Containern. Dies macht auch schon den Unterschied zur Virtualisierung mit einem Hypervisor deutlich, wo die Hardware virtualisiert wird und die Anwendungen in eigenen Betriebssysteminstanzen mit jeweils eigenem Kernel laufen. Dies bedeutet, dass jede Anwendung ein komplettes Betriebssystem für sich beansprucht. Mit dem Nachteil eines großen Overheads und der Notwendigkeit, jede Instanz einzeln in das Patchmanagement sowohl für das Betriebssystem, als auch die Anwendung einzubeziehen. Durch die gemeinsame Kernelnutzung werden in Docker-Umgebungen die Ressourcen sehr viel effizienter genutzt und das Deployment von Systemen geht sehr viel rascher.
Warum sind Container-Lösungen aber noch aus ganz anderen Gründen so interessant? Dazu schauen wir uns ganz kurz an, was in Docker-Containern eigentlich passiert.
Docker-Lösungen bieten enorme Vorteile für den IT-Betrieb
Docker-Container basieren auf Images - und diesen Images hinzugefügten Softwarepaketen. Dieser Aufbau wird in einem strukturierten Textfile - dem dockerfile - beschrieben. Beim Starten eines Containers wird dieses dockerfile auf immer gleiche Weise abgearbeitet. Mit dem entsprechenden dockerfile erhält man auf jeder Docker-Umgebung immer das identische Ergebnis. Dies ist der erste große Vorteil: Wiederholbarkeit und Nachvollziehbarkeit. Staging über Systemumgebungen hinweg wird damit extrem vereinfacht. Ebenso ergeben sich vollkommen neue und effiziente Möglichkeiten des Desaster Recovery.
Durch diesen strukturierten Aufbau ergeben sich aber noch viel weitreichendere Möglichkeiten. Baut man nun Images auf der Basis von Images, so kann man komplexe Anwendungssysteme in sich konsistent aufbauen, da die Abhängigkeiten immer klar definiert sind. Wird ein Image durch ein aktualisiertes Image ausgetauscht, so verwenden alle Images, die dieses erste Image als Basis haben, die neue Version. Das gleiche gilt für verwendete Pakete, welche - durch die dockerfiles gesteuert - installiert werden. Dadurch lassen sich Testzyklen, Releasewechsel und sogar Parallelbetrieb verschiedener Versionen sehr einfach realisieren. Dies spart immense Aufwände in der Entwicklung aber vor allem auch im Betrieb von IT-Infrastrukturen.
Die Vorteile liegen klar auf der Hand:
- hochgradige Standardisierung
- stark vereinfachtes Patch- und Lizenzmanagement
- stark reduzierte Aufwände im Test- und Releasemanagement
- Portierung und Staging mit nahezu keinem Aufwand
Nimmt man nun noch die Option hinzu, Docker-Umgebungen über hybride IT-Infrastrukturen zu spannen - was ja aufgrund des oben Gesagten sehr einfach unterstützt wird - so ergibt sich eine bisher nicht erzielte Flexibilität, Betriebssicherheit und Effizienz für den IT-Betrieb.
Mehr erfahren
What are the advantages of introducing a hybrid cloud approach and what obstacles need to be overcome when doing so?
How do you make a cloud environment both available at all times and secure against data loss?
Cloud is much more than just technology. Part 2 of this blog post is about transformation, innovation and the right migration strategies for the use of cloud services.
Thomas Strigel
Business Development Managed Solutions und Consulting, SPIRIT/21
Phone: +49 1726327678
E-Mail: tstrigel@spirit21.com
Thomas is an all-rounder when it comes to managed services and cloud solutions. He is always willing to listen to your questions and suggestions.