Handwerkskunst hat etwas für sich. Es ist etwas Persönliches, etwas Künstlerisches, und es kann unglaublich effektiv sein, um seine Ziele zu erreichen. Andererseits kann die Massenproduktion auch auf andere Weise effektiv sein: durch Geschwindigkeit, Effizienz und Kosteneinsparungen.
Die Geschichte der Rechenzentren ist eine Entwicklung von der Handwerkskunst – bei der jede einzelne Maschine ein Lieblingsprojekt ist, das mit großer Sorgfalt gewartet wird – hin zur Massenproduktion mit großen Serverfarmen, bei denen die einzelnen Einheiten komplett entbehrlich sind.
In diesem Artikel werfen wir einen Blick darauf, wie sich Rechenzentren im Laufe der Jahrzehnte verändert haben. Wir untersuchen die Auswirkungen auf die Arbeitslasten in Rechenzentren und auf die Menschen, die sie betreiben – die jetzt ihre Lieblingssysteme verloren haben. Wir gehen auch auf die Auswirkungen der neuen Rechenzentrumslandschaft auf die Cybersicherheit ein.
Haustiersystem mit einem großen Ziel
Für jeden Systemadministrator, der seine Karriere vor dem Aufkommen der Virtualisierung und anderer Cloud- und Automatisierungstechnologien begonnen hat, waren Systeme fein gearbeitete Hardware – und wurden mit der gleichen Liebe behandelt wie ein Haustier.
Es beginnt mit dem Aufkommen der Computerräume in den 1940er Jahren – wo große Maschinen, die von Hand mit kilometerlangen Kabeln verbunden waren, etwas waren, das man nur als Liebesdienst bezeichnen konnte. Diese Computerräume waren die Dampfmaschinen des Computerzeitalters, die dank der Siliziumrevolutionen bald durch modernere Geräte ersetzt wurden. Wie sieht es mit der Sicherheit aus? Ein großes Schloss an der Tür war alles, was man brauchte.
Großrechner, die Vorläufer der heutigen Rechenzentren, waren ebenfalls hochentwickelte Lösungen, bei denen eine einzige Maschine einen ganzen Raum einnahm und ständig von Experten betreut werden musste, um weiter zu funktionieren. Das erforderte sowohl Hardware- als auch Programmierkenntnisse, da die Mainframe-Betreiber im laufenden Betrieb programmieren mussten, um ihre Arbeitslasten am Laufen zu halten.
Aus der Sicherheitsperspektive waren Mainframes relativ einfach zu verwalten. Das war (lange) vor dem Anbruch des Internetzeitalters, und das Risiko, dass die Lieblingssysteme der IT-Manager/innen angegriffen werden, war relativ gering. Die ersten Computerviren tauchten in den 1970er Jahren auf, aber sie stellten kaum eine Gefahr für den Mainframe-Betrieb dar.
Vorgefertigte Rechenleistung mit einzigartigen Verwaltungsanforderungen
In den 1990er Jahren kamen die Rechenzentren auf. Einzelne, massenproduzierte Maschinen boten Rechenleistung von der Stange, die viel erschwinglicher war als Mainframe-Einheiten. Ein Rechenzentrum bestand einfach aus einer Ansammlung dieser Computer, die alle miteinander verbunden waren. Später in diesem Jahrzehnt wurde das Rechenzentrum auch mit dem Internet verbunden.
Obwohl die einzelnen Rechner nur minimale Wartung benötigten, musste die Software, die die Arbeitslasten für diese Rechner steuerte, ständig gewartet werden. Das Rechenzentrum der 1990er Jahre bestand zu einem großen Teil aus Haustiersystemen. Das galt für jede Maschine, was ein Akt der Servermanagement-Kunstfertigkeit war.
Von manuellen Software-Updates über die Durchführung von Backups bis hin zur Wartung des Netzwerks hatten IT-Administratoren alle Hände voll zu tun – wenn nicht mit der physischen Wartung der Maschinen, dann ganz sicher mit der Verwaltung der Software, die ihre Arbeitslasten unterstützt.
Es ist auch eine Ära, in der die Arbeitslasten der Unternehmen erstmals externen Sicherheitslücken ausgesetzt waren. Seitdem die Rechenzentren mit dem Internet verbunden sind, haben Angreifer plötzlich die Möglichkeit, in die Rechenzentren einzudringen. Das setzt die Lieblingssysteme der IT-Administratoren einem Risiko aus – dem Risiko von Datendiebstahl, dem Risiko des Missbrauchs von Geräten usw.
Daher wurde die Sicherheit zu einem Hauptanliegen. Firewalls, Erkennung von Bedrohungen und regelmäßiges Patchen von Schwachstellen sind die Sicherheitsmaßnahmen, die IT-Administratoren um die Jahrtausendwende ergreifen mussten, um ihre Lieblingssysteme zu schützen.
Server-Farmen – Massenproduktion, Massenverwaltung
In den 2000er Jahren änderte sich die Art und Weise, wie Arbeitslasten im Rechenzentrum bewältigt wurden, grundlegend. Der Hauptantrieb hinter dieser Veränderung waren Effizienz und Flexibilität. Angesichts der enormen Nachfrage nach Rechenleistung setzten sich Lösungen wie Virtualisierung und etwas später auch Containerisierung schnell durch.
Durch die Lockerung der strikten Verbindung zwischen Hardware und Betriebssystem bedeutete Virtualisierung, dass die Arbeitslasten relativ unabhängig von den Maschinen wurden, auf denen sie ausgeführt wurden. Das brachte eine ganze Reihe von Vorteilen mit sich. Der Lastausgleich stellt zum Beispiel sicher, dass anspruchsvolle Arbeitslasten immer Zugang zu Rechenleistung haben, ohne dass übermäßige finanzielle Investitionen in Rechenleistung erforderlich sind. Die Hochverfügbarkeit wiederum soll Ausfallzeiten verhindern.
Was die einzelnen Maschinen angeht – nun, die sind jetzt komplett entbehrlich. Die Technologien, die in modernen Rechenzentren eingesetzt werden, bedeuten, dass einzelne Maschinen im Grunde keine Bedeutung mehr haben – sie sind nur noch Rädchen in einem viel größeren Betrieb.
Diese Maschinen haben keine schönen individuellen Namen mehr und werden einfach zu Instanzen – z. B. wird der Webserver-Dienst nicht mehr von dem unglaublich leistungsstarken „Aldebaran“-Server bereitgestellt, sondern von einer Reihe von „webserver-001“ bis „webserver-032“. Die Technikteams konnten es sich nicht mehr leisten, die Zeit zu investieren, um jeden einzelnen so genau einzustellen wie früher, aber die große Anzahl und die dank der Virtualisierung gewonnene Effizienz bedeuteten, dass die gesamte Rechenleistung im Raum immer noch die Ergebnisse der Pet-Systeme übertraf.
Begrenzte Möglichkeiten für handwerkliches Können
Containertechnologien wie Docker und in jüngerer Zeit Kubernetes haben diesen Prozess noch weiter vorangetrieben. Du brauchst keine kompletten Systeme mehr, um eine bestimmte Aufgabe zu erfüllen, sondern nur noch die grundlegende Infrastruktur, die der Container bereitstellt, um einen Dienst oder eine Anwendung auszuführen. Es ist sogar schneller und effizienter, einen Dienst mit unzähligen Containern zu unterstützen, als für jede Aufgabe ein eigenes System zu haben.
Die Bereitstellung eines neuen Systems erfordert nicht mehr die manuelle Installation eines Betriebssystems oder einen arbeitsintensiven Konfigurations- und Dienstbereitstellungsprozess. Alles ist jetzt in „Rezept“-Dateien enthalten, einfachen textbasierten Dokumenten, die beschreiben, wie sich ein System verhalten soll, und die mit Tools wie Ansible, Puppet oder Chef erstellt werden.
IT-Administratoren können zwar immer noch einige Verbesserungen oder Optimierungen in diese Bereitstellungen einbauen, aber da jeder Server nicht mehr einzigartig ist und so viele Server jeden Dienst unterstützen, macht es kaum noch Sinn, den Aufwand dafür zu betreiben. Admins, die mehr Leistung benötigen, können das Rezept jederzeit wiederverwenden, um ein paar weitere Systeme in Betrieb zu nehmen.
Während ein paar Kerndienste wie Identitätsmanagement-Server oder andere Systeme, die wichtige Informationen speichern, weiterhin als Haustiere gehalten werden, werden die meisten von ihnen nun als Vieh betrachtet – sicher, du willst nicht, dass einer von ihnen ausfällt, aber wenn einer ausfällt, kann er schnell durch ein anderes, ebenso unauffälliges System ersetzt werden, das eine bestimmte Aufgabe erfüllt.
Wenn man bedenkt, dass Arbeitslasten zunehmend auf gemieteten Rechenressourcen in großen Cloud-Einrichtungen ausgeführt werden, ist klar, dass die Zeiten, in denen Server als Haustiere gehalten wurden, vorbei sind. Jetzt geht es um Massenproduktion – in einer fast extremen Form. Ist das eine gute Sache?
Massenproduktion ist toll: aber es gibt neue Risiken
Flexibilität und Effizienz, die die Massenproduktion mit sich bringt, sind eine gute Sache. In der Computerumgebung geht nur wenig verloren, weil die Computerumgebungen nicht mehr „handgefertigt“ und „gepflegt“ werden müssen. Es ist eine viel schlankere und schnellere Art, Arbeitslasten in Betrieb zu nehmen und dafür zu sorgen, dass sie in Betrieb bleiben.
Aber es gibt auch eine Reihe von Sicherheitsaspekten. Während die Sicherheit in Haustiersysteme „eingearbeitet“ werden kann, erfordern Rinderumgebungen einen etwas anderen Ansatz – und natürlich immer noch einen starken Fokus auf Sicherheit. Zum Beispiel werden Rindersysteme aus denselben Rezeptdateien erzeugt, so dass jede Schwachstelle in den Basisbildern, die für sie verwendet werden, auch in großem Maßstab eingesetzt wird. Das führt zu einer größeren Angriffsfläche, wenn eine Schwachstelle auftaucht, da es einfach viel mehr mögliche Ziele gibt. In dieser Situation spielt es keine Rolle, ob du ein neues System innerhalb von Minuten oder sogar Sekunden in Betrieb nehmen kannst – wenn du das bei Tausenden von Servern gleichzeitig tust, werden deine Arbeitslasten unabhängig von der Zeit, die du dafür brauchst, beeinträchtigt, und das wirkt sich auf deinen Gewinn aus.
Automatisierung ist heute in hohem Maße die Antwort auf die Sicherheit in Serverfarmen. Denk an Tools wie automatisierte Penetrationsscans und automatisierte Live-Patching-Tools. Diese Tools bieten mehr Sicherheit gegen eine ebenso automatisierte Bedrohung und verringern den Verwaltungsaufwand für diese Systeme.
Eine veränderte Computerlandschaft
Die sich verändernde IT-Landschaft hat die Architektur der Rechenzentren und die Arbeitsweise der Mitarbeiter/innen in den Rechenzentren verändert. Es ist einfach nicht mehr möglich, sich auf alte Praktiken zu verlassen und die besten Ergebnisse zu erwarten – und das ist eine große Herausforderung, denn es erfordert erhebliche Anstrengungen von Sysadmins und anderen IT-Fachleuten – es ist ein erheblicher Bewusstseinswandel und es erfordert eine bewusste Anstrengung, die Art und Weise zu ändern, wie man über die Systemadministration nachdenkt, aber einige grundlegende Prinzipien, wie z. B. Sicherheit, gelten immer noch. Wenn man bedenkt, dass die Zahl der Schwachstellen nicht zu sinken scheint – ganz im Gegenteil -, wird dies auch in absehbarer Zukunft gelten, unabhängig von anderen evolutionären Veränderungen, die dein Rechenzentrum betreffen.
Anstatt sich dagegen zu wehren, sollten IT-Administratoren akzeptieren, dass ihre Lieblingssysteme im Grunde genommen nicht mehr existieren, sondern durch Massenware ersetzt werden. Das bedeutet auch, zu akzeptieren, dass die Sicherheitsherausforderungen immer noch da sind – nur in veränderter Form.
Wenn es darum geht, Server-Workloads effizient zu betreiben, sind IT-Administratoren auf ein neues Toolset angewiesen, mit angepassten Methoden, die auf der Automatisierung von Aufgaben beruhen, die nicht mehr manuell durchgeführt werden können. Daher müssen IT-Administratoren bei der Durchführung von Sicherheitsoperationen in Serverfarmen einen Blick auf Tools zur Patch-Automatisierung wie KernelCare Enterprise von TuxCare werfen, um zu sehen, wie sie in ihr neues Toolset passen.