Die Hardware besser auslasten, die Nutzung vereinfachen und selbst während der Upgrades nahezu unterbrechungsfrei weiterarbeiten: Der reibungslose Betrieb schafft eine hohe Effizienz. Das ist nicht nur für den RZ-Betreiber wichtig, sondern hilft auch dem  Kunden. Je nach Cloud-Lösung kommen verschiedene Techniken zum Einsatz..

Noch vor zehn Jahren basierte die RZ-Architektur auf separaten Servern, die jeweils einzelne Anwendungen beherbergten. Das führte regelmäßig zu schlecht ausgelasteten Systemen, die jeweils auf Spitzenlasten ausgelegt waren und den Großteil der Zeit in nur geringem Maße genutzt wurden. Ein Beispiel: Der E-Mail-Server eines Unternehmens wird typischerweise morgens intensiv genutzt, wenn die Mitarbeiter zur Arbeit kommen und ihre neuen E-Mails bearbeiten.

Damit beim Bearbeiten der Korrespondenz keine unnötigen Wartezeiten entstehen, muss der Server für solche Spitzenanforderungen ausgelegt sein.

Den Rest des Tages allerdings liegt die Auslastung in der Regel bei weniger als 25 Prozent. Stellt man sich eine Firma mit diversen Geschäftsstellen in Europa vor, könnte das bedeuten, dass sich das Unternehmen je einen großzügig dimensionierten E-Mail-Server in Russland, Deutschland und Irland sparen könnte – nur durch bessere Auslastung. Das gleiche Problem – doch mit meist größerer geschäftlicher Bedeutung – besteht etwa bei ERP- und Buchhaltungssystemen, die für die Spitzenlasten im Saisongeschäft oder für Quartals- und Jahresabschlüsse ausgelegt werden müssen und deren Kapazitäten wiederum den Großteil des Jahres weitgehend brachliegen.

Das ist nicht nur wenig wirtschaftlich, sondern macht auch die Wartung und den Austausch von Hardware schwierig, da dies zu Betriebsunterbrechungen führt, die sorgsam geplant werden müssen. Außerdem bedürfen geschäftskritische Anwendungen weiterer, ebenfalls auf Lastspitzen ausgelegter Backup-Systeme, die zudem die meiste Zeit ungenutzt bleiben.

Virtualisierung
Die Schlüsseltechnologie, mit der diese Probleme vermieden werden können, heißt Virtualisierung. Das Prinzip: Die Hardware wird vom Betriebssystem und von den Applikationen entkoppelt. Auf den physikalischen Servern werden sogenannte virtuelle Maschinen (VMs) installiert, die sich die Hardwarelandschaft teilen. Auf diese Weise muss die Hardware der einzelnen Applikationen nicht mehr auf Lastspitzen ausgelegt werden, sondern der gesamte Server- und Speicher-Pool steht allen Anwendungen im Unternehmen zur Verfügung.

Im oben genannten Beispiel könnten also drei virtuelle E-Mail-Server auf gemeinsamer Hardware laufen, und da die Mitarbeiter aufgrund der verschiedenen Zeitzonen zu unterschiedlichen Zeiten auf ihre E-Mails zugreifen, kann ein Rechner so dimensioniert werden, dass er die maximalen Auslastungen jedes einzelnen Mail-Servers (nacheinander) unterstützt.

Die mittlere Auslastung der zugrunde liegenden Hardware nimmt also im Vergleich zu individueller Rechnernutzung deutlich zu. Denn während die Ressourcen für einzelne Systeme nach der maximal zu erwartenden Belastung bemessen werden müssen, kann bei der gemeinsamen Nutzung in einem Hardware-Pool davon ausgegangen werden, dass nicht alle virtuellen Systeme gleichzeitig maximal beansprucht werden.

Das bringt eine Reihe von Vorteilen:

  • Sofortige Einsparungen bei der Hardware, weil die Auslastung der Systeme erheblich verbessert wird.
  • Erleichterte Wartung der Hardware, weil virtuelle Maschinen innerhalb des Server-Pools umgezogen werden können. Deswegen lassen sich redundante Hardwarekomponenten und ganze Server ohne Betriebsunterbrechung austauschen.
  • Verbesserter Investitionsschutz, da die Hardware nicht immer auf dem allerneuesten technischen Stand sein muss, sondern nach Bedarf nachgerüstet werden kann.
  • Größere Flexibilität, weil neue – virtuelle – Serversysteme innerhalb von Minuten aufgesetzt werden können. Zum Vergleich: Das Konfigurieren und Aufsetzen eines physikalischen Servers nahm früher mehrere Stunden oder sogar Tage in Anspruch.
  • Erhöhte Verfügbarkeit und Ausfallsicherheit, weil bei einem Hardwarefehler die betroffenen virtuellen Maschinen ohne nennenswerte Unterbrechung auf einem anderen physikalischen Server innerhalb des Server-Pools gestartet werden können.
  • Mobilität von VMs: Einzelne virtuelle Maschinen können von einem Hardware-Pool auf einen anderen umgezogen werden.

Übrigens: aus technischen Gründen werden HANA Server in der Regel nicht virtualisiert.

Was man unter Adaptive Computing versteht
Während die Virtualisierung die Hardware vom Betriebssystem entkoppelt, zielt das sogenannte Adaptive Computing auf die Entkoppelung des Betriebssystems von den Applikationen ab. Denn auch eine virtuelle Maschine muss gestoppt werden, wenn sie neu dimensioniert wird oder ein Betriebssystem- Update ansteht. Adaptive Computing sorgt nun dafür, dass Änderungen am Betriebssystem und an virtuellen Maschinen mit minimalen Stillstandzeiten („Downtimes“) der darauf laufenden Applikationen vorgenommen werden können.

Hierfür wird zunächst eine neue VM mit den geforderten Spezifikationen vorbereitet. Beispielsweise kann eine Leistungssteigerung bei Speicher und Prozessor erforderlich sein, ein Betriebssystem-Upgrade kann anstehen, oder eine VM, die sich als überdimensioniert erwiesen hat, soll durch eine kleinere ersetzt werden. Die Applikation wird nach dieser Vorbereitung lediglich von der alten VM auf die neue „umgezogen“.

Ein weiterer Vorteil des Verfahrens ist die erhöhte Ausfallsicherheit, denn sollte das neue System nicht funktionieren, kann jederzeit auf die noch nicht abgebaute Vorgänger-VM zurückgegriffen werden.

Multi-Tenancy, mehrere Kunden auf einer Anwendung
Während im Rechenzentrum eines Unternehmens Virtualisierung und Adaptive Computing dafür sorgen, dass die Unternehmensapplikationen wirtschaftlicher und effizienter betrieben werden können, liegen die Anforderungen bei einem Cloud-Anbieter höher. Hier geht es darum, auf der virtualisierten RZ-Architektur die Anwendungen vieler verschiedener Kunden gleichzeitig zu betreiben.

Um möglichst große Skaleneffekte zu erzielen, werden bei Cloud-Anbietern viele Kunden auf einer Applikationsinstanz betrieben – typischerweise in einer virtualisierten Server- und Speicherinfrastruktur. Einem Kunden wird dabei ein „Tenant“ zugewiesen, vergleichbar einem Mandanten bei On-Premise-Anwendungen. Können nun viele Kunden auf einer Instanz betrieben werden, spricht man von Mehrmandantenfähigkeit  – „Multi-Tenancy“. Je nach Größe der Applikation und den Anforderungen der Cloud-Software können mehr als hundert Tenants in einem System betrieben werden.

Während in der SAP HANA Enterprise Cloud  Anforderungen pro Kunde nur durch so große Systeme erfüllt werden können, dass sich hier Multi-Tenancy nicht anbietet, wird es bei kleineren Lösungen wie z.B. den Line-of-Business Lösungen oft angewendet.

Dabei ist das System so ausgelegt, dass die Tenants der einzelnen Kunden logisch komplett voneinander getrennt sind. Die Kunden nehmen daher voneinander keine Notiz und haben keine Möglichkeit, auf Daten oder Funktionen eines anderen zuzugreifen. Neben den Kunden-Tenants befinden sich auf jedem System auch individuell konfigurierte Administrations-Tenants.

Es liegt auf der Hand, dass eine solche Multi-Tenant-Landschaft, wie sie Cloud-Anbieter betreiben, erheblich höhere Skaleneffekte erzielt und sich wirtschaftlicher betreiben lässt als das RZ innerhalb eines einzelnen Unternehmens. Ob Upgrade, Patch oder Hotfix: In jedem Fall werden diese Tätigkeiten für Kunden in einem Aufwasch erledigt und der Aufwand pro Kunde damit deutlich reduziert. Die Kostenersparnis gibt der Cloud Provider in der Regel an den Kunden weiter – dieser gewinnt an Flexibilität, profitiert von niedrigen Subskriptionspreisen und spart die Kosten für Hardware, Betrieb und Wartung der Applikation.