Coverstory 1603 MAG 1603

Sicher durch die Wolke

2016
Geschrieben von Thomas Herrmann, NetApp

Während die Nutzung der Public Cloud für den Core-SAP-Betrieb derzeit noch keine echte Option ist, sind es gerade die Projekte im Testing und Development sowie die Integration der Cloud in die Backup- und Disaster-Recovery-Strategie, die für Unternehmen besonders relevant sind, um die Effizienz und Datensicherheit zu verbessern.

Für ihre SAP-Lösungen benötigen Unternehmen eine extrem flexibel einsetzbare Speicherinfrastruktur, die eine Vielzahl von IT-Systemen unterstützt. Die Cloud ist hier eine wertvolle IT-Ressource, um die Leistung der SAP-Systeme gezielt zu steigern und die Anforderungen der Fachbereiche schneller zu erfüllen.

Die Anforderungen an das Datenmanagement in SAP-Umgebungen sind sehr vielfältig: Technologien wie die In-memory-Plattform SAP Hana, Echtzeitanalysen für Fachabteilungen und immer wieder Ad-hoc-Anfragen nach mehr Speicherkapazität für Test- und Entwicklungssysteme sorgen dafür, dass IT-Verantwortliche hohen Wert auf ein möglichst effizientes und flexibles Storage-Management legen.

Gleichzeitig gilt es, die Datenschutzbestimmungen zu beachten, die nach dem Safe-Harbor-Urteil eine noch genauere Analyse verlangen, welche Daten an welchen Standorten verarbeitet werden.

Darüber hinaus bringt das kontinuierliche Datenwachstum von SAP-Landschaften inkrementelle Backup-Strategien mit Tape-Libraries oder klassische Backups sehr schnell an ihre Grenzen.

Wer die Datenverfügbarkeit einer SAP-Landschaft organisationsweit verbessern möchte, muss darüber hinaus noch die ganz unterschiedlichen Datenquellen in die Backup-Strategie einbinden, wie beispielsweise für Drittsysteme oder das Open-Source-Framework Hadoop.

Ergänzend zu diesen eher allgemeinen Entwicklungen rund um die Unternehmens-IT bringt die neue Generation von SAP-Lösungen ebenfalls ihre speziellen Anforderungen an die Storage-Infrastruktur mit.

Digitale Transformation schafft neue Daten

Die kürzlich vorgestellte In-memory-Lösung SAP Hana Vora für Hadoop und Spark ist beispielsweise eine leicht einsetzbare Technologie, um selbst größte Big-Data-Bestände zu analysieren – wodurch Fachbereiche sehr schnell wieder neue Datenmengen generieren.

Darüber hinaus ist damit zu rechnen, dass sich das In-memory-Konzept als der kommende Datenbankstandard für SAP-Anwendungen durchsetzt – so ist bei S/4 Hana die In-memory-Technologie bereits fest verankert. Das heißt für den CIO: Hier kommen hohe Anforderungen nach schnellem Storage und mehr Speicherkapazität auf das Rechenzentrum zu.

Auf Ebene der Geschäftsstrategie zeigt sich, dass Geschäftsmodelle immer datenzentrierter werden. Die digitale Transformation der Unternehmen führt zu hoher Business-Agilität bis hin zu Echtzeitprozessen.

Wer einen Webshop oder eine Internet-Buchungsplattform betreibt, kann sich aufgrund der Konkurrenzsituation keine Ausfälle der IT erlauben. Ein mehrstündiger Systemstillstand wegen Datenverlusten führt zu verärgerten Kunden bis hin zu Umsatzeinbußen.

Für die Entwicklung von SAP-Landschaften bedeutet dies, dass CIOs künftig deutlich mehr Hochverfügbarkeit und Sicherheit für ihre Storage-Infrastruktur benötigen.

Angst vor zu viel Abhängigkeit

Wie die Erfahrung zeigt, haben so manche CIOs immer noch Bedenken, wenn es um die Nutzung von Cloud-Ressourcen geht. Es sind aber weniger die technologischen Fragen, die für Diskussionen sorgen, denn alle Cloud-Provider verfügen über Standard-Schnittstellen.

Vielmehr werden Bedenken geäußert, sich dauerhaft an einen Cloud-Anbieter binden zu müssen. Eine im Januar von IDC veröffentlichte Umfrage unter deutschen Unternehmen hat ergeben, dass 36 Prozent der Befragten eine Abhängigkeit von externen Cloud-Anbietern vermeiden möchten. 39 Prozent äußerten Sicherheitsbedenken bei der Cloud-Nutzung.

Trotzdem schreitet die Cloud-Integration weiter voran: Eine Umfrage der Analysten von ESG ergab im Jahr 2015, dass 49 Prozent der befragten Unternehmen die Cloud bereits für Backup und Archivierung einsetzen. Wer einmal große Datenbestände in die Cloud kopiert hat, wird feststellen, dass sich diese nur sehr schwer zu einem anderen Service-Provider transferieren lassen.

Datenbremse Data Gravity

Hier wird der Effekt der Data Gravity spürbar: Diese bremst IT-Modernisierungsvorhaben aus, da auch Bits und ­Bytes im übertragenen Sinne den Gesetzen der Schwerkraft unterliegen. Sie haben nämlich die Tendenz, sich an eine bestehende Infrastruktur zu heften.

Diese Trägheit wird dadurch erzeugt, dass Daten Eigenschaften wie beispielsweise ihre Größe oder eine bestimmte Sicherheitsklasse besitzen. Wer zum Beispiel eine Storage-Infrastruktur im Petabyte-Bereich aufbaut, wird diese aufgrund der riesigen Datenmenge nur sehr schwer auf eine neue Plattform migrieren können.

Die Vorteile überwiegen

Ist die SAP-Landschaft einmal so weit umgesetzt, dass die SAP-Systeme in einer hybriden Cloud-Infrastruktur laufen könnten, stehen dem CIO zahlreiche Optionen offen, um den laufenden Betrieb zu verbessern, die Ausfallsicherheit zu steigern und Kosten zu sparen.

Eine schnell realisierbare Möglichkeit ist die Integration von weiteren Hyper­scale-Cloud-Providern wie Amazon, Microsoft oder Softlayer, zum Beispiel zur Bereitstellung von Test- und Anwendungs­­szenarien.

Hier kann die IT-Abteilung den Fachbereichen vollkommen automatisiert das Einrichten, Betreiben, Entfernen und Abrechnen von SAP-Instanzen in der Cloud ermöglichen. Dies macht vor allem dann Sinn, wenn per Replizierungs­mechanismus (Snapshot) auch die Back­ups in die Cloud gespeichert werden.

Basierend auf diesen Snapshots lassen sich in Sekundenschnelle die Testumgebungen für SAP einrichten, beispielsweise als Projekt- oder Sandbox-Systeme für Demozwecke oder für Schulungen.

Ein weiterer Vorteil von Multi-Cloud-Umgebungen: Hiermit gelingt die Integration von Drittsystemen und Storage-Silos zu einer Gesamtlösung, wodurch die Wirksamkeit von Big-Data-Strategien erhöht wird.

Ganz wichtig hierbei: Um das Datenmanagement insgesamt für den SAP-Betrieb zu vereinfachen, sollte die Steuerung von Cloud-Ressourcen, On-premise-Systemen sowie eventuell vorhandenen Storage-Silos über nur eine zentrale Management-Oberfläche erfolgen.

Notfall-Rechenzentrum in der Cloud

Die Nutzung der Cloud als Backup-Plattform erlaubt das Einrichten weiterer Services, um so die Datenverfügbarkeit zu steigern. Beispielsweise kann die IT die Cloud als Notfallrechenzentrum nutzen, falls im eigenen Rechenzentrum Komponenten ausfallen.

Die gesamte Palette von Backup, Cloning und Disaster Recovery lässt sich heute mit geeigneten Software-Lösungen vollständig in der Cloud abbilden.

Wie eine mögliche Lösung für die oben aufgeführten Anforderungen inklusive der Cloud-Integration aussieht, zeigt NetApp mit seinen Technologien, die für SAP-Systeme einen deutlichen Mehrwert gegenüber dem Einsatz von SAP-Bordwerkzeugen liefern.

Von Net­App ist zum Beispiel mit Data ONTAP ein Speicherbetriebssystem verfügbar, das verschiedene Storage-Protokolle in einem Gesamtsystem vereint und hierbei auch Cloud-Ressourcen ansteuert.

SAP-Storage-Infrastruktur im Griff

Das Betriebssystem steht auch als Cloud ONTAP zur Verfügung, besitzt den gleichen Funktionsumfang und ist virtualisiert einsetzbar in HyperScaler-Umgebungen – Unternehmen erhalten sich mit dieser einheitlichen Datenmanagementplattform die Flexibilität, ihre Daten auf beliebigen On-premise- oder Cloud-Plattformen mit einheitlicher Technologie zu betreiben. Damit werden Effekte wie die Data Gravity sowie ein möglicher Cloud Vendor Lock-in wirksam bekämpft.

Schnelle Vollsicherung

Für SAP-Umgebungen sind von Net­App spezielle Lösungen verfügbar, um schnell SAP-Kopien zu erstellen und so Projektlaufzeiten generell zu beschleunigen. Mit dem NetApp-Backup werden innerhalb weniger Sekunden konsistente Vollsicherungen der aktuellen SAP-Hana-Daten erzeugt.

Die Backup-Funktionen von NetApp sind nahtlos in das SAP Hana Studio integriert. Außerdem beeinträchtigt dieser Backup nicht die Leistung der Hana-Server. Eine unter SAP-Hana-Bestandskunden durchgeführte Analyse hat ergeben, dass Kunden durchschnittlich nur 19 Sekunden für ein Hana-Snapshot-Backup benötigen (siehe auch E-3 Magazin, Dezember 2015, „Auf der Überholspur“, Seite 92).

Darüber hinaus bietet diese Technologie weitere Funktionen wie das Cloning einer Systemumgebung, um somit Backups auf ihre Datenintegrität zu testen. Dies kann über ein Repairsystem erfolgen, das sich auf Basis eines geklonten Backups in Sekundenschnelle einrichten lässt und zum Testen der Datenintegrität nutzbar ist.

Weiterhin unterstützt NetApp mit seinem Data-Fabric-Konzept den Aufbau und laufenden Betrieb von hybriden Cloud-Umgebungen, sodass sich die Backups automatisiert und sicher in die Cloud transferieren lassen. Schließlich wurden die NetApp-Lösungen eng ins SAP LVM integriert, wodurch zum Beispiel eine hohe Automatisierung beim Anlegen von SAP-Systemkopien möglich wird.

Über den Autor

Thomas Herrmann, NetApp

Thomas Herrmann ist Manager Business Development SAP bei NetApp für die Region EMEA

Hinterlassen Sie einen Kommentar

AdvertDie Meinung 2