Coverstory 1511 MAG 1511

Flexibler und günstiger – Fast alles wird Software

2015

SAP-Anwender sehen sich heute stetig wachsenden Anforderungen ausgesetzt. Es gilt, die Effizienz und Performance der Mission-Critical-Applikationen zu verbessern und neue Lösungen einzuführen. Dazu bedarf es einer konsequenten Nutzung neuer Technologien, damit die IT zur treibenden Kraft bei der Optimierung von Businessmodellen und der Einführung neuer Geschäftsprozesse wird.

In vielen Organisationen gehören die über Jahre gewachsenen SAP-Umgebungen zum Kern der Unternehmens-IT. Hier gilt auch heute noch vielfach das Motto, dass man bewährte Systeme so wenig wie möglich ändern solle.

Ein Blick auf die Ausstattung und den Betrieb der SAP-Systeme verdeutlicht, dass diese in der Regel auf klassischen, dedizierten Servern laufen und per Fibre Channel angeschlossene Sto­rage-Systeme nutzen.

Zusammen mit dem Server-Anbieter ermitteln die Anwender anhand von SAP-Benutzerkennzahlen, Mengengerüsten und Benchmarks, wie viele SAPS (SAP Application Perfor­mance Standard) benötigt werden und mit wie viel RAM, CPU-, Festplatten- und Netzwerkkartenressourcen ein Server ausgestattet sein sollte, damit er die vorgesehenen Workloads zügig bewältigen kann.

Unternehmen haben die Application Server virtualisiert, und bei den Diskussionen um die passende Dimensionierung ging es um die Frage von 2-Tier- oder 3-Tier-Architekturen.

Typische SAP-Aufgaben wie die Erstellung von SAP Clones für Test, Entwicklung und Produktion wurden teilweise automatisiert mit Skripten abgearbeitet, aber eine durchgehende, idealerweise von der Fachabteilung angestoßene Automatisierung ist heute eher noch die Ausnahme.

Hyperkonvergente Systeme

Gleichzeitig drängen neue Architekturen sowie Technologien in die Rechenzentren und versprechen einen einfacheren und effizienten IT-Betrieb. Eine wichtige Rolle im Umfeld der SAP-Lösungen spielen hyperkonvergente Systeme, die in einem Gehäuse Server, Speichersysteme, Netzwerkkomponenten und Virtualisierungssoftware vereinen.

In der Regel unterstützen die Lösungen im Netzwerkbereich mindestens 10 Gigabit Ethernet, selten auch Fibre Channel. Hier liegt die erste Herausforderung darin, bislang übliche Konfigurationen zu ändern. Konkret geht es dabei um eine Abkehr von klassischen Storage-Subsystemen und einen Wechsel hin zu lokalem Speicher.

Für Unternehmen ist es wichtig, dass sie die gewohnten Verfahren des SAP-Betriebs, insbesondere Cloning, Backup und Snapshot Integra­tion, wie sie die klassischen Storage-Systeme ermöglichen, auch mit hyperkonvergenten Lösungen anwenden können.

Die Vorteile dabei sind geringere Total Cost of ­Ownership, ein vereinfachter Betrieb und eine höhere Flexibilität. Der typische Vertreter eines hyperkonvergenten Systems ist der Dell PowerEdge FX.

Software-defined Datacenter

Noch einen Schritt weiter geht die Architektur eines Software-defined Datacenter. Die Basis dafür bilden oftmals hyperkonvergente Systeme. Zusätzlich zu der weitverbreiteten Servervirtualisierung wird hier auch Storage allein durch Software definiert.

Beispiele einer solchen Lösung sind vSAN von VMWare mit den Dell vSAN Ready Nodes, die Nutanix-Architektur, wie sie auf den Dell-XC-Systemen verwendet wird, oder auch Lösungen, die auf Microsoft Storage Spaces basieren.

Für ein vollständig durch Software definiertes Rechenzentrum fehlen jedoch noch die Netzwerkkomponenten. Hier haben sich drei Ansätze im Markt etabliert:

  • Die Controller-basierte Verwaltung, bei der alle Switche im Netzwerk durch eine zentrale Komponente orchestriert werden, beispielsweise mithilfe des Open-Flow-Kommunikationsprotokolls.
  • Die Freiheit der Wahl des Betriebssystems auf den Netzwerkkomponenten. Switche werden dabei auf die reine Hardware reduziert, auf die ein Anwender dann sein bevorzugtes Netzwerkbetriebssystem installiert.
  • Overlay-Netzwerke, die über klassische Netzwerke ein virtuelles Netzwerk legen. Ein Beispiel dafür ist das in den Hypervisor integrierte VMware NSX, bei dem alle Netzstrukturen und -mechanismen in Software realisiert sind.

Für den SAP-Betrieb ist im Netzwerk im Wesentlichen die Bereitstellung ausreichender Bandbreite relevant. Diese Anforderung lässt sich mit allen drei Varianten umsetzen.

Software-defined Anything – und damit die konsequente Trennung von Hard- und Software auf Basis offener Standards – bietet umfangreiche Optionen beim Design und dem Betrieb neuer Lösungen.

Unternehmen profitieren dabei von einer höheren Flexibilität und geringerem Aufwand bei der Implementierung. Optimal aufeinander abgestimmt bilden Server, Software-defined Storage und Software-defined Networking die zentralen Komponenten zum Aufbau eines leistungsstarken, effizienten und zukunftssicheren Software-defined Datacenter.

Die einzelnen Lösungskomponenten sind bereits ausgereift und erprobt, das Zusammenspiel aber befindet sich noch in der Entwicklungs- und Evaluationsphase, und Anwender sind dabei herauszufinden, welche Varianten sich für bestimmte Anwendungsszenarien eignen.

Hier sind Unternehmen auf die Beratung und Unterstützung durch Partner wie Dell angewiesen, die das gesamte Lösungsportfolio in all seinen Details abdecken können.

 


 

Neue SAP-Umgebungen bereitstellen

Zu den typischen Aufgaben in einer SAP-Systemlandschaft zählen auch die schnelle Bereitstellung von neuen Umgebungen oder auch das Clonen einer existierenden Umgebung.

Schon bei der Provisionierung der Basisinfrastruktur können Anwender sehr viel an Flexibilität und Zeit gewinnen, indem sie eine Lösung wie den Dell Active System Manager einsetzen.

Damit lassen sich auf Basis von Templates auch umfangreiche Umgebungen ausrollen – beispielsweise ein SAP-System, das aus einem nicht virtualisierten Datenbankserver unter Windows mit Microsoft SQL Server, virtualisierten Webservern und mehreren Applikationsservern unter Linux besteht.

Diese Systeme werden dann anhand von Pools automatisch auf passende freie Ressourcen verteilt und der Speicherbedarf entsprechend angepasst. Für die weitere Automatisierung in das SAP-System hinein können dann die bekannten Implementierungs-Tools verwendet werden, sodass kein kompletter Umbruch des Betriebs notwendig ist.

 


 

Eine hyperkonvergente Infrastrukturlösung

Dell PowerEdge FX2 verbindet die Elemente von Blades und Rackservern, einschließlich der Speicher- und Netzwerkkomponenten, auf einer modularen Plattform zu einer einfach zu verwaltenden und skalierbaren Infrastrukturlösung.

Untergebracht ist diese in einem zwei Höheneinheiten messenden Gehäuse, das über gemeinsame Storage- und Netzwerkkomponenten Platz für bis zu sechs PowerEdge-Servereinschübe bietet und gleichzeitig über integrierte Managementfunktionalitäten verfügt.

Aufgrund der gemeinsam genutzten Komponenten und Funktionen wie Kühlung, Stromversorgung, Switche und PCIe-Erweiterungssteckplätze können Unternehmen das FX2-Gehäuse für eine Vielzahl von Server- beziehungsweise Massenspeicherkombinationen nutzen und profitieren damit von mehr Effizienz beim Einsatz der IT-Ressourcen.

Die modulare Architektur ermöglicht eine gute Skalierung, sodass sich einmal konfigurierte Lösungen im SAP-Umfeld schnell und einfach an neue Anforderungen anpassen lassen.

Über den Autor

Clemens Zerbe, Dell

Clemens Zerbe ist Enterprise Strategist – Hana bei Dell.

Über den Autor

Dr. Roland Kunz, Dell

Dr. Roland Kunz ist Enterprise Strategist Software-defined Datacenter bei Dell.

Hinterlassen Sie einen Kommentar

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.