Advertorial Extra 1909 Infrastruktur

Analyse- und Reporting-Systeme in der Cloud: …und Action!

ReportonCloud DSAG
Geschrieben von E-3 Magazin

Häufig beeinflusst die Analyse komplexer Unternehmensdaten operative Systeme durch Sperrung oder zusätzlichen Workload. Zudem können laufende Prozesse Ergebnisse verfälschen. Eine Möglichkeit ist hier die Nutzung einer „Analyse-Cloud“.

Die digitale Transformation erzeugt einen ganzen Wust an Daten. Aus diesen wirklich nutzbare Informationen zu machen ist Aufgabe meist komplexer und performanceintensiver Analyse- und Reporting-Methoden aus Händen der Data Scientists. Nur fehlen dazu oft passende Systeme. Die Cloud-Szenarien der Libelle AG schaffen Abhilfe.

Es ist wie am Filmset, bevor der Ruf „…und Action!“ erschallt. Wenn hochbezahlte Stars vor Ort ihren Teil zum Erfolg beitragen, soll alles perfekt vorbereitet sein. Ärgerlich ist, wenn genau dann etwas nicht stimmt: Fehlerhafte oder nur teilweise aufgebaute Kulissen, veraltetes Drehbuch, fehlende Beleuchterbrücken, schwache Maskenbildner, zu wenig Kameras, überlastetes Catering. Oder das Set ist durch Statistenszenen oder Besucherführungen belegt.

In vielen Unternehmen wiederholen sich solche Situationen regelmäßig: Pünktlich zum Periodenabschluss oder im Rahmen spezifischer Projekte stehen große Analysen in noch größeren Datenpools an. Die Analyse-Ergebnisse sollen die Weichen für die Zukunft stellen. Während dieser Zeiträume darf nichts geändert werden, dazugehörige Systeme sollten rein den Spezialisten vorbehalten sein, der allgemeine Geschäftsablauf verlangsamt sich. Und überhaupt sind ja ohnehin alle Systeme zu langsam.

Fujitsu

Auch andere Anwendungsfälle bringen ähnlich störende Nebeneffekte mit sich: umfassende Vorhersagen der Kundenverhalten, komplexe technische Berechnungen mit unterschiedlichen Einflussparametern, Analysen zu Customer Loyalty, Retention Management, Risikofrüherkennung, Forschungsanalysen. In all diesen Fällen werden performanceintensive Analysen auf große Datenpools gefahren. Dass sich die Nutzung personenbezogener oder anderer sensibler Daten in einigen Bereichen ganz nebenbei im Graubereich der DSGVO befindet, wird auch gerne ausgeblendet.

Andererseits stehen nur selten Systeme zur Verfügung, die sich Fachbereiche hierfür wünschen: mit aktuellen, DSGVO-abgesicherten Daten und mächtiger Rechen­power. „Kurz mal“ eine angepasste Analyse durchzuführen unterbricht den Arbeitsfluss nachhaltig.

Neben rein fachlichen Anforderungen bestehen vorrangig vor allem drei Herausforderungen:

Herausforderung Nr. 1: Performance-intensive Datenanalyse = lange Durchlaufzeit, hohe Systemkosten

Auf welchen Systemen lassen sich solche Datenanalysen tatsächlich effizient durchführen? Je nach Größe und Komplexität der Datenstrukturen bedarf es an Laufzeit oder an Leistungsfähigkeit der Systeme, um Laufzeiten zu reduzieren. Produktive Systeme eignen sich dafür in vielen Fällen nicht – der Performancebedarf komplexer Analysen bremst den eigentlichen Operativbetrieb aus.

Kommen diese nicht infrage, wird der Ruf nach zusätzlichen Systemen laut. Häufig eine kaufmännische Herausforderung, weil sie als Investition in „stehende Hardware“ angesehen werden.

Herausforderung Nr. 2: Aktualität der relevanten Daten

Fällt die Entscheidung trotzdem „pro eigenständiges Analysesystem“, stellt sich die Frage: Wie kann sichergestellt werden, dass diese Systeme zum richtigen Zeitpunkt aktuelle Daten anbieten? In Abhängigkeit der Applikationen und Datenstrukturen zieht die Datensynchronisierung umfassende manuelle Aufwände nach sich. Gerade in komplexen SAP-Umgebungen gehen mit dem Stichwort „Systemkopie“ oft mehrere Tage in die Arbeitstasks ein.

Herausforderung Nr. 3: der Umgang mit sensiblen und personenbezogenen Daten

Sind alle relevanten Informationen verfügbar, steht das nächste Thema an: Datenwächter achten immer mehr darauf, dass personenbezogene Daten ohne Zustimmung der Betroffenen nicht für Profilierungen genutzt werden. Mit der DSGVO gab es eine Verschärfung der Regelungen und der potenziellen Strafen. Hier stellt sich letzten Endes die Frage: Auf Datenanalysen verzichten oder Daten neutralisieren, auch wenn die fachliche Aussagekraft darunter leidet?

Der „Report on Cloud“-Ansatz bietet eine Lösung für diese Herausforderungen

Auch wenn es manch ein Entscheider nicht mehr hören mag: Cloud-Systeme sind ein Lösungsweg. Es geht nicht darum, produktive Systeme in die Cloud zu bringen, sondern um hybride Cloud-Ansätze: Produktivsysteme on-premises, Analysesysteme in der Cloud.

Es geht um dedizierte Systeme, die ausschließlich für Analyse- und Reporting-Zwecke bereitstehen. Der Vorteil: bedarfsgerechte Bereitstellung und Abrechnung der Ressourcen. Cloudbasierte Analyse- und Reporting-Systeme tauchen kostenseitig nur in den Zeitfenstern auf, in denen tatsächlich Analysen laufen, mit genau den Ressourcen (v. a. Performance und RAM), die genutzt werden: kein Investment in Hardware, die meist mit nur geringer Auslastung läuft und für den Analysezweck irgendwann doch wieder zu schwach ist. Gleichzeitig lässt sich der Nutzerkreis für diese Analysesysteme stark einschränken. Diese Umgebungen können regelmäßig mit frischen und anonymisierten, aber logisch konsistenten Daten versehen werden, die sowohl der DSGVO wie auch fachlichen Anforderungen entsprechen.

Solche Systeme aufzubauen und zu betreiben ist einfacher, als es viele Unternehmen noch sehen. Anbieter wie Libelle und seine Cloud-Partner unterstützen mit Best Practices:

Die fachliche Planung: das Drehbuch.

Am Anfang steht immer die Idee, die in ein erstes Drehbuch mündet, das von unterschiedlichen Parteien so angepasst wird, dass es für alle Beteiligten eine runde Story ergibt.

Während der fachlichen Planung arbeiten Berater mit den Fach-, Applikations- und Datenschutzverantwortlichen zusammen, um das optimale Betriebsmodell zu definieren. Dies umfasst:

  • Definition konkreter Anforderungen an das Analysesystem,
  • Vorauswahl möglicher Cloud-Anbieter samt PoC-Einplanung,
  • Entscheidungsvorlage hinsichtlich der letztendlichen Cloud-Plattform,
  • Detailplanung der Umsetzungs- und ­Betriebsphase,
  • Unterstützung der Umsetzung.

Die Umsetzung: Vorbereitung der Kulissen und Darsteller.

Nach Abnahme des Drehbuchs wird das Set aufgebaut. Realitätsnahe Kulissen, künstliche und echte Requisiten. Darsteller werden gecastet und machen sich mit Story und Set vertraut.

Nach der Planung erfolgt die Umsetzung. Die Analysesysteme werden aufgebaut, entweder auf der „grünen Wiese“ oder als Migration bestehender Systeme. Hierfür existieren umfassendes Know-how sowie je nach Umsetzungsoption Softwarelösungen wie Libelle DBShadow oder Libelle SystemClone.

Der reguläre Betrieb: …und Action!

Der Dreh startet. Auch bei unterschiedlichen Nebensträngen, der Fokus liegt auf Hauptdarstellern und Main Plot. In den Pausen werden die Lichter ausgemacht. Und wenn der nächste Dreh ansteht, werden die passenden Kulissen aufgebaut.

Der reguläre Betrieb unterteilt sich in vier Phasen:

Normalbetrieb – Die Statistenaufnahmen: Das Analysesystem wird mit einem „ausreichenden“ Leistungsprofil von Anwendern für performance-neutrale Anfragen genutzt. Ob 7×24, 5×8 oder on-demand, lässt sich dynamisch regeln.

Leistungsphase – Die Stars bei der Arbeit: Mit dem Start großer, performance-intensiver Analysen wird das Cloud-System mit einem „Performance“-Leistungsprofil vergrößert. Zum Ende der Leistungsphase wird das Leistungsprofil wieder zurückgesetzt.

Ruhephase – Pause am Set: In arbeitsarmer oder arbeitsfreier Zeit wird das Leistungsprofil auf „minimal“ heruntergedreht, oder das System wird außer Betrieb genommen.

Refreshphase – Aktualisierung der Szenenbilder: Mit dem Refresh werden aktuelle Daten auf das Analysesystem übertragen – bei SAP-Systemen z. B. mit Libelle SystemCopy, bei vielen Non-SAP-Anwendungen z. B. mit Libelle DBCopy. Dabei wird ein optimiertes Leistungsprofil angewendet, das automatisch bedarfsgerecht angepasst wird. Personenbezogene und andere sensible Daten werden anhand gesetzlicher und fachlicher Vorgaben z. B. mit Libelle DataMasking anonymisiert, das für realitätsnahe und logisch konsistente Daten sorgt. Analysen laufen somit nicht auf DSGVO-relevanten Echtdaten, liefern aber echte Ergebnisse.

Das Ergebnis: Qualitäts-SciFi statt B-Movie-Fantasy.

Am Ende steht ein Film, dem man die Zutaten ansieht: ein gutes Drehbuch, detailgetreue Kulissen, eine ganze Auswahl großartiger Szenen, vielleicht alternative Handlungsstränge, realistische Masken, entspannte Akteure, die mit Freude dabei sind. In time, in budget, in quality.

Das regelmäßige Ergebnis des „Report on Cloud“-Ansatzes:

  • Aktuelle DSGVO-gerecht anonymisierte Systeme, die dauerhaft, regelmäßig oder ad hoc zur Verfügung stehen und lediglich gemäß realer Nutzung kaufmännisch betrachtet werden.
  • Analysen, die DSGVO-gerecht Daten verarbeiten und trotzdem echte Ergebnisse liefern.
  • Regulärer Betrieb der klassischen Umgebungen, ohne Betriebseinschränkungen.

Analysen großer Datenmengen sind nicht allein von Daten und Software-Werkzeugen abhängig. Sie erfordern ein komplexes Zusammenspiel verschiedener Komponenten – mit möglichst geringer Beeinträchtigung des IT-Betriebs.

Besuchen Sie uns auf dem DSAG-Jahreskongress am Stand G16.

https://e-3.de/partners/libelle-ag/

Über den Autor

E-3 Magazin

Information und Bildungsarbeit von und für die SAP-Community.

Hinterlassen Sie einen Kommentar

AdvertDie Meinung 2