Hana-Hadoop- Direktkoppelung

Mit Hana und S/4 lassen sich verschiedene Big-Data-Anwendungen vorteilhaft nutzen – auch in der Cloud. Direkt-Hana-Hadoop-Inte­gration spielt dabei eine wichtige Rolle. Kunden profitieren vom Einsatz von Suse SLES, SLES for SAP Applications und Suse Manger.
E-3 Magazin
3. Oktober 2015
Inhalt:
2015
avatar

Mit der SAP-Hana-Plattform und in Verbindung mit Sybase IQ sowie Hadoop lassen sich Hana- und S/4-Hana-Big-Data-Anwendungen in die Tat umsetzen. Und zwar unter der Nutzung von SLES for SAP Applications für SAP Hana und SLES für Hadoop mit dem Suse Manager als Infrastrukturmanagement.

Wie grenzen sich die Einsatzzwecke von SAP Hana und Hadoop ab? Wie passen die Datenbanktechnologien zusammen? Hana hat bekanntlich ihre Stärken in der Verarbeitung von strukturierten Daten bis zu 100 Terabyte mit ex­tremer Geschwindigkeit.

Hadoop hingegen wurde vorrangig nicht für OLTP-Transaktion konzipiert. Das Plus von Hadoop ganz klar: die Datenverarbeitung von unstrukturierten, zumeist textbasierten, und halbstrukturierten Informationen möglichst effizient mit niedrigen Hardwarespeicherkosten pro Terabyte durchzuführen, wobei sogenannte Ha­doop-Cluster mit mehreren 100 Standardservern zum Einsatz kommen können.

Integration aus einem Guss

Vor rund zwei Jahren gab SAP bekannt, die Zusammenarbeit in Sachen Intel-Distribution für Apache Hadoop sowie Hortonworks Data Platform, einer freien Ha­doop-Distribution, zu forcieren und Hana und Hadoop zu integrieren sowie Hana gemeinsam mit Hadoop zu vertreiben.

Das Ziel der Hana-Hadoop-Integration hierbei vor allem: Immens hohe Daten oder Massendaten und Informationen, die über diverse Systeme verteilt sind, so miteinander intelligent zu verknüpfen, dass sich diese effizient und in Realtime analysieren oder auswerten lassen.

Eine Hana-Hadoop-Direktkoppelung inklusive eines Hana-Hadoop-Connectors (auch unter Verwendung von BODS, Business Objects Data Services, und ETL) hat SAP umgesetzt und stellt außerdem hierfür eine Referenzarchitektur bereit.

Somit lassen sich strukturierte, halb-strukturierte und unstrukturierte Daten kombinieren und verarbeiten. Dazu zählen beispielsweise Web-Logs, Maschinen-Daten, Textdaten, CDRs (Call Data Records) oder Audio- sowie Video-Daten. Auch gibt es eine auf Apache Hadoop basierende Enterprise-Architektur, die von SAP und dem Big-Data-Spezialisten MapR entwickelt wurde.

Mit ihr lassen sich sämtliche Daten auf einem einzigen, mandantenfähigen Hadoop-Cluster speichern und verarbeiten, wobei Echtzeitanalysen mit SAP Hana verarbeitet werden. Wie SAP ist MapR Suse-Partner.

Hadoop-Cluster

Basierend auf dem zuvor Skizzierten lässt sich SAP Hana mit Hadoop koppeln. Zu berücksichtigen ist, dass von Hadoop in aller Regel eine physikalische Installation aus Gründen des IO-Verhaltens präferiert wird.

Insbesondere, weil Daten bei Big Data im Petabyte- oder sogar Exabyte-Bereich zu verarbeiten sind. Beim Aufsetzen von Hadoop mit Suse SLES für Hadoop lässt sich vorteilhaft das Managementtool Suse Manager einsetzen.

Durch die enge Zusammenarbeit mit SAP wird von Suse sichergestellt, dass sowohl Hana als auch das Hadoop-Cluster maximale Leistung bringen – und in Verbindung beider Technologien mit der Suse-Plattform optimiert genutzt werden kann.

SAP-Anwender, die auf Big Data und das Cloud Computing setzen, profitieren von dieser engen Verzahnung nachweislich.

avatar
E-3 Magazin

Information und Bildungsarbeit von und für die SAP-Community.


Schreibe einen Kommentar