Mag 22-05 Management

Process Mining Hype

[shutterstock_1214787442_rhyzi]

Es ist eine zentrale Frage unternehmerischen Handelns: Wenn die Wertschöpfungsziele klar definiert sind, ist die Suche nach dem besten Prozessweg dorthin eine Entscheidung über Erfolg und Misserfolg.

Diese Herausforderung greift auch die analytische Vorgehensweise des Process Mining auf. Die Grundidee ist dabei bestechend. Aus der maschinellen Erhebung von protokollierten Ereignisdaten werden Aussagen abgeleitet für eine automatisierte Analyse von Geschäftsprozessen. Frei von jeder konzeptionellen und subjektiven Verklärung – so, wie sie tatsächlich stattgefunden haben. Ein lebensechtes Abbild der IT-Systemprozesse auf Knopfdruck.

Diese Methode klingt einfach, zielführend und lässt hoffen, schneller und effizienter zu sein als jede manuelle beziehungsweise interviewgestützte Bestandsaufnahme betrieblicher Arbeitsabläufe (Ist-Analyse). Nicht zuletzt dank dieser Vorstellung hat Process Mining einen festen Platz in der Analytik betriebswirtschaftlicher Anwendungssysteme gefunden. Denn Process Mining hilft, echte Prozesse realitätsnah zu entdecken, zu rekonstruieren und zu monitoren.

Historisch betrachtet ist diese Methode kein neuer Ansatz, sondern blickt auf eine langjährige Entwicklung zurück. Die Meinungen gehen auseinander, wann die Idee des Process Mining nun genau aufgekommen ist, ob es nun in die 90er zurückreicht oder in den 2000ern aus Forschungsprojekten entstanden ist, welche die Zielsetzung verfolgten, neue Metamodelle und Ontologien für Prozessabläufe aus workflowbasierten Analysen zu entwickeln.

Gründe für die Durchführung einer derartigen Untersuchung gibt es viele: Bestehende Prozesse sind zunehmend ineffizient und kostenintensiv, weil mit der Zeit schleichende Anforderungsänderungen stattfinden; Prozessabläufe und Zuständigkeiten sind unklar, insbesondere vor dem Hintergrund verteilter organisatorischer Einheiten; innerhalb des Unternehmensverbunds herrscht Heterogenität, vielleicht bedingt durch Wachstum; unternehmensspezifische oder herstellerseitige Best Practices werden nicht realisiert; es existiert ein geringer Standardisierungsgrad, eventuell durch unstrukturierte und nicht strategiekonforme Business Requirements; der Automatisierungsgrad zur Senkung Prozesskosten ist zu niedrig; oder Prozesskosten verteilen sich nicht gemäß ihrer Nutzensituation. Mehr als genug Motivation also, sich um vollständige Transparenz der Unternehmensprozesse zu bemühen.

Eventlogs und Visualisierung

Nur, wird Process Mining tatsächlich diesen Aufgabenstellungen und dem aktuellen Hype gerecht? Wie aussagekräftig und verlässlich sind die Ergebnisse des Process Mining? Und ist Process Mining gleich Process Mining?

Um diese Fragen zu beantworten, bedarf es eines Grundverständnisses über seine Funktionsweise. Die Informationsbasis bilden Eventlogs, welche die Prozessnutzung durch die Mitarbeiter protokollieren. Damit können Visualisierungen erzeugt werden, die einen richtigen und aktuellen Überblick liefern. Genau hier liegt die große Stärke des Process Mining, denn im Heranziehen tatsächlichen Geschäftsvorfalldaten wird ein objektives Abbild des Prozessgeschehens erschaffen. Die Extraktion dieser Informationen erfolgt dabei üblicherweise entweder durch einen Vollabzug oder die direkte Verbindung zum untersuchten System.

In jedem Fall braucht es den kompletten Zugriff auf die alle Einzelbelegdaten, um Vollständigkeit der Prozessketten zu gewährleisten und ersten Datenaufbereitung analytisch sinnvoll bearbeiten zu können. Dabei stehen die Bewegungsdaten im Fokus, für die nachträglich ein Kontext hergestellt (gefiltert) wird beispielsweise mittels Stammdaten wie Kunden, Materialien oder Organisationseinheiten. 

Eine automatische, generische Strukturierung und Klassifizierung der Daten als Aktivitäten und Pfade erscheinen eher umständlich und es stellt sich die Frage, ob die Betrachtung der Eventlogs nicht aussagekräftige Aspekte insbesondere eines SAP-Systems außer Acht lässt, wie beispielsweise die Parameter der Systemkonfiguration. Genau hier stößt das klassische Process Mining an seine Grenzen, ein Missverständnis, das gemeinsam mit einigen weiteren im Folgenden untersucht wird.

Sechs Missverständnisse

Missverständnis 1: Process Mining liefert schnelle Problemdiagnosen und Engpasserkennungen. Die grundsätzliche Annahme, Schwachstellen im Tagesgeschäft seien unbekannt und müssten erst erkannt werden, konnte in vielen Projekten widerlegt werden. Ein SAP-System liefert dem einzelnen Mitarbeiter einen soliden Überblick über die Schiefstände in seinem Arbeitsbereich, wenn auch nicht über strukturellen Ursachen und das volle Ausmaß ihrer Integrationswirkungen. Demnach gehören initial getroffene Aussagen oft ins Reich der banalen Feststellungen oder liefern Fehlalarme (False Positives). Aufwändige Untersuchungsiterationen sind die Folge. Abhilfe schaffen kann hier wiederum ein umfassendes Analysemodell, das auf einer breiten Kennzahlengrundlage fußt und von Anfang an zur Verfügung steht. Doch dieses muss sowohl kompatibel sein zu Unternehmensspezifika als auch den hinterlegten Sollkonzepten im Customizing der Software. Ansonsten drohen kostenintensive Aufwände für Fachexperten und Nachsteuerungen der analytischen Zielparameter.

Missverständnis 2: Process Mining verschafft einen raschen Überblick. Viele Process-Mining-Anbieter liefern zwar die technische Möglichkeit für die Analytik, inkludieren jedoch nur einfache Templates ohne Ausrichtung auf die spezifische Kundensituation oder die differenzierten Möglichkeiten der Software. Auch diese Ausgestaltung wird häufig verlagert in den Bereich kostenpflichtiger Services. Es empfiehlt sich, hier genau zu prüfen, wie umfangreich der verfügbare analytische Content ist und welche Kompetenzen zu welchen Kosten bei entsprechenden Serviceangeboten zum Tragen kommen.

Missverständnis 3: Process Mining hilft bei der Einschätzung Compliance, Risiken oder Sonstigem. Natürlich kann Process Mining auch dabei helfen, Chancen und Risiken der unternehmerischen Tätigkeiten zu beurteilen sowie die Konformität der Compliance zu untersuchen. Schließlich greift die Analyse auf die Gesamtheit der Prozessinformationen zu. Doch zur Anwendung von Prüflogik braucht es eine fundierte Datentransformation, -analytik, -aufbereitung und -bewertung sowie eine Berücksichtigung der individuellen Ausprägungen, was unternehmensspezifische Risiken oder Vorgaben überhaupt sind. Demnach sind auch diese Aussagen stark abhängig vom zugrunde liegenden Referenzcontent oder eben ergänzenden Services. Mitunter verlassen Versprechungen der Softwarehersteller die eigentlichen dieses Ansatzes.

Missverständnis 4: Mit Process Mining lassen sich Prozessdaten über mehrere Systeme konsolidieren. Das Wunschvorstellen von einem zentralen ERP-System ist gerade bei großen Unternehmen beziehungsweise Konzernen regelmäßig nicht gegeben. Die Praxis sind ausgeprägte Systemlandschaften mit verteilten Prozessen. Für deren Analyse ist das klassische Process Mining eher ungeeignet, denn die Abstimmung von systemübergreifenden Prozessketten ist vor allem bei variantenreichen Ablauflogiken und heterogenen technischen Systemen mit hohem Aufwand verbunden. Eine direkte Vergleichsmöglichkeit auf systemtechnischer wie organisationseinheitenbasierter Ebene könnte hier Abhilfe schaffen und zudem Ansätze bieten für Konsolidierungs- und Harmonisierungsprojekte, liegt aber in den wenigsten Fällen vor.

Missverständnis 5: Process Mining liefert eine End-to-End-Sicht für Unternehmen. Der Wunsch nach einer Komplettsicht auf alle Geschäftsprozesse und aller in einem Unternehmensprozess involvierten Arbeitsschritte ist verständlich, verlangt aber nach mehreren Ebenen bei der Prozessanalyse. Gerade für Dokumentationszwecke, Testaufwände und Veränderungsdiskussionen ist eine derartige Skalierbarkeit sinnvoll und wünschenswert, vor allem bei integrierten und heterogenen Bereichen, wie beispielsweise Verknüpfungen zwischen Logistik und Finanzwesen. Doch der Aufbau einer solchen Darstellung ist sehr aufwändig und bedarf einiges an fachübergreifenden Kenntnissen. Deshalb werden im Process Mining selten durchgängige Modelle verwendet, sondern eher fragmentierte Teilprozesse. 

Missverständnis 6: Process Mining unterstützt die Automatisierung von Prozessen. Automatisierung im Sinne des Wegfalls von Funktionen oder Prozessschritten, die nicht mehr von Dialogbenutzern, sondern durch die Software selbst ausgeführt werden, sind durch Process-Mining-Ansätze durchaus messbar. Die Umsetzung und Verbesserung dieser Abläufe fallen jedoch letzten Endes in den Bereich des Beraterwissens, umso mehr, weil es hier einer klaren Abstimmung der involvierten Unternehmensbereiche und ihrer internen Arbeitsprozesse bedarf.

Referenz- und Sollmodelle

Zusammenfassend betrachtet, sollten eher inhaltliche Aspekte für die Eignungsbeurteilung spezifischer Process-Mining-Ansätze herangezogene werden. Zum Ersten sind es die analytischen Referenzmodelle zur Strukturierung der Prozessdaten und dem Ableiten von betriebswirtschaftlichen Aussagen, die den Qualitätsmaßstab vorgeben. Dies beinhaltet insbesondere die Verfügbarkeit von softwareseitigen Sollmodellen ebenso wie korrekte wie umfassende Kennzahlensysteme, die hinter die Kulissen schauen können.

Darüber hinaus ist es die Art der Extraktion, Transformation und Aufbereitung der technischen Datenbasis, welche die Qualität und Korrektheit der Auswertungsmöglichkeiten determinieren. Eine vollumfassende Datenbasis erfüllt nicht immer die Kosten-Nutzen-Anforderungen und bedarf einiges an Arbeit und Expertenwissen, um die gewünschte Aussagekraft zu entfalten. Eine Anreicherung der Eventlog-Informationen mit Änderungshistorien, Benchmarkings oder Konfigurationsinformationen kann hier hilfreich sein und den Erkenntnisgewinn deutlich beschleunigen. 

Dennoch verbleiben die Notwendigkeiten, gute Berater und interne Ressourcen zu finden, und sind aufwändige Modellierungsbemühungen zur Individualisierung durchzuführen. Als Tipp für den Ersteinsatz ist die Fokussierung von Process-Mining-Projekten empfehlenswert. Verschaffen Sie sich zunächst einen Überblick zur Prozessnutzung und prüfen Sie die vorhandenen Inhalte vertieft dort, wo es im hohen Maße individuelle Abläufe gibt.

CI Banner IBIS

Über den Autor

Prof. Dr. Andreas Hufgard, IBIS Prof. Thome

Prof. Dr. Andreas Hufgard hat an der Universität Würzburg in Wirtschaftsinformatik promoviert. Er ist Mitgründer und Chief Technology Officer von IBIS Prof. Thome.

Hinterlassen Sie einen Kommentar