Cloud-Services: Leistung und Security vereinbaren und steuern

Cloud-Services

Eine wachsende Anzahl an Angeboten macht es deutlich, der IT-Markt sieht die Zukunft in Cloud-Services. Dienste aus der Cloud versprechen flexible Nutzung von IT-Ressourcen, ohne Vorabinvestitionen tätigen zu müssen. So passen sich sowohl die Leistung als auch die Kosten dynamisch an die individuellen Bedürfnisse der Kunden an. Mittlerweile haben sich drei Servicetypen mit unterschiedlicher Leistungstiefe herauskristallisiert. Am bekanntesten ist vermutlich das Software-as-a-Service (SaaS) bei dem der Kunde in der Lage ist, eine Fachapplikation plattformunabhängig zu nutzen. Hier werden beispielsweise Customer Relationship Systeme oder Collaboration Suiten in Anspruch genommen. Der Anbieter übernimmt hier alle notwendigen Aufgaben, die sich rund um den Applikationsbetrieb ergeben. Dazu stellt er neben der Anwendung auch die notwendige Infrastruktur zur Verfügung. Werden dagegen nur einfache IT-Ressourcen wie Speicher oder Rechenkapazität benötigt, so lassen sich diese über ein Infrastructure-as-a-Service (IaaS) Angebot nutzen. Irgendwo zwischen diesen beiden Leistungsbündeln befindet sich Plattform-as-a-Service (PaaS), bei dem komplette Entwicklungs- und Betriebsumgebungen nutzbar sind.

Einfach und dynamisch

Die Vorteile für die Nutzung von Cloudleistungen liegen auf der Hand. Der Kunde kann die Leistung sofort nutzen und alle betrieblichen Aufgaben an den Anbieter überwälzen. Dabei bezahlt er nur das, was er auch wirklich nutzt. Die Dienstleister können im Gegenzug die Auslastung ihrer Infrastruktur erhöhen und die Betriebskosten auf viele Kunden verteilen. Gleichzeitig sind sie in der Lage, ihren Absatzmarkt zu vergrößern. Regionale Lage und Größe der Kunden treten in den Hintergrund, so dass die Leistungen einem breiteren Kundenkreis angeboten werden können. Als Schnittstelle dient in der Regel eine Self-Service-Plattform, auf der der Kunde die Abwicklung seiner Leistungen selbst organisiert. Hier kann er das Leistungsvolumen und gegebenenfalls das Leistungsniveau überwachen und selbst an seine Bedürfnisse anpassen. Dadurch werden die Transaktionskosten, die bei der Anpassung und Abwicklung von Leistungen entstehen, auf beiden Seiten weiter reduziert. Jenseits dieser Plattform bleibt die Umsetzung der Leistungserbringung für den Kunden intransparent. Auf der einen Seite ist das auch ein erwünschter Effekt. Der Kunde möchte ja nur die Leistung nutzen, sich aber eben nicht um die Erbringungsdetails kümmern. Auf der anderen Seite ist der Kunde aber auch verpflichtet sicher zu stellen, dass er gesetzliche Vorgaben in Bezug auf Datensicherheit und Datenschutz einhält. Dies fällt ihm allerdings gerade wegen dieser Intransparenz schwer.

Was ist drin?

Grundsätzlich haben Anbieter und Kunde eigentlich recht unterschiedliche Interessen. Während der Kunde ein Höchstmaß an Leistung erwartet und dafür so wenig wie möglich ausgeben möchte, verhält es sich beim Anbieter genau umgekehrt. Dies ist in allen vertraglichen Situationen so und stellt normalerweise kein Problem dar. Der Kunde hat für ein definiertes Leistungsniveau eine gewisse Zahlungsbereitschaft. Im Gegenzug hat der Verkäufer einen Mindestpreis, den er erzielen muss. Ist die Zahlungsbereitschaft mindestens so hoch wie der Mindestpreis, so kann ein Geschäft zustande kommen. Vor dieser Situation stehen Mensch und Unternehmen täglich und meistern sie hervorragend. Voraussetzung hierfür ist, dass der Gegenstand der gekauft bzw. verkauft werden soll, beiden Parteien hinreichend bekannt ist. Die ist jedoch bei Cloud-Services gerade nicht der Fall. Für den Kunden sind die Art der Leistungserbringung, die Performanzreserven, die Vorsorgemaßnahmen und das Sicherheitsniveau intransparent. Um die Anforderungen an die Leistung entsprechend definieren zu können, muss sich der Kunde doch wieder mit der Art und Weise der Leistungserstellung auseinandersetzen. Eigentlich ein Thema, das er überwälzen wollte. Dies ist ein Grund, warum sich der Cloud-Markt wesentlich langsamer entwickelt als vorhergesagt.

Lock-In

Ein weiteres Hemmnis, das die Entwicklung des Cloud-Marktes bremst, ist der Lock-In-Effekt. Es ist zwar relativ einfach, in der Cloud loszulegen, hat man sich aber mal für einen Anbieter entschieden, so ist man auf diesen festgelegt. Gerade bei SaaS-Diensten werden proprietäre Datenmodelle verwendet, die sich technisch und strukturell kaum in andere Lösungen überführen lassen. Selbst wenn die Migration technisch machbar wäre, ist der Zugriff auf die Daten in der Regel beschränkt. Aus Sicht der Anbieter besteht auch kaum ein Grund, in eine leichtere Umzugsmöglichkeit ihrer Kunden zu investieren. Dies erhöht nur die Kosten und vergrößert die Gefahr, dass Kunden zur Konkurrenz wechseln.

Was tun?

Die Vorteile einer Cloud sind unübersehbar und der Siegeszug wohl schon lange nicht mehr aufzuhalten. Trotzdem müssen sowohl Dienstleister als auch Kunden einiges tun, damit sich der Markt und der Nutzen auf beiden Seiten noch besser entwickeln kann. Einige Aspekte wurden weiter oben schon angerissen. So sind die Kunden gefordert, ihre Bedürfnisse genauer zu fassen und passgenaue Angebote zu suchen. Dabei spielt das erwartete Nutzungsverhalten genauso eine Rolle wie Anforderungen an die Sicherheit und die Möglichkeit, zu einem anderen Anbieter umzuziehen. Für die Dienstleister wird es weiterhin wichtig sein, durch Transparenz an der Leistung und den Verrechnungsmodellen das Vertrauen der Kunden zu gewinnen und zu stärken.

Wie gehen Sie mit dem Thema um?

Diskutieren Sie mit:

Business Excellence Forum: Cloud Management

Am 22.10.2015 in München und am 19.11.2015 In Frankfurt am Main.

Das kostenlose Business Excellence Forum ist für interne und externe IT-Dienstleister und ihre Kunden, die im Rahmen von Expertenrunden erfahren möchten, wie das Management von Services, deren Sicherheit und Risiken nachhaltig verbessert werden können. Erfahrene Referenten berichten über neue Erkenntnisse, ihre Herausforderungen in der Praxis und erläutern praktikable Lösungen. Im Anschluss werden die Erfahrungen aller Teilnehmer im Plenum und im Rahmen eines Business Lunches in lockerer Atmosphäre diskutiert. Eine perfekte Gelegenheit für alle die neue Blickwinkel erkennen und Kontakte aus der Branche knüpfen möchten.

Steuerung durch Kennzahlen – keine Frage der Reife

Steuerung und Kennzahlen

Die Steuerung eines Unternehmens benötigt Ziele und passende Kennzahlen. Trotzdem gibt es immer wieder Zweifel, ob die Reife der Organisation ausreicht, bestimmte Kennzahlen und Kennzahlensysteme einzusetzen. Dies wirft die interessante Frage auf, welchen Reifegrad ein Unternehmen haben muss, damit der Einsatz von Kennzahlen sinnvoll und wirksam ist. Und wie immer bei solchen Überlegungen erzeugt eine Fragestellung sofort die nächste. Was ist denn überhaupt Reife? Wie misst man den Reifegrad? Wie lässt sich die Sinnhaftigkeit von Kennzahlen bestimmen? Wann ist eine Kennzahl wirksam und wie bestimmt man ihren Mehrwert?

Reife und Reifegrade

Allgemein und akademisch ist die Reife die Vollendung eines körperlichen oder geistigen Wachstumsprozesses. Damit ist auf der einen Seite ein gewisser Erfahrungsschatz verbunden und auf der anderen Seite ein angemessener Umgang mit dieser Erfahrung in Bezug auf bekannte und vor allem neue Situationen.

Da die Reife nichts Absolutes ist, versucht man, sie in Reifegrade zu unterteilen. In den letzten Jahren hat sich eine Vielzahl an Reifegradmodellen entwickelt. Nahezu jedes Beratungsunternehmen und auch viele andere Unternehmen haben ihre eigene Adaption für ein solches Modell und seine Anwendung entwickelt.

In der Regel beziehen sich die verwendeten Reifegrade auf die Qualität von Prozessen. Wichtige Vertreter sind hier Capability Maturity Model Integration (CMMI) oder auch SPICE (Software Process Improvement and Capability Determination oder ISO/IEC 15504). Mit Hilfe dieser Modelle wird erfasst, inwieweit Prozesse definiert sind und in welchen Umfang diese Prozesse angewandt werden. Fast alle diese Modelle unterscheiden Reifegrade in fünf Stufen. In der höchsten Reifegradstufe werden die Prozesse nicht nur gelebt, sondern sind auch selbstoptimierend.

 

Prozessreifegrade

 

Ein anderes Modell der Reifegrade kommt aus der Führungslehre. In ihrem Modell von 1977 haben Paul Hersey und Ken Blanchard den Reifegrad über eine Kombination von Motivation (psychologischer Reife) und Fähigkeit (Arbeitsreife) bestimmt. Hier wird der höchste Grad erreicht, wenn der Mitarbeiter sowohl fähig als auch willig ist. Gerade bei der Definition von Zielvereinbarungen (MbO, Management by Objective) spielt diese Art der Einteilung eine große Rolle. Ist der Mitarbeiter nämlich schon motiviert, so braucht es nicht zusätzliche Anreize, die eine weitere Motivation darstellen.

In diesem Beitrag soll die im Prozessmanagement übliche Reifegraddefinition verwendet werden.

Reife und Kennzahlen

Zur Erinnerung die einzelnen Reifegrade und ihre Bedeutung:

  • Reifegrad 5: Optimised
    Ein kontinuierlicher Verbesserungsprozess existiert und wird angewendet
  • Reifegrad 4: Managed
    Es existieren spezielle Kennzahlen, mit denen die Performance und die Qualität gesteuert werden
  • Reifegrad 3: Defined
    Der Prozess ist definiert
  • Reifegrad 2: Repeatable
    Die Durchführung von Aktivitäten folgt einem minimalen Standard und liefert eine gewisse Planbarkeit und Ergebnisqualität
  • Reifegrad 1: Initial
    In der Regel kein Prozessmanagement

Stufe 5 hat demnach also schon ein vollständiges System mit kontinuierlicher Verbesserung, also der Nachverfolgung von Abweichungen etabliert. Das dazu notwendige Kenngrößensystem wurde in der Stufe 4 definiert. Stufe 3 legt den Prozess mit seinen wichtigsten Inhalten fest (Aktivitätsabfolge, Input, Output, Rollen und Ressourcen). Automatisch sind damit auch einfache Basisgrößen zur Performanz und Qualitätssteuerung bestimmt. Ein Unternehmen in der Reifestufe 2 kennt zumindest einige standardisierte Arbeitsabläufe, die in ihrer Art und in ihrem Umfang gut erfassbar sind. Aber selbst Unternehmen in der Stufe 1, in der noch kein Prozessmanagement existiert, müssen die zu erwartende Ergebnisqualität kennen und, im Sinne des Kunden, auch erfassen.

Dementsprechend werden in jeder Stufe Kennzahlen benötigt. Über die Stufen hinweg verändern sich jedoch die Einsatzmöglichkeiten. Geht es am Anfang noch um Einzelqualitäten und –aufwände für die zu produzierenden Ergebnisse so werden in den höheren Stufen eher die eingesetzten Produktionsmittel und –mechanismen überwacht und optimiert.

Die Frage, welche Reife notwendig ist, um mit Kennzahlen zu arbeiten, ist leicht ableitbar. Jede Stufe hat ihre eigenen und es gibt keine Untergrenze, ab der mit Kennzahlen gearbeitet werden kann. Alleine die Überlegung, welcher Reifegrad notwendig ist, stellt ja schon eine Beschäftigung mit Kennzahlen dar.

Allerdings kann es sein, dass grundlegende Voraussetzungen fehlen, um sich mit bestimmten Kenngrößen auseinanderzusetzen. Diese können in den Kenntnissen und Fähigkeiten der Mitarbeiter liegen, da diese häufig ungeübt im Umgang mit Kennzahlen sind. Dies kann auch darin begründet sein, dass bestimmte Basiszahlen fehlen oder es zu teuer ist, diese Größen zu erheben. Hierfür ist unter Umständen auch eine Anpassung der Arbeitsweise und der Prozesse notwendig. Und nicht zuletzt können technologische Voraussetzungen fehlen, um die konkreten Kennzahlen zu verwalten.

Trotzdem kann und muss unabhängig von der Reife einer Organisation jede Kennzahl und jedes Kennzahlensystem in Betracht gezogen werden. Wichtig ist dann nur, den Mehrwert zu bestimmen, der sich aus der Steuerung mit Hilfe dieser Zahlen ergibt und welche Aufwände und Kosten bei der Einführung entstehen. Ist die Abwägung positiv, dann sollte man sich auf den Weg machen, die Kennzahl einzuführen. Bei einem negativen Ergebnis gilt es, grundsätzlich den Einsatz von Kennzahlen attraktiver zu machen. Hier kann sicher ein richtiges Modell oder auch eine passende Technologie zum Einsatz kommen.

Wie sich die Wirtschaftlichkeit von Kennzahlen bestimmen lässt und welche Mittel zur Reduktion der Einsatzschwelle führen, wird in einem der nächsten Beiträge dargestellt.

Kennzahl für prozess- und serviceorientierte Auslastung: Service Activity Friction

Aufgaben und Service Activities

Die Service- und Prozessorientierung moderner Unternehmen erleichtert die Steuerung einzelner Leistungen sehr. Werkzeuge und Softwarelösungen helfen dabei, die Aufgaben zu erfassen und über ihren gesamten Lebenszyklus zu verwalten. Damit werden die zugehörigen Serviceaktivitäten (Service Activities), die zur Abarbeitung von Aufträgen notwendig sind, nachhaltig überwacht. Das gleiche gilt für Serviceaktivitäten, die sich aus Prozessen wie beispielsweise dem Request Fullfillment, dem Change oder dem Incident Management ergeben. Die eingesetzten Werkzeuge liefern dabei eine gute Datenbasis für die Steuerung und Optimierung.

Auslastungssteuerung

Ziel dieser Optimierung ist, neben der allgemeinen Prozessverbesserung, eine optimale Ressourcenausnutzung. Diese soll das richtige Maß zwischen Vorsorge und den mit dem Vorhalten von Kapazitäten verbundenen Kosten herstellen. Dieses Ziel ist mit einfachen statistischen Methoden erreichbar. Das gilt zumindest, wenn die Aufgabe isoliert betrachtet wird. Ist also eine Stelle oder ein Bereich nur mit einem Thema beschäftigt, so können die Verteilung von Aufwand und Häufigkeit der Aktivitäten einfach gemessen und in die Zukunft projiziert werden. Zusammen mit der gewählten Risikostrategie ergibt sich daraus das Maß der vorzuhaltenden Ressourcen.

 

Service Activity Friction

 

Herausforderung Matrixorganisation

So einfach ist es in modernen Unternehmen aber selten. In der Regel haben alle Mitarbeiter und natürlich auch die Bereiche, zu denen sie gehören, eine Vielzahl unterschiedlicher Aufgaben. Neben den Linienaufgaben unterliegen sie häufig auch den Anforderungen, die sich aus Prozessen ergeben. Die zur Verfügung stehenden Ressourcen werden dabei dynamisch den einzelnen Themen zugeordnet. Dementsprechend sind bei der Ressourcenplanung alle Obliegenheiten im Bereich zu berücksichtigen. Betrachtet man bei der Optimierung und bei der Auslastungssteuerung nur die einzelne Service Activity, so erhält man ein unvollständiges Bild für das Zusammenspiel aus Ressourcen und Abarbeitungsvermögen. Trotzdem ist es interessant, eine isolierte Kenngröße zu haben, die auch im komplexen Umfeld einer Matrixorganisation aussagefähig bleibt. Dazu kommt, dass diese Kenngröße auch organisationsübergreifend vergleichbar sein soll. Idealerweise schafft es die Kennzahl, auch Bereiche mit unterschiedlichen Kapazitäten und Mengenmodellen gegenüber zu stellen.

Anleihe aus der Arbeitsmarktforschung: Friktion

Eine Kenngröße, die die notwendigen Anforderungen erfüllt, ist die Activity Friction. Diese Kennzahl bedient sich der Erfahrung der Arbeitsmarktforschung. Dort unterscheidet man konjunkturelle, strukturelle und friktionelle Arbeitslosigkeit. Bei der konjunkturellen Arbeitslosigkeit existieren nicht genügend Stellen, um alle Arbeitssuchenden zu befriedigen. Eine strukturelle Arbeitslosigkeit ist anzutreffen, wenn zwar genügend Stellen für die Arbeitssuchende vorhanden sind, aber die geforderten und angebotenen Kompetenzen nicht übereinstimmen. Die friktionelle Arbeitslosigkeit ergibt sich aus den zeitlichen Verschiebungen, die beim erstmaligen Antreten einer Stelle nach der Ausbildung oder dem Studium vergeht oder die für den Wechsel von einem Arbeitgeber zum nächsten benötigt wird. Damit ist die friktionelle Arbeitslosigkeit die niedrigste Quote, die in einer perfekten Umgebung, bei der genügend offene Stellen jeweils genau passenden Bewerbern gegenüberstehen, zu erreichen ist. Nutzt man einfache Analogien, so ist dieses Modell auch auf Service Activities anwendbar. Die offenen Stellen werden durch die jeweiligen Aufträge, zum Beispiel Tickets, ersetzt. Die freien Ressourcen der Mitarbeiter der Bereiche treten an die Stelle der Arbeitssuchenden und die Friktion wird über den Zeitbedarf bei der Zuordnung und Erledigung der Aufgabe abgebildet.

Service Activity Friction

Die Service Activity Friction stellt also ein Maß für die durchschnittlich noch nicht begonnenen oder gerade in der Ababeitung befindlichen Serviceaktivitäten dar. In einer passenden Ressourcenvorsorge ist diese Größe nicht null, da immer ein gewisser Arbeitsvorrat vorhanden ist, der aber für seine Abarbeitung nur solange benötigt, dass keine Servicevereinbarungen gebrochen werden. Da es hier, ähnlich wie in der Arbeitsmarktforschung, nicht um die Betrachtung einzelner Zeitpunkte geht, sondern vielmehr um ein Maß für die in einem Zeitraum offenen Aufgaben, kommen über einen Zeitraum von mehren Tagen oder Wochen erfasste Größen zum Einsatz. Bewährt hat sich hier ein Monats- und ein Dreimonatswert. Die Friktion ist eine Verhältniszahl aus den im betrachteteten Zeitabschnitt abgeschlossenen und den gestarteten Aktivitäten. Dabei werden nur diejenigen abgeschlossenen Aktivitäten betrachtet, die auch im relevanten Zeitraum geöffnet wurden. Die so ermittelten Werte sind einfach zwischen unterschiedlichen Bereichen vergleichbar und zwar unabhängig davon , ob der jeweilige Bereich viele oder wenige Einzelaktivitäten oder Services abarbeitet. Somit stellt diese Kennzahl eine organisationsübergreifende Mess- und Vergleichsgröße dar.

Auswertung der Service Activity Friction

Die Service Activity Friction kann für zwei wesentliche Auswertungen verwendet werden. Zum einen kann mit ihr organisationsübergreifend eine Referenz gleichzeitig offener Aufträge bestimmt werden. Setzt man die Friktion mit dem Ressourcenverlauf, also der allgemeinen Mitarbeiterbasis mit Sondertätigkeiten, Urlaub und Krankheit, ins Verhältnis, so lässt sich mit ihr der für den Arbeitsvorrat zu erwartende Verlauf vorhersagen. Nutzt man die Friktion nicht direkt, sondern setzt die offenen Aufträge mit den Ressourcen mit Hilfe einer Beveridge-Kurve in Beziehung, so lassen sich strukturelle Aussagen über die Gründe für die offenen Aufträge machen. Die Beveridge-Kurve wird deshalb in einem der nächsten Beiträge näher betrachtet.

Prozessoptimierung: Ein Ziel braucht der Weg

Verbesserung durch Prozessoptimierung?

Prozesse werden zur effizienten Erledigung wiederkehrender Tätigkeiten eingesetzt. Gerade bei der Erbringung von Serviceleistungen spielen sie eine große Rolle. Hier sind die Service Management Prozesse nach ITIL ja in aller Munde. Aber auch im Vertrieb, im Kunden- und Lieferantenmanagement oder auch bei Finanzthemen finden Prozesse eine sinnvolle Anwendung. Und selbst Bereiche, die sich als sehr projektlastig bezeichnen, können von der strukturierten Wiederholung gleichartiger Aufgaben profitieren. Es ist aus diesem Grund auch naheliegend, dass Prozesse auch Gegenstand einer ganzen Reihe an Optimierungsmaßnahmen sind. Der Begriff Prozessoptimierung ist aber bei den wenigsten positiv belegt. Dies ist sehr erstaunlich, da ja Berater und Führungskräfte fast schon gebetsmühlenartig eine entsprechende Verbesserung fordern. Dann müsste es doch auch gute Beispiele geben. Die gibt es auch! Aber warum haben wir trotzdem ein so schlechtes Bild von der Prozessoptimierung?

Kein Weg ohne Ziele

Wie alle Optimierungen hakt auch die Prozessverbesserung an ungenügend definierten Zielen. Allzu häufig ist handelnden Personen völlig unklar, was das konkrete Optimierungsziel sein soll. Allgemein hört man hier die Begriffe schneller, besser und günstiger. Das ist in sich erst mal nicht ganz falsch, erreicht aber nicht die Genauigkeit und Tiefe, die bei Zielen von Nöten sind. Es sei hier nicht auf dem SMART-Begriff herumgeritten (dazu gibt es im Netz vielfältige Darstellungen und Erklärungen), vielmehr soll diskutiert werden, wie vor dem konkreten Prozesshintergrund ein solches Ziel oder vielleicht besser Zielsystem aussieht. Interessanterweise lassen sich solche Ziele direkt aus einem abstrakten Prozessmodell ableiten und sind somit unabhängig von der konkreten Prozessausgestaltung.

Zielgrößen

Ein Prozess – als kurze Erinnerung – ist eine Folge von Aktivitäten mit definiertem Input und Output.

Prozesse

 

Aus dem Prozess heraus können damit nur das Ergebnis und die Ergebnisqualität, die Durchlaufzeit und der Ressourceneinsatz pro Durchlauf beeinflusst werden. Somit stehen auch die möglichen Zielgrößen für eine Prozessoptimierung fest:

  • Reduktion des Ressourceneinsatzes
  • Erhöhung der Ergebnisqualität
  • Verringerung der Durchlaufzeit

Gerne wird bei der Kostenoptimierung auch die Reduktion der Anzahl an Prozessdurchläufen genannt. Dies ist jedoch aus Sicht des Prozesses gar nicht steuerbar. Nimmt man einen Produktionsprozess in der Automobilindustrie, so kann auch nicht aus der Fertigung heraus die Anzahl der zu erstellenden Türen einfach reduziert werden. Diese ergibt sich aus Art und Anzahl der bestellten Autos. Auch bei nicht produktiven Prozessen kann der Prozess selbst die Menge nicht anpassen. Nehmen wir einen klassischen Störungsbearbeitungsprozess, so sind die Incidents nun mal abzuarbeiten. Für mehr Robustheit und weniger Fehler muss an anderer Stelle gesorgt werden. Gerne verliert man bei der Optimierung genau diesen Fokus, so dass zwar Ideen entwickelt werden, aber die Kompetenzen nicht mehr ausreichen, die Umsetzung voran zu treiben.

Genauso verhält es sich mit der Ergebnisqualität. Ein – zugegeben abgedroschener – Spruch aus dem Qualitätsmanagement sagt: „Es gibt nur eine Qualität: die geforderte!“. Die geforderte Qualität wird aber nicht vom Prozess selbst determiniert, sondern vom Folgeprozess oder vom übergreifenden System vorgegeben. Damit kann im Rahmen einer Optimierung auch nur der Anteil der Prozessdurchläufe, die das geforderte Niveau weder über- noch unterschritten ist, maximiert werden (das ist der Kernansatz bei SixSigma).

Ceteris Paribus

Eine weitere Herausforderung bei der Optimierung ist es, der Neigung, alles gleichzeitig erreichen zu wollen, nicht nachzugeben. Man ist immer allzu leicht gewillt, das Beste für die niedrigsten Kosten haben zu wollen. Zwei oder gar mehr unabhängige Größen sind aber nicht gleichzeitig erreichbar.

Hier holt den Optimierenden häufig ein Defizit ein, das gar nicht so sehr ihr oder ihm zuzusprechen ist: Fehlende Anforderungen aus den Um- und Folgesystemen. Damit wird gerade in den Bereichen Ergebnisqualität und Durchlaufzeit im „Best Effort“ Stil gearbeitet. Fehlende Kenngrößen stellen dann noch nicht mal einen empirisch ermittelten Absprungpunkt dar. Gerne findet man solche Situationen bei hausinternen Dienstleistern, die nach besten Wissen und Gewissen ihre Services erbringen. In diesen Fällen scheuen sich häufig sowohl Erbringer als auch Abnehmer, nachhaltig ein Leistungsniveau, etwa Bereitstellungszeit für einen Server oder die Lösungszeit für eine Störung, festzulegen. Dies hat dann auch konsequenterweise zur Folge, dass keine der relevanten Kenngrößen erfasst wird. Damit befindet sich die Optimierung im Hinblick auf die Ziele, die Rahmenbedingungen und die Auswirkungen von Veränderungen freischwebend im Raum.

Optimieren, aber richtig

Damit sind alle Punkte genannt, die bei einer erfolgreichen Prozessoptimierung berücksichtigt werden müssen. So verschwindet der Tinnitus:

  1. Auf den Handlungsrahmen (Prozess) fokussieren
  2. Konkrete Ziele benennen
  3. Messgrößen festlegen und initial bestimmen
  4. Maßnahmen festlegen und Umsetzen
  5. Stetige Kontrolle und Nachjustierung

 

Dieser Betrag soll nochmal dabei helfen, den Rahmen für eine Optimierung aufzuspannen. In den nächsten Beiträgen werden einige konkrete Zielgrößen aus den Prozessen genannt und genauer beschrieben.

Standardisierung von Serviceverträgen

Serviceverträge

Mit Hilfe von Serviceverträgen werden Leistungen zwischen Service-Providern und ihren Kunden festgelegt. Diese haben aufgrund ihrer individuellen Entstehungsgeschichte häufig unterschiedliche Strukturen. Aus diesem Grund ist die Vergleichbarkeit zwischen einzelnen Verträgen nur sehr schwer herzustellen. Dies ist jedoch notwendig, wenn unterschiedliche Verträge verglichen oder harmonisiert werden sollen. Dies kann zum Beispiel der Fall sein, wenn ein Kunde einen neuen Dienstleister sucht oder ein Service Provider historisch gewachsene Verträge und die zugrunde liegenden Leistungen optimieren möchte.

Servicebaum

Servicebaum

Standardisierte Vertragsinhalte

Unabhängig von der konkreten Ausgestaltung und Historie der Verträge, lassen sich eine Reihe von wiederkehrenden Bestandteilen identifizieren.

  • Leistungsübernahme / -übergabe (Transition)
  • Investitionsorientierte Leistungen
  • Transaktionsorientierte Leistungen
  • Allgemeine Serviceprozesse und Rahmenbedingungen
  • Mengenmodelle und Zahlungsbedingungen

Gerade bei stark dienstleistungsorientierten Verträgen ist die Gestaltung des Leistungsübergangs von Inhouse-Betrieb oder vom vorherigen Provider an den neuen Dienstleister notwendig. Hier wird definiert, welche Investitionen der Partner notwendig sind und wie der Know-how Aufbau statt findet. Die Beschreibung ist dabei dual und betrifft sowohl die Übernahme der Leistung zu Vertragsbeginn, als auch die spätere Übergabe an einen möglichen Nachfolger bei Vertragsende. Neben den notwendigen Investitionen in Infrastruktur, Systeme und Know-how Aufbau werden hier vor allem auch Mitwirkungspflichten definiert.

Servicevertrag

Servicevertrag

Investitionsorientierte Leistungen

Als Basis für die Leistungserbringung müssen in der Regel Investitionen getätigt werden. Dies umfasst beispielsweise Server und Lizenzen, aber auch notwendige Liegenschaften und Räume. Abhängig vom konkreten Leistungsgegenstand und der entsprechenden Vereinbarung werden die hier beschriebenen Elemente exklusiv für den Partner angeschafft (spezielle Server oder Lizenzen) und betrieben oder für mehrere Kunden gleichzeitig genutzt (Rechenzentrumsräume oder Netze).

Transaktionsorientierte Leistungen

Neben der allgemeinen zur Verfügung Stellung von Leistungskomponenten werden auch Services einzeln abgerufen. Im einfachsten Fall werden hier Personenstunden in Anspruch genommen. Aber es sind auch einfache Tätigkeiten mit Ergebnisverantwortung möglich, wie zum Beispiel das Drucken, Paketieren und Versenden von Briefen oder auch komplexere Unterstützungsleistungen wie die Übernahme des Rechnungswesens.

Allgemeine Serviceprozesse und Rahmenbedingungen

Um das notwendige Qualitätsniveau der Leistungen festzulegen, müssen die relevanten Rahmenbedingungen auch im Vertrag festgehalten werden. Dazu gehören Verfügbarkeit, die Leistungs- und Servicezeiten genauso wie etwaige Sicherheitsanforderungen. Hier werden auch relevante Funktionen und Prozesse aus dem Service Management benannt. In der Regel sind das mindestens Service Desk und Störungs- und Veränderungsmanagement.

Mengenmodelle und Zahlungsbedingungen

Als Grundlage für die Kalkulation der benötigten Ressourcen müssen die bereitzustellenden Mengenmodelle festgelegt werden. In der Regel wird mit einer Basisgröße in der Transition gestartet und dann über passende Erweiterungs- bzw. Reduktionsmechanismen und Prozesse notwendige und sinnvolle Anpassungen vorgenommen. Diese Mengenanpassung ist für transaktionsorientierte Leistungsbestandteile naheliegend, aber natürlich auch für die Basisinfrastruktur notwendig. Gleichzeitig sind auch die Zahlungsmodalitäten zu definieren. Hier gibt es eine große Spannweite von Festpreisen bis hin zu rein transaktionsorientierten Preisen. In der Regel dürfte man allerdings eine nichtlineare Preisstruktur bestehend aus Basispreis und Mengenhebel vorfinden. Hier wird auch definiert, wie mit Mehr- und Minderleistungen und möglichen Vertragsboni bzw. -strafen umgegangen wird.

Querbeziehungen und Abhängigkeiten

Zwischen den hier beschriebenen Bereichen bestehen Beziehungen und Abhängigkeiten. So beeinflusst eine Verfügbarkeitsvorgabe unmittelbar die benötigte Infrastruktur und die Parametrisierung der Prozesse. Entsprechend ist der Vertrag trotz der Strukturierungsmöglichkeit mit all seinen Bestandteilen als Gesamtprodukt zu sehen. In der Regel zieht eine Veränderung eines Parameters eine Veränderung in mindestens einem der anderen Bereiche nach sich. Dabei werden in der Regel aber nur die Ausprägungen angepasst und nicht die zu Grunde liegende Struktur.

Vorteil

Die Entkopplung von Struktur und Ausprägungen einzelner Werte im Vertrag erlaubt eine einfache Anpassung von Verträgen, ohne dass diese substantiell neu geschrieben werden müssen. Darüber hinaus können so gestaltete Verträge auch untereinander leichter verglichen werden. Diese Vergleichsmöglichkeit bildet die Grundlage jeglicher vertragsorientierter Optimierung.

IT-Innovationsmanagement

IT-Innovationsmanagement

Ein moderner Geschäftsbetrieb ist stetig im Wandel. Entsprechend müssen sich auch die unterstützenden IT-Services flexibel an die veränderten Anforderungen anpassen. Unabhängig davon, ob quantitative oder qualitative Veränderungen notwendig sind, sollen sie kosteneffizient umgesetzt werden. Dies ist nur mit Hilfe von Innovationen zu erreichen.
Um die Weiterentwicklung nicht nur von zufälligen Ideen abhängig zu machen, muss der Umgang mit neuen Entwicklungen systematisiert werden. Denn auf Basis einer stabilen IT-Infrastruktur und kontrollierter Prozesse kann der Wertbeitrag der IT für das gesamte Unternehmen durch ergebnisorientiertes IT-Innovationsmanagement erheblich gesteigert werden. Dabei werden einzelne Erfolg versprechende Innovationsfelder bereits früh und pragmatisch angegangen. Ein dauerhaft wirksames Innovationsmanagement benötigt geeignete organisatorische Rahmenbedingungen und basiert auf einer transparenten Verfolgung der erreichten Wertbeiträge.

Innovation und Technologie

Grundsätzlich wird unter einer Innovation die wirtschaftliche Nutzung einer Idee oder Erfindung verstanden. Gerade in der Informationstechnologie ist man jedoch geneigt, Innovationen nur im technologischen Bereich zu suchen. Die Vergangenheit hat jedoch gezeigt, dass auch organisatorische, institutionelle, soziologische oder prozessuale Neuerung einen erheblichen Einfluss auf den Wertschöpfungsbeitrag der IT im Unternehmen haben kann. Eines der neueren Beispiele hierfür ist das Service Management nach ITIL. Dieses Beispiel zeigt auch, dass die Innovationen nicht immer Weltneuheiten sein müssen. Vielmehr geht es um eine im jeweiligen Kontext neuartige Nutzung auch bekannter Technologien, Instrumente und Methoden.

Innovationsmanagement als Motor für Qualitätssteigerung und Kostenreduktion

Für zukunftsorientierte Unternehmen (und welches Unternehmen möchte keine Zukunft haben?) ist es wichtig, einen Prozess zur Sicherung der Innovationsfähigkeit zu etablieren. Diese liefert nicht nur mögliche Verbesserungspotentiale aus dem bestehenden Portfolio, sondern nimmt auch Trends und Entwicklungen des Marktes auf, um diese wertschöpfend einzusetzen. Darüber hinaus werden konkrete Anforderungen oder spezielle Herausforderungen mit kreativen Instrumenten und Methoden gelöst und führen so zu einer Verbesserung der gesamten Leistungserbringung. So dient das Innovationsmanagement als Motor für Qualitätssteigerung und Kostenreduktion.

Innovationsprozess

Um Innovationen konsequent entwickeln und weiterverfolgen zu können, ist es am besten einen passenden Prozess zu etablieren. Ein Innovationsmanager übernimmt darin die Überwachung des Prozesses und damit auch seiner Ergebnisse. Er koordiniert und überwacht auch alle Aktivitäten im Bereich der Innovationsfindung und -weiterentwicklung. Der Innovationsprozess selbst läuft in vier Phasen ab. Zwischen den einzelnen Phasen entscheidet jeweils ein Gremium, das Innovation Advisory Board (IAB), ob die Idee bzw. die Innovation weiter verfolgt werden soll oder nicht.

Innovationsprozess

Innovationsprozess

In der ersten Phase, der Ideenfindungsphase, werden Trends beobachtet und zukunftsweisende Technologien oder organisatorisch-institutionelle Entwicklungen, neue Verfahren oder innovative Anwendungsfelder identifiziert. In der zweiten Phase wird in einem Forschungs- und Entwicklungsprojekt die Tragfähigkeit und Umsetzbarkeit der Idee analysiert. Hier werden auch die wirtschaftlichen Erfolgsaussichten bewertet. In der dritten Phase wird die Idee zu einem Prototypen weiter entwickelt und gegebenenfalls pilotiert. In der letzten Phase wird die Innovation produktiv umgesetzt und genutzt.

Messung von Innovationen

Natürlich ist es sinnvoll, auch den Innovationsprozess und seine Wirksamkeit kritisch zu hinterfragen. Dementsprechend werden auch hier Kennzahlen, Analysen und Dashboards benötigt. Welche das sind und wie diese aussehen können wird der Gegenstand des nächsten Blog-Beitrags sein.

keyto.innovation

Kennzahlen und Kennzahlensteckbrief

Kennzahlen und Steuerung

Kennzahlen sind die Treiber des Fortschritts und der Verbesserung.
Sie liefern Informationen zum Zustand eines oder mehrerer Systeme. Ohne sie ist es unmöglich, einen Zustand und Veränderungen objektiv darzustellen. Nur mit ihrer Hilfe lassen sich also Verbesserungspotentiale identifizieren und die Wirksamkeit von Maßnahmen nachweisen oder deren Unwirksamkeit schnell aufzeigen, soweit erforderlich.

keyto.panel

Management Dashboard

Steuerung sind diejenigen Maßnahmen, die notwendig sind, um ein definiertes Ziel zu erreichen (was im akademisch-kybernetischen Kontext nur fast richtig ist, im praktischen Umfeld aber zutrifft). Um das Ziel zu beschreiben und festzustellen, ob es erreicht wurde, sind Kenngrößen, die Kennzahlen notwendig. Damit sind Kennzahlen eine unabdingbare Voraussetzung für eine wirksame Steuerung.

Kennzahlen im Alltag

Der oben beschriebene Begriff der Kennzahl klingt sehr abstrakt, ist aber aus unserem Alltag nicht mehr weg zu denken. So kauft man beispielsweise ein neues Auto wegen Aussehen, Platzangebot, Verbrauch und sicher nicht zuletzt wegen der Beschleunigungswerte. Fährt man mit dem neu erworbenen Fahrzeug, so muss man sich in der Regel an ein Tempolimit halten und dieses, zumindest wenn man den Führerschein länger behalten will, auch einhalten. Damit das passgenau gelingt (also Limit plus 20, damit man nicht in die Punkteränge kommt), gleicht man die Vorgabegeschwindigkeit mehr oder weniger stetig mit dem Zielwert ab. An der Tankstelle kann man überprüfen, ob die Maßnahmen für den Spritverbrauch, schnell hochbeschleunigen und spät bremsen, auch ihre Wirkung zeigen.

Natürlich gibt es solche Kennzahlen auch im Unternehmensumfeld, nur dass sie im Allgemeinen nicht so leicht zu erfassen sind wie beim Autokauf. Gewinne, Umsätze, Kosten, Kundenreaktionen, Mengen und Qualifikation, Durchsatz von Prozessen oder die „Drop-Rate“ von Call Centern, überall finden sich Kennzahlen. Doch wie beschreibt man eine Kennzahl und wie geht man mit ihr um? Hier kommt der Kennzahlensteckbrief ins Spiel.

Kennzahlensteckbrief

Was gehört nun in einen Kennzahlensteckbrief. Die Antwort ist genauso einfach wie flach: alles was nötig ist!

In der Regel ist erst einmal die Größe, also die Kennzahl selbst, wichtig. Hierzu gehören beispielsweise Namen, kurze Beschreibung und natürlich die Einheit. Dabei ist zu berücksichtigen, was mit der Kennzahl erreicht werden soll. Entsprechend sind Zielgrößen und Maßnahmen bei Abweichungen hilfreich. Häufig werden Kennzahlen in verschiedenen Projekt- und Reifestufen unterschiedlich bewertet und ziehen dementsprechend andere Maßnahmen und Konsequenzen nach sich. Auch diese Veränderung sollte sich im Steckbrief wieder finden.

Kennzahlenkatalog

Alle Kennzahlen rund um einen steuerungsrelevanten Sachverhalt lassen sich in einem Kennzahlenkatalog zusammenfassen. In der Zukunft werden in diesem Blog konkrete Kennzahlen aus den unterschiedlichsten Unternehmensbereichen dargestellt. Wünsche, Ideen und Anregungen für die konkrete Ausprägung sind sehr willkommen.

keyto.keyperformanceindicator

Hallo

Hallo!

hier teilen wir unsere Gedanken rund um die Themen Steuerung und Kennzahlen bei Service Providern.

  • Welche strategischen Ziele hat ein Dienstleister?
  • Wie lassen sich die Ziele messen?
  • Welche Kennzahlen geben sinnvolle Steuerungsimpulse?
  • Was macht eine gute Kennzahl aus?
  • Helfen konkrete Kennzahlensteckbriefe?
  • Welche Folgerung zieht man aus einem konkreten Messwert?
  • Welche Anreizmechanismen lassen sich im Rahmen der Steuerung einsetzen?

Diese und viele andere Fragestellungen werden hier im Blog beleuchtet und diskutiert. Gerne nehmen wir neben Kommentaren zu den Posts auch Ideen zu weiteren interessanten und spannenden Themen entgegen.