Quo vadis Big Data - T-Systems

24. 5.4 Präferierte Betriebsmodelle & Lösungsanbieter. 25. 6 Fazit und ... stützten Online-Interviews (CAWI) nahmen insgesamt ... Banken/Versicherungen.
2MB Größe 51 Downloads 1117 Ansichten
Quo vadis Big Data Herausforderungen – Erfahrungen – Lösungsansätze

TNS Infratest

INHALT 1 Einleitung 5 2 Methode und Rahmendaten

7

3 Big Data – aktuelle Bedeutung bei den Unternehmen

9



3.1 Die Stellung unter den ICT-Zukunftsthemen

9



3.2 Handlungsbedarf bei Big Data

10



3.3 Entwicklungsstand der Data-Management-Strategie

11



3.4 Aktuelle, relevante Probleme und Herausforderungen

12

4 In-Memory-Technologien

13



4.1 Relevanz, Einsatzplanung und Erfahrungen

13



4.2 Aktuelle Einsatzbereiche von In-Memory-Technologien

15



4.3 Budgetansätze für In-Memory-Technologien

16



4.4 Zukünftige Einsatzbereiche und Kaufbereitschaft

17



4.5 Auswirkungen auf das Unternehmen & aktueller Status

19

5 SAP HANA™ 22

5.1 Bekanntheit von In-Memory-Anwendungen

22



5.2 Status Quo SAP HANA™

22



5.3 Bedeutung als Basis von SAP-Applikationen

24



5.4 Präferierte Betriebsmodelle & Lösungsanbieter

25

6 Fazit und Ausblick

28

4

1 Einleitung

Bereits 2010 durchbrach die weltweit in einem Jahr erzeugte Gesamtmenge an Informationen die Zettabyte Schallmauer.Das sind 1.000.000.000.000.000.000.000 Byte, eine Zahl mit 21 Nullen. Auf Facebook werden täglich im 20-Minuten-Rhythmus 2,7 Millionen Bilder eingestellt. Im Jahr 2010 wurden insgesamt 700 Milliarden Videos auf YouTube abgespielt. Neben den neuen digitalen und mobilen Medien, die eine Erzeugung sowie Vervielfältigung von Texten, Bildern, Audio- und Videodateien in bisher nicht erahntem Maße ermöglichen, sorgen technische Neuerungen wie beispielsweise das Internet der Dinge, Smart Systems für die intelligente Steuerung des Energieverbrauchs, sensorgesteuerte Haushaltsgeräte oder die Anforderung der Verknüpfung, Weiterleitung und standortunabhängigen Nutzung von Informationen für einen rasanten Anstieg der Menge an zu speichernden und zu verarbeitenden Daten. Abseits dieser Entwicklungen werden im Sinne der Verbesserung von Geschäftsprozessen immer stärker Informationen zu Kunden, Produkten sowie Lagerbeständen gespeichert. Neben der reinen Masse an Daten verschärft sich auch die Geschwindigkeit, in der Daten verarbeitet, analysiert und abgerufen werden. Während vor einigen Jahren das Abrufen von Daten im Wochen- bzw. Monatszyklus erfolgte, ist es mittlerweile für die optimale Unterstützung und Steuerung von Geschäftsprozessen unabdingbar, insbesondere Geschäftsdaten in Echtzeit gemäß der Bedarfe unterschiedlichster Abteilungen innerhalb einer Organisation zu analysieren und auszuwerten. Dabei ist es unabdingbar, aus den vorhandenen Daten die entscheidungsrelevanten Informationen zu extrahieren. Daten gewinnen somit immer mehr an Bedeutung als eine wirtschaftliche Ressource neben Kapital, Arbeitskraft und Boden. Damit verändert sich auch die Wahrnehmung von Daten: Von einem Nebenprodukt der Prozesse

werden Daten zu einem Faktor, um sich im Wettbewerbsumfeld besser zu positionieren bzw. in der Leistungsfähigkeit vom Wettbewerb abzugrenzen. Für die Gewährleistung des Wettbewerbsvorteils spielt dabei die Geschwindigkeit der Datenverarbeitung und -bereitstellung eine zentrale Rolle. Dabei steigt mit jeder spontanen Verarbeitung zur Unterstützung von Geschäftsprozessen wiederum die generierte Datenmenge. Abseits der Menge und Verarbeitungsgeschwindigkeit wandeln und vermehren sich die Quellen, die Daten erzeugen und die es in Analysen einzubeziehen gilt. Die zunehmende Mobilisierung in allen Lebensbereichen sowie die zu Beginn erwähnten Neuerungen wie Soziale Medien, intelligente Systeme und das Internet der Dinge sind nur einige Faktoren, die die existierenden Datenquellen vervielfältigen. Mit den Datenquellen hält gleichsam eine neue Vielfalt an Datenarten im geschäftlichen und privaten Bereich Einzug. Zum Beispiel fördern Soziale Medien die Verbreitung von Texten, Bildern, Musik- oder Videodateien, intelligente Geräte generieren unzählige Sensordaten. Neue Verarbeitungssysteme müssen in der Lage sein, einen Nutzen aus der Vielzahl an unterschiedlichen Arten ziehen zu können. Dabei steht nicht unbedingt die Varianz, sondern eher die Struktur von Daten im Fokus. Während bisher in der Regel strukturierte Informationen in relationalen Datenbanken verarbeitet wurden, verlieren erzeugte Daten immer mehr an Strukturierung und können somit nicht mehr mit herkömmlichen Datenbanken nutzbringend verwertet werden. Als Regel lässt sich sagen, dass heute lediglich 15 % der Daten strukturiert sind, ca. 85% der Daten sind unstrukturiert. Zentrale Herausforderung ist die rasant wachsende Komplexität, die aufgrund der mangelnden Struktur entsteht.

5

Alle drei beschriebenen Veränderungen, von der steigenden Datenmenge über die nötige Verkürzung der Verarbeitungsgeschwindigkeiten bis hin zur Vielfalt an Datenquellen und -typen sowie der damit einhergehende Verlust an Struktur, können per Definition unter einem in letzter Zeit sehr häufig erwähnten ICTSchlagwort kumuliert werden: BIG DATA.

Abbildung 1: Big Data

6

Welche Bedeutung hat aber nun Big Data bei den Unternehmen? Spiegeln sich die vermehrte Berichterstattung und die vielfältigen Kommentare aller Seiten bereits in der Wahrnehmung der Unternehmen wider? Wie werden Lösungsansätze wie In-MemoryTechnologien gesehen? Was ist der Status des neuen Produkts SAP HANA bei den Unternehmen?

2 Methode und Rahmendaten

Die quantitative Befragung wurde im Juni und Juli 2012 von der InfraLive GmbH durchgeführt. Auf Basis der aggregierten Daten hat die TNS Infratest GmbH den vorliegenden Bericht erstellt. An den computergestützten Online-Interviews (CAWI) nahmen insgesamt 1.010 Personen aus der DACH-Region (Deutschland, Österreich, Schweiz) sowie den weiteren Fokusländern Frankreich, Spanien, Russland, Südafrika, Brasilien und den USA teil. Um besonders für Deutschland fundierte Aussagen treffen zu können, wurden 200 Befragte aus Deutschland für die Studie gewonnen. In den weiteren Ländern wurde jeweils eine gleich verteilte Stichprobe (n=100) realisiert. Als Grundgesamtheit wurden privatwirtschaftliche Unternehmen sowie öffentliche Einrichtungen mit mindestens 500 Mitarbeitern im jeweiligen Befragungsland definiert.

Zielgruppe waren ICT-Entscheider bzw. Mitentscheider sowie mit Big-Data-Themenstellungen konfrontierte Fachentscheider. Hinsichtlich der Funktion im Unternehmen setzt sich die realisierte Stichprobe folgendermaßen zusammen: Ein Drittel der Befragten sind alleinige ICT-Entscheider, jeweils ein Viertel der Befragten stuft sich als Haupt- bzw. Mitentscheidungsträger ein. Weitere 20 % der Befragten sind in Fachabteilungen tätig, die sich mit Big-Data-Fragen inhaltlich beschäftigen. Für die Unternehmensgröße lag in der realisierten Stichprobe eine annähernde Gleichverteilung vor. Ausnahme sind Organisationen mit 5.000 bis 9.999 sowie 500 bis 999 Mitarbeitern.

Abbildung 2: Zusammensetzung der Stichprobe nach Rolle und Unternehmensgröße

500–999 MA

1.000–1.999 MA

2.000–4.999 MA

5.000–9.999 MA

>10.000 MA

Basis: n=1.010.

Alleiniger Entscheidungsträger für ICT Hauptentscheidungsträger für ICT ICT-Mitentscheider Fachentscheider

7

Abbildung 3: Branchenverteilung unter den Unternehmen der Stichprobe

Industrie inkl. Bergbau Versorger Handel Kommunikation/Information Banken/Versicherungen Dienstleistungen Öffentlicher Sektor

Basis: n=1.010.

Die Studie fokussiert sich in erster Linie auf Branchen, die in besonderem Maße mit großen Datenmengen konfrontiert sind. Daher standen im Mittelpunkt dieser Untersuchung die Branchenklassen Industrie inkl.

8

Bergbau, Versorgungunternehmen, Handel, Kommunikation und Information, Banken und Versicherungen, unternehmensbezogene Dienstleistungen sowie der öffentliche Sektor.

3 Big Data – aktuelle Bedeutung bei den Unternehmen

Die aktuelle Bedeutung des Themas „Big Data“ bei den Unternehmen lässt sich am besten durch die Stellung dieses Themas unter den allgemeinen ICTZukunftsthemen ablesen. Inhaltlich gilt es dabei zu beleuchten, wie es um den Entwicklungsstand der Data-Management-Strategie in den Unternehmen bestellt ist und welche Pain Points den Unternehmen aktuell zu schaffen machen.

Vervielfältigung von Datentypen oder -quellen und damit auch zu einer Verschärfung der Big-DataProblematik. Eine Tatsache, die den Entscheidern immer bewusster wird.

Abbildung 4: Relevanz und Investitionsbedarf ICT-Zukunftsthemen

3.1 Die Stellung unter den ICT-Zukunftsthemen IT Security & Governance ist für die Unternehmen immer noch das wichtigste IT-Thema. Diesem Themenbereich wird sowohl hinsichtlich der aktuellen Relevanz als auch hinsichtlich des Investitionsbedarfs die höchste Priorität eingeräumt. Nachfolgend werden von den Befragten die Themenbereiche mobile Technologien, Virtualisierung sowie Cloud Computing genannt. Dabei handelt es sich um Themenstellungen, die bereits seit einiger Zeit diskutiert werden. Trotz der relativ kurzen Zeit, in der das Thema „Big Data“ Raum in der Diskussion fasst, nimmt es bereits eine Position im Mittelfeld der Wahrnehmung ein und hat Themen wie Collaboration und Outsourcing hinsichtlich der Relevanz den Rang abgelaufen. Obwohl das Thema auf der Agenda der Unternehmen stark nach oben drängt, bleibt aber festzuhalten, dass die Herausforderung „Big Data“ bei den Unternehmen noch nicht jene Bedeutung gefunden hat, wie es die Diskussion der letzten Monate vermuten lässt. Ein Grund dafür könnte sein, dass die Problematik des Themas in der Regel durch nachgelagerte Prozesse getrieben ist: Wie bereits beschrieben, führen unter anderem mobile Technologien – ein Thema mit hoher Relevanz und hohem Investitionsbedarf – zu einer

Basis: n=1.010.

Stellt man der aktuellen Relevanz den konkreten Investitionsbedarf bezüglich der Big-Data-Thematik gegenüber, ergibt sich auf Länder- und Branchenebene ein überaus differenziertes Bild. Unternehmen aus den USA, Russland und Spanien messen Big Data sowohl eine höhere Relevanz als auch einen erhöhten aktuellen Investitionsbedarf im Vergleich zum Durchschnitt der befragten Unternehmen bei. Die Unternehmen in den USA nehmen somit auch hier ihre Vorreiterrolle bei innovativen Themen wahr. Eine abgeschwächte Einstufung im Vergleich zum Durchschnitt der befragten Unternehmen erhält Big Data in der DACH-Region sowie in Frankreich. Dies war zu erwarten, da die DACH-Region generell zurückhaltender ist bei neuen Themen. In Südafrika und Brasilien wird die Relevanz des Themas erkannt, allerdings spiegelt sich dies nicht in einem erhöhten Investitionsbedarf wider.

9

Unternehmensbezogene Dienstleister messen Big Data im Branchenvergleich die größte Relevanz und einen hohen Investitionsbedarf bei. Ein erhöhter Bedarf ist darüber hinaus für den öffentlichen Sektor sowie für die Energie- und Wasserversorger festzustellen. Auffällig ist die reserviertere Bewertung des Themas durch die Banken- und Versicherungsbranche als auch den Handel. Hinsichtlich des Bankenwesens können Gründe hierfür in der vorrangigen Verarbeitung strukturierter Daten als auch einem traditionell leistungsfähigen Daten-Management-System liegen.

Jahre – relativ betrachtet – weniger stark zunehmen. Am stärksten wird der Handlungsbedarf bei Big Data in den kommenden beiden Jahren bei Unternehmen aus Brasilien zunehmen. Mit Ausnahme von Frankreich und den oben erwähnten Ländern Österreich und Schweiz erwarten alle weiteren Länder ein deutliches Ansteigen des Handlungsbedarfs bei den Unternehmen.

Abbildung 6: Handlungsbedarf bei und Entwicklung von Big Data nach Land

Abbildung 5: Relevanz und Investitionsbedarf Big Data nach Branchen

*Dargestellt sind Mittelwerte auf einer 5er-Skala. Basis: DE n=202; AT n=100; CH n=100; BR n=102; FR n=100; RU n=100; ES n=100, SA n=100; USA n=106.

Basis: Industrie n=220; Energie n=41; Handel n=113; Kommunikation n=92; Banken n=129; Dienstleistungen n=155; Öffentlicher Sektor n=260.

3.2 Handlungsbedarf bei Big Data Big Data konnte sich innerhalb kurzer Zeit unter den Top-ICT-Themen etablieren. Der Handlungsdruck, dem die Unternehmen bei diesem Thema ausgesetzt sind, ist bereits sehr ausgeprägt. Auffallend ist, dass insbesondere die befragten Unternehmen in Spanien und den USA aktuell einen noch höheren Handlungsdruck bei diesem Thema im Vergleich zum Durchschnitt der befragten Unternehmen verspüren. Trotz einer ähnlichen Einstufung hinsichtlich Relevanz und Investitionsbedarf, wie bei den Unternehmen in Spanien und den USA, setzen sich die Unternehmen in Russland weniger intensiv mit der Thematik auseinander. Erwartungsgemäß ist der Handlungsdruck bezüglich Big Data bei Unternehmen aus Österreich und der Schweiz niedriger im Vergleich zu Unternehmen aus den anderen Ländern. Zudem wird in beiden Ländern der Handlungsbedarf über die nächsten zwei

10

Im Branchenvergleich sehen Versorger für sich aktuell den höchsten Handlungsbedarf beim Thema „Big Data & Extreme Information Processing“. Getrieben wird diese Einstufung u. a. durch die Einführung von Smart Metering, also der intelligenten Steuerung und Kontrolle des Energieverbrauchs, sowie durch das Zukunftsthema Smart Grids, der bedarfsgerechten Steuerung von Verteilnetzen und Produktionskapazitäten. Wie zu erwarten war, spielt das Thema Big Data auch in stark informations- und servicegetriebenen Branchen wie der Dienstleistungs- oder Kommunikationsbranche bereits heute eine wichtige Rolle. Die Befragten aus dem Bankensektor nehmen den aktuellen Handlungsbedarf hingegen noch etwas reservierter wahr. Branchenübergreifend lässt sich aber festhalten, dass der Handlungsbedarf rund um das Thema „Big Data & Extreme Information Processing“ zusehends wächst. Ein besonders deutlicher Anstieg beim Handlungsbedarf wird dabei bei den Versorgern und den Kommunikationsunternehmen erwartet.

bezeichnen das Datenmanagement als sehr entwickelt bzw. entwickelt. Ein Drittel befindet sich aktuell in der Entwicklung einer geeigneten Strategie. Nur 2% geben an, bisher noch über keine strategische Ausrichtung zu verfügen.

Abbildung 7: Handlungsbedarf bei und Entwicklung von Big Data nach Branche

*Dargestellt sind Mittelwerte auf einer 5er-Skala. Basis: Industrie n=220; Energie n=41; Handel n=113; Kommunikation n=92; Banken n=129; Dienstleistungen n=155; Öffentl. Sektor n=260.

3.3 Entwicklungsstand der Data-Management-Strategie Nachdem bisher gezeigt wurde, dass Big Data zunehmend an Relevanz, Investitions- sowie Handlungsbedarf gewinnen wird, stellt sich nun die Frage, wie gut die Unternehmen im Rahmen ihrer Data-Management-Strategie bereits heute darauf eingestellt sind bzw. welche Schwachpunkte auszumachen sind. Aufgrund der Anforderung, eine Vielzahl an verschiedensten Daten in immer kürzerer Zeit zu verarbeiten, spielt das Datenmanagement in der IT-Strategie von Unternehmen und öffentlichen Einrichtungen eine immer zentralere Rolle. Die Mehrheit der Befragten sieht das eigene Unternehmen hinsichtlich der Data-Management-Strategie gut aufgestellt, mehr als die Hälfte

Unter den Ländern, in denen Big Data eine hohe Relevanz besitzt, wird der Entwicklungsstand der eigenen Data-Management-Strategie unter den befragten Unternehmen ebenfalls als überdurchschnittlich bewertet. Mit 72 % sehen vor allem US-amerikanische Organisationen ihre Strategie hinsichtlich des Datenmanagements als sehr entwickelt bzw. entwickelt. In Spanien und Russland schätzen zwei Drittel der Entscheidungsträger die bisherigen Anstrengungen als überdurchschnittlich ein. Die Angaben der deutschen IT-Entscheidungsträger bewegen sich im Einklang der Gesamtergebnisse, 50% der Befragten geben an, dass der Entwicklungsstand der eigenen DataManagement-Strategie entwickelt oder bereits sehr entwickelt ist. Nachholbedarf in der Ausarbeitung der eigenen Data-Management-Strategie wird von den befragten Unternehmen in Frankreich, Österreich und der Schweiz gesehen. Nicht einmal jeder Dritte der in der Schweiz befragten IT-Entscheidungsträger nimmt die eigene Data-Management-Strategie als entwickelt bzw. sehr entwickelt wahr. Die Branchenbetrachtung zeigt, dass hier die Streuung in der Einschätzung insgesamt niedriger ist. In der Mehrheit sehen sich die Unternehmen über die Branchen hinweg gut aufgestellt. Insbesondere gilt dies für die Versorger, die Kommunikationsunternehmen sowie die Industrieunternehmen, d. h. Branchen, die Big Data als aktuell relevant ansehen. Speziell der öffentliche Sektor sowie der Handel sehen sich relativ

Abbildung 8: Entwicklungsstand der Data-Management-Strategie Sehr entwickelt Entwickelt Mitten in der Entwicklung Wenig entwickelt Bisher gar nicht entwickelt Weiß nicht / keine Angabe

*Dargestellt ist der Mittelwert auf einer 5er-Skala. Basis: n=1.010.

11

zu den anderen Branchen hinsichtlich der Datenhaltung und Verarbeitung noch nicht ausreichend aufgestellt. Darüber hinaus fällt auf, dass Befragte aus dem Dienstleistungssektor deutlich zurückhaltender die Entwicklung der eigenen Data-ManagementStrategie im Vergleich zur Spitzengruppe unter den betrachteten Branchen bewerten. Bemerkenswert ist diese Einschätzung aufgrund der aktuellen und zukünftigen Herausforderung, die sich die Branche in Bezug auf Big Data und dem damit verbundenen Handlungsbedarf attestiert.

3.4 Aktuelle, relevante Probleme und Herausforderungen Das Datenmanagement beeinflusst viele Bereiche innerhalb eines Unternehmens. Durch die zunehmende Komplexität der Datenverarbeitung steigen die Herausforderungen und es entstehen mitunter neue Probleme in den unterschiedlichsten Geschäftsbereichen und -prozessen. Aktuell werden die Herausforderungen innerhalb der Data-Management-Strategie in unterschiedlichen Themengebieten gesehen. Die TopHerausforderungen bei den befragten Unternehmen im Rahmen ihrer Data-Management-Strategie lassen sich grob in prozessuale und strukturelle Probleme clustern. Eine wichtige Herausforderung ist die Redu-

zierung der Komplexität und Anzahl von Schnittstellen. Insbesondere befragte ICT-Entscheider aus Frankreich und von Versorgungsunternehmen erwarten hier die größten Probleme beim Datenmanagement. Weiterhin wird die erwartete Explosion der Gesamtbetriebskosten als akuter Pain Point genannt. Darüber hinaus wird auch der weitere Anstieg der Datenmengen auf den Systemen als problematisch betrachtet. Gerade diese beiden Faktoren bereiten besonders den Versorgungsunternehmen Probleme. Neben diesen Aspekten, die hauptsächlich struktureller Natur sind, werden auch zwei Punkte genannt, die sich eher mit der operativen und prozessualen Geschäftsebene befassen. Die steigende Menge und Vielfalt der erfassten Daten sorgt für zunehmende Schwierigkeiten, diese gewinnbringend für eine Verbesserung und Erneuerung von Geschäftsprozessen zu nutzen. Besonders die Befragten in Österreich und der Schweiz sehen sich aktuell mit dieser Problematik konfrontiert. Zusätzlich stehen die Befragten in der Umsetzung ihrer Data-Management-Strategie vor der Herausforderung, die Daten am Ende des Tages auch für die Verbesserung ihres Produkt- und Serviceportfolios zu nutzen. Diesen Punkt sehen speziell ICTEntscheider aus den USA und aus dem Handel als momentane Schwierigkeit.

Abbildung 9: Aktuelle Pain Points im Rahmen der Data-Management-Strategie

*Dargestellt sind Mittelwerte auf einer 5er-Skala. Basis: n=1.010.

12

4 In-Memory-Technologien

Wie eingangs erläutert, stehen Data-ManagementSysteme aktuell vor der Herausforderung, eine immer weiter steigende Menge an unterschiedlichsten Daten in immer kürzerer Zeit verarbeiten zu müssen. Klassische Verfahren wie relationale Datenbanken stoßen angesichts dieser Herausforderung immer stärker an ihre Grenzen. Daher sind spezielle Technologien wie beispielsweise MapReduce-Ansätze, NoSQL-Datenbanken für die Verarbeitung von unstrukturierten Daten oder In-Memory-Verfahren für die Bewältigung der Anforderungen nötig. Während klassische Datenbanken den Festplattenspeicher zum Ablegen von Informationen verwenden, halten In-Memory-Systeme die Informationen im Arbeitsspeicher eines Rechners vor und bieten auch die Möglichkeit einer spaltenorientierten Datenhaltung. Dadurch können deutlich höhere Zugriffsgeschwindigkeiten gewährleistet werden. Zusammenfassend ist festzustellen, dass In-Memory-Verfahren insbesondere auf die Big-Data-Herausforderung der immer kürzer werdenden Verarbeitungsgeschwindigkeiten einzahlen.

4.1 Relevanz, Einsatzplanung und Erfahrungen Hinsichtlich der Relevanz von In-Memory-Technologien bei den befragten Großunternehmen und öf-

fentlichen Einrichtungen zeigt sich ein überaus klares Bild. Mehr als die Hälfte der Befragten geben an, dass Bestrebungen bezüglich der Implementierung dieser technischen Neuerung in der aktuellen DataManagement-Strategie eine zentrale Rolle spielen. Insbesondere in den Ländern Brasilien und USA erfahren In-Memory-Verfahren einen hohen Stellenwert im Rahmen der aktuellen Data-ManagementStrategie. Vor dem Hintergrund einer reservierteren Bewertung von Big Data in Deutschland im Vergleich zum Durchschnitt der befragten Unternehmen ist erwähnenswert, dass In-Memory-Technologien bei der Hälfte der deutschen Befragten eine wichtige Rolle im Rahmen des Datenmanagements spielen. Grund dafür könnte sein, dass In-Memory-Technologien für die Big-Data-treibenden Neuerungen wie mobile Technologien eingesetzt werden sollen. Bei den Branchen zeigt sich wiederum, dass die besonders durch Informationen bzw. Service getriebenen Sektoren Kommunikation und Dienstleistungen, In-Memory-Technologien den höchsten Stellenwert beimessen. Zwei Drittel der Entscheidungsträger aus diesen Branchen geben an, bereits über den Einsatz nachzudenken. Die Hälfte der Befragten aus Versorgungsunternehmen sieht In-Memory-Technologien als relevant an. In Anbetracht der hohen Relevanz von Big Data bei Versorgungsunternehmen sowie techni-

Abbildung 10: Relevanz von In-Memory-Technologien

Basis: n=1.010.

13

schen Neuerungen wie u. a. Smart Metering, für die eine zeitnahe Übermittlung von Informationen zwingend notwendig sind, überrascht die Einstufung von In-Memory-Technologien als eher nachgelagertes Mittel zur Lösung der Big-Data-Herausforderungen. Zentral ist die Frage, ob bei den Befragten ausreichend Informationen zu den In-Memory-Verfahren vorhanden sind oder ob Versorgungsunternehmen insgesamt auf eine Lösung jenseits von In-Memory-Verfahren setzen werden, die nicht nur auf eine Optimierung der Geschwindigkeit ausgelegt ist. Bereits 16 % der befragten Unternehmen und öffentlichen Einrichtungen setzen zum heutigen Zeitpunkt In-Memory-Technologien für die Verarbeitung ihrer Daten ein. In den USA nutzen schon jetzt mehr als ein Drittel der befragten Unternehmen diese Technologie. Nach der geringen Relevanz von Big Data und im Durchschnitt geringeren Bedeutung von In-Memory-Technologien in der Schweiz und in Österreich, nutzen folgerichtig auch nur 2 % respektive 3 % bereits heute In-Memory-Verfahren. Fast ein Drittel der Unternehmen plant den Einsatz von In-MemoryVerfahren. In der Addition von aktueller Nutzung und geplantem Implementieren zeigt sich, dass annähernd jedes zweite Unternehmen bzw. öffentliche Einrichtung auf In-Memory-Verfahren setzt. Besonders hoch ist die gegenwärtige und zukünftige Einsatzbereitschaft in den USA, Spanien sowie Brasilien. Nach der eigentlichen Nutzung ist auch die beabsichtigte Einsatzbereitschaft in der Schweiz und in Österreich deutlich unterdurchschnittlich. Die Befragten aus Kommunikations- und Dienstleistungsunternehmen zeigen sich hier insgesamt am offensten. Mehr als die Abbildung 11: Einsatz von In-Memory-Technologien

Ja, im Einsatz Nein, nicht geplant Ja, geplant Nein, keine Relevanz

Basis: n=1.010.

14

Hälfte der Unternehmen aus diesen Bereichen zeigt sich geneigt, In-Memory-Technologien einzusetzen oder setzt sie bereits ein. Im Kommunikationssektor liegt die hohe Einsatzbereitschaft wohl in erster Linie an den Möglichkeiten von In-Memory-Technologien, Kunden maßgeschneiderte Angebote und eine präzisere Kundenbetreuung liefern zu können. Im Banken- und Versicherungssektor sowie der Industrie hat sich In-Memory-Computing bisher noch nicht durchgesetzt und wird anhand der aktuellen Planung auch keinen durchgängigen Einzug in die Unternehmen halten. Im öffentlichen Sektor zeigt sich hingegen eine durchschnittliche aktuelle Nutzung, allerdings fällt die Einsatzabsicht deutlich unterdurchschnittlich aus. Während In-Memory-Technologien für insgesamt 44 % gar keine Relevanz für die eigene DataManagement-Strategie besitzen, gibt in etwa jeder zehnte Befragte an, dass noch keine konkreten Planungen im Gang sind. Die Einführung einer In-Memory-Datenbank stellt ein eigenständiges IT-Projekt dar und erfordert dadurch höchste Fachkompetenz des Projekt-Teams, das für die Implementierung zuständig ist. In-MemoryTechnologien können dabei herkömmliche BusinessIntelligence-Systeme, die für gängige Auswertungen konzipiert sind, nicht nur drastisch beschleunigen (z. B. Fast Closing). Darüber hinaus sind durch die enormen Geschwindigkeitsvorteile erstmals sehr viel anspruchsvollere Analysen einer praktischen Anwendung denkbar. Aus diesem Grund ist die Frage nach den bisherigen Erfahrungen überaus interessant, da ein vielfältiges Meinungsbild zu erwarten ist.

Die Ergebnisse der Studie zeigen insgesamt außerordentlich positive Erfahrungswerte bei den befragten Unternehmen, die bereits In-Memory-Datenbanken einsetzen. 90 % der ICT-Entscheider, die bereits Erfahrungswerte zu der Technologie teilen können, beurteilen die Erfahrungen als sehr gut bzw. gut – und dies, obwohl die befragten Unternehmen sich oft schwer getan haben, Kosten und Nutzen in eigenen Assessments ex ante abzuschätzen. Damit wird deutlich, dass sich die Implementierung dieser verhältnismäßig neuen Technologie in der Regel auszahlt und sich die Anwendung nicht mehr in den Kinderschuhen befindet. Auch die O-Töne zu den bisherigen Erfahrungen und der Beurteilung der In-MemoryTechnologie bestätigen das positive Gesamtbild: Anwender berichten insbesondere über eine einfache Implementierung, unter Einhaltung der gemachten Zeit- und Budget-Vorgaben. Trotz hoher Implementierungs- und Gesamtbetriebskosten (engl. Total Cost of Ownership) sehen die Unternehmen mit ersten In-Memory-Erfahrungen eine gute bis sehr gute Rentabilität (engl. Return on Investment) für ihre Projekte.

4.2 Aktuelle Einsatzbereiche von In-Memory-Technologien Um objektiv potenzielle Einsatzmöglichkeiten für die Einführung von In-Memory-Computing zu definieren, bedarf es natürlich einer Orientierung an den Zielen des jeweiligen Unternehmens. Grundsätzlich ist ein Einsatz in fast allen Bereichen eines Unternehmens denkbar. Es bedarf jedoch eines genauen Assessments seitens der Unternehmen, wo der Einsatz von In-Memory-Technologien besonders erfolgversprechend ist. Die meisten Einsatzszenarien werden dabei für die Geschäftsprozessbereiche Finanzen, Produktentwicklung, Marketing und Vertrieb diskutiert. Aktuell setzen die befragten Unternehmen und öffentlichen Institutionen In-Memory-Technologien in erster Linie für Budget-to-Report-Prozesse (B2R) ein, d. h. In-Memory-Technologien werden vorrangig für die Planung, Formulierung und Erstellung von wirtschaftlichen Bewertungen einzelner Geschäftsprozesse eingesetzt. Fast die Hälfte der Befragten, die In-Memory-Technologien bereits heute einsetzen, verwenden diese Technologien im Rahmen von B2RProzessen. Für die nachfolgenden Prozessbereiche zeichnet sich ein recht homogenes Bild. Am oberen

Abbildung 12: Erfahrungen mit In-Memory-Datenbanken

*Dargestellt ist der Mittelwert auf einer 5er-Skala. Basis: Befragte, die In-Memory-Technologien nutzen n=165.

15

Ende der Auflistung finden sich die Prozessbereiche Proposal-to-Reward (P2R), ein Tätigkeitsablauf der sich mit der Analyse von Vertriebsaktivitäten und der darauf aufbauenden Definition sowie abschließenden Beurteilung von Provisionen befasst, sowie ServiceRequest-to-Resolution (SR2R) wieder. Letztere befassen sich in erster Linie mit der Erhaltung, Wartung sowie Pflege von Materialen, Baugruppen oder auch festen Einrichtungen. Den drei Prozessbereichen, in denen In-Memory-Technologien bereits heute häufig eingesetzt werden, ist gemein, dass in erster Linie Geschwindigkeitsanforderungen adressiert werden müssen. Für wirtschaftliche Bewertungen, die Wartung sowie die Analyse von Vertriebsaktivitäten als auch die Verteilung von Provisionsansprüchen müssen immer stärker in Echtzeit Daten abgerufen, analysiert und bereitgestellt werden. Dabei handelt es sich um Absatzzahlen, Budget Forecasts, Serviceanfragen bzw. aufgetretener Wartungsbedarf. In-Memory-Datenbanken sind prädestiniert, solche grundsätzlich strukturierten Daten zu verarbeiten und garantieren somit eine optimale Steuerung der erwähnten Prozesse. Nur geringfügig weniger Einsatz finden In-Memory-Verfahren aktuell in eher zeitunkritischen Geschäftsprozessbereichen wie der Produktentwicklung und im Marketing.

Abbildung 13: Aktueller Einsatz von In-Memory-Technologien

B2R – Budget To Report P2R – Proposal To Reward SR2R – Service Request To Resolution M2P – Market To Prospect P2S – Plan To Stock S2S – Service To Satisfaction P2P – Procure To Pay O2C – Order To Cash C2P – Concept To Product P2O – Prospect To Order

Basis: Befragte, die bereits In-Memory-Technologien nutzen n=165.

16

4.3 Budgetansätze für In-Memory-Technologien Das Budget gilt als Ergebnis der operativen Planung eines Vorgehens, welche wiederum der strategischen Stoßrichtung eines Unternehmens folgt. Dementsprechend müssen bereits Überlegungen über den Einsatz einer Technik vorausgegangen sein, bevor ein Budget veranschlagt werden kann. Mehrheitlich gaben die Unternehmen bzw. öffentlichen Institutionen an, noch keine konkreten Pläne zur Implementierung von In-Memory-Technologien zu verfolgen. Jeder dritte befragte ICT-Entscheider konnte allerdings konkrete Angaben zur Größenordnung des Budgets machen und zeigte damit, dass die Einsatzplanungen in die Budgetierungsphase vorgestoßen sind und die Themenstellung damit bereits finanziell eingestuft wurde. 13 % befinden sich in einer frühen Projektphase bzw. erst in der Implementierungsplanung und haben keine Budgethöhe genannt. In den Ländern, in denen Big Data eine hohe Relevanz besitzt, wurden bereits konkrete Budgetierungen vorgenommen. Insbesondere in den USA, Spanien und Brasilien ist dies der Fall. Bei den Branchen sind der Dienstleistungssektor und die Kommunikationsbranche am weitesten in der Projektplanung fortgeschritten, 43 % bzw. 39 % verfügen bereits über konkrete Budgets. Eine Betrachtung der taxierten Budgets bei den befragten Unternehmen macht deutlich, dass diese stark variieren. Knapp zwei Drittel der befragten Unternehmen verorten die Kosten für die Implementierung von In-Memory-Technologien zwischen 100.000 und einer Mio. Euro, immerhin 29 % geben einen deutlich höheren Wert für die veranschlagten Budgets an. Die sehr große Bandbreite der Budgetansätze lässt sich damit erklären, dass die Unternehmen nicht genügend über die Total Cost of Ownership informiert sind, die sich häufig erst auf Basis eines strukturierten Assessments bestimmen lassen. Dabei werden nicht nur die sinnvoll zu unterstützenden Geschäftsprozesse und die sich daraus ergebenden Vorteile identifiziert, sondern auch die verschiedenen Kostenblöcke, angefangen bei den Soft- und Hardwarekosten, über die Beratungs- und Wartungskosten bis hin zu den internen Weiterbildungskosten. Erwartungsgemäß ist die Kostenvorstellung in den Ländern, die In-Memory-Technologien bereits heute einsetzen, am realistischsten. Zwei Drittel der Be-

fragten aus den USA haben ein Budget zwischen 500.000 und 5 Mio. Euro kalkuliert, ein Fünftel budgetiert sogar Kosten von über 5 Mio. Euro. Brasilianische und spanische ICT-Entscheider machen zumindest zu über 50 % Angaben in der Größenordnung von 500.000 Euro und darüber. Speziell in Russland, der Schweiz und Österreich, wo noch kein erhöhter Handlungsbedarf in puncto Big Data gesehen und In-Memory-Technologien kein hoher Stellenwert beigemessen wird, liegen die Budgetansätze zu einem Großteil im niedrigen sechsstelligen Euro-Bereich. Unter den befragten Industrieunternehmen stellen zwei von fünf Unternehmen Budgets ab 1 Mio. Euro für InMemory-Technologien bereit. Immerhin jeweils ein Viertel der befragten Experten aus dem öffentlichen Sektor, der Kommunikationsbranche sowie dem Finanz- und Dienstleistungssektor plant mit ähnlichen Summen.

4.4 Zukünftige Einsatzbereiche und Kaufbereitschaft Während aktuell der größte Bedarf für In-MemoryTechnologien vor allem bei Finanz- und Vertriebsprozessen gesehen wird, zeigt die erwartete Entwicklung leichte Verschiebungen. Zwar sehen die Entscheider auch künftig den größten Nutzen der Technologie bei Budget- bzw. Reporting-Aufgaben sowie der

Pflege und Wartung. Darüber hinaus gewinnen aber der Produktentwicklungsprozess sowie der Serviceto-Satisfaction-Prozess an Bedeutung. Letzterer beschäftigt sich unter anderem mit der Festlegung von Serviceanforderungen, gesicherten Finanzierungen, Verträgen mit Lieferanten und auch dem Messen von Kundenzufriedenheit, der optimalen Aussteuerung des Kundenservices bzw. dem Etablieren von Serviceleistungen generell. Dieser Prozessbereich kann nur dann optimal unterstützt werden, wenn ein möglichst lückenloser Informationsstand gegeben ist. Dabei können neben der Menge der Daten auch die Vielfalt und Verschiedenheit der eingespielten Daten, die nicht ausschließlich auf konventionell verwertbare Art und Weise übermittelt werden bzw. indirekt über soziale Netzwerke veröffentlich wurden, eine Rolle spielen und so zusätzlich eine Herausforderung bei der Datenverarbeitung darstellen. An Bedeutung wird langfristig ebenso die Verwendung von In-MemoryTechnologien für produktnahe Geschäftsprozesse unter den Befragten gewinnen. Beispielhaft ist hier der Prozessbereich Concept-to-Product (C2P) genannt. Concept-to-Product beschreibt Aktivitäten, die mit der Entwicklung eines Produkts von der Ideenfindung bis hin zur Markt- und Produktionsreife verbunden sind. In-Memory-Verfahren sollen idealerweise alle produktbezogenen Daten synchronisieren und dadurch sowohl die Produktentwicklung als auch deren Planung und Fertigung optimieren und das Forschungsund Entwicklungsbudget besser ausschöpfen.

Abbildung 14: Budgetansätze für In-Memory-Technologien

Basis: n=1.010 *Basis: Befragte, die In-Memory-Technologien bereits budgetiert haben n=342.

17

Spannend ist hier der Blick auf die einzelnen Branchen. Die Unternehmen erwarten selbstredend in den für sie besonders relevanten Geschäftsprozessen eine starke Performance dieser neuartigen Technologien. Die stark produktionsorientierte Industrie sieht in InMemory-Technologien eine potenzielle Unterstützung im Rahmen der Produktentwicklung. Bei Versorgern sowie Organisationen aus dem öffentlichen Sektor, aber auch in der Kommunikationsbranche ist die Erfüllung der Wartungs- und Pflegeaufgaben (SR2R) einer der bestimmenden Treiber für In-Memory-Ansätze. Der Handel sieht In-Memory-Verfahren in erster Linie in der Steuerung der Produktbeschaffung, d. h. im Prozess Plan-to-Stock (P2S).

Eine Gegenüberstellung mit der eingangs gestellten Frage zum Investitionsbedarf in Bezug auf Big Data zeigt eine interessante Verknüpfung aus Bedarf und Bereitschaft. Betrachtet man insbesondere die Unternehmen, die einen hohen Investitionsbedarf bei BigData-Fragestellungen haben, steigert sich dieser Wert auf 62 %. Damit besteht zwischen dem generellen Investitionsbedarf in puncto Big Data und der Kaufbereitschaft bezüglich In-Memory-Technologien ein stark positiver Zusammenhang. In-Memory-Verfahren werden von den Befragten als ein wesentlicher Baustein zur Bewältigung der Big-Data-Problematik gesehen.

Abbildung 15: Zukünftige Einsatzbereiche von In-Memory-Technologien

B2R – Budget To Report S2S – Service To Satisfaction SR2R – Service Request To Resolution C2P – Concept To Product P2P – Procure To Pay P2S – Plan To Stock M2P – Market To Prospect O2C – Order To Cash P2O – Prospect To Order P2R – Proposal To Reward Basis: n=1.010.

Nach der generellen Bereitschaft gefragt, In-MemoryAnwendungen für das Unternehmen zu beschaffen und einzusetzen, geben 43 % der Befragten an, eine sehr hohe bzw. hohe konkrete Kaufbereitschaft für In-Memory-Technologien zu haben. Betrachtet man die Werte für die einzelnen Länder, so fällt auf, dass in Österreich und der Schweiz die konkrete Anschaffungsbereitschaft mit 14 % bzw. 22 % deutlich geringer ausfällt. Im Gegensatz dazu sind US-amerikanische (66 %), brasilianische (63 %), spanische (56 %) und auch russische Unternehmen (53 %) insgesamt eher bereit, derartige Datenverarbeitungsverfahren anzuschaffen.

18

Insbesondere der Handel, die Kommunikationsunternehmen sowie Dienstleister haben eine mittlere bis hohe Bereitschaft zum konkreten Kauf von In-Memory-Technologien. Wird die konkrete Kaufbereitschaft von In-Memory-Technologien in Zusammenhang mit der allgemeinen Investitionsbereitschaft in puncto Big Data betrachtet, zeigt sich dabei ein sehr differenziertes Bild bei den befragten Unternehmen. Während die Dienstleistungsbranche sowohl durch eine hohe In-Memory-Einsatzbereitschaft als auch einen hohen Investitionsbedarf hinsichtlich Big Data gekennzeichnet ist, haben der Handel, der Kommunikations- sowie der Finanzsektor niedrigen Big-Data-In-

vestitionsbedarf und eine hohe Bereitschaft In-Memory-Verfahren einsetzen zu wollen. Diese Tatsache deutet darauf hin, dass In-Memory-Technologien im Dienstleistungssektor als geeignetes Mittel für die Bewältigung der Big-Data-Herausforderungen gesehen werden. Im Handel und der Kommunikationsbranche findet keine vordergründige Verknüpfung von In-Memory-Technologien und Big Data statt. Beide Sektoren sehen in den Hauptspeicher-Datenverarbeitungsverfahren Anwendungsgebiete jenseits des Themas „Big Data“. Dass In-Memory-Computing dem eigenen Unternehmen bzw. der eigenen Institution bezüglich der neuen Herausforderungen eminent weiterhelfen kann, bezweifeln insbesondere die durch hohen BigData-Investitionsbedarf und niedrigen Einsatzwillen hinsichtlich In-Memory-Technologien gekennzeichneten Organisationen des öffentlichen Sektors und Versorgungsunternehmen.

Abbildung 16: Beschaffungsabsicht/ Investitionsbedarf nach Branchen

Basis: Industrie n=220; Energie n=41; Handel n=113; Kommunikation n=92; Banken n=129; Dienstleistungen n=155; Öffentlicher Sektor n=260.

4.5 Auswirkungen auf das Unternehmen & aktueller Status Auch große und komplexe Datenmengen nahezu in Echtzeit zu verarbeiten und für Analysen nutzbar zu machen, ist das Fundament, um auch Auswertungen durchzuführen, die früher aus Zeitgründen oder aufgrund der Komplexität nicht für möglich gehalten wurden. Dementsprechend lässt sich festhalten, dass die befragten Unternehmen In-Memory-Anwendungen großes Vertrauen entgegenbringen, positive Konsequenzen für ihre Organisation zu haben. Es werden sowohl bei eher prozessualen, als auch bei mehr strategischen Überlegungen positive Folgen vom Ein-

satz von In-Memory-Technologien erwartet. Im Detail sehen die Befragten diese Technologie vor allem als Prozessoptimierer bzw. Effizienz- und Effektivitätsoptimierer. Fast jeder Zweite rechnet bei der Prozessverbesserung mit sehr großen bzw. großen Effekten für das eigene Unternehmen. Nahezu ebenso viele ICTEntscheider gehen davon aus, dass die Einführung dieser neuartigen Datenverarbeitung die Organisation operativ unterstützen kann, indem sie generell die Performance im Tagesgeschäft verbessert. Die Ergebnisse verdeutlichen, dass die Wahrnehmung von In-Memory-Technologien stark mit der Verbesserung der Zugriffs- und somit Verarbeitungsgeschwindigkeiten verknüpft ist. Etwas nachgelagert sehen die Befragten Effekte bei der Entwicklung und Implementierung von neuen Prozessen als auch bei der Entwicklung von ganz neuen Angeboten, bei denen InMemory-Technologien unmittelbarer Bestandteil und Voraussetzung sind. Darauffolgend sehen die Befragten Möglichkeiten zur Reduzierung von ICT-Kosten. Dieses Ergebnis zeigt, dass vor allem die inhaltlichen Aspekte von In-Memory-Technologien für die befragten Unternehmen relevant sind. Also vor allem die Anwendungsmöglichkeiten gesehen werden, die mit konventionellen Methoden nicht zu bewerkstelligen sind. 42 % der Befragten sehen in In-Memory-Verfahren ein sehr hohes bzw. hohes Potenzial, fundierter Entscheidungen treffen zu können. Dies macht noch einmal deutlich, dass diese Technologie eher Leistungssteigerungen über den Faktor Geschwindigkeit realisiert und nicht dadurch, zielgerichtetere Entscheidungsgrundlagen zu schaffen. Auffallend ist an dieser Stelle darüber hinaus, dass ein etwas geringerer Anteil der Entscheidungsträger, nämlich 41 %, In-Memory-Anwendungen das Potenzial zusprechen, die Herausforderungen bezüglich Big Data als alleiniges Tool beherrschbar zu machen. Auf Länderebene ergibt sich grundsätzlich ein sehr homogenes Bild. Die „In-Memory-affinen“ ICT-Entscheider aus den USA, Südafrika und Spanien schätzen die Auswirkungen auf alle genannten Attribute als überdurchschnittlich groß ein. Auch die russischen Befragten sind bei der Performance im Tagesgeschäft, der Implementierung von neuen Prozessen aber auch bei der Befähigung fundierter Entscheidungen zu treffen, überdurchschnittlich positiv gestimmt. Die österreichischen und schweizerischen Unternehmen vermuten generell eher geringere Auswirkungen vom Einsatz von In-Memory-Technologien. Bei den Branchen zeigt

19

sich, dass der Handel die Effekte am positivsten beurteilt. Der Handel erwartet speziell bei der Produktentwicklung, der Prozessimplementierung und der Reduzierung von ICT-Kosten substanzielle Impulse. Ebenfalls überdurchschnittlich schätzen Versorger und die Dienstleistungsbranche die Auswirkungen ein.

zu erstellen. Im Zuge der Roadmap-Erstellung werden die Anforderungen der Neuerung mit bestehenden Elementen verglichen und die Auswirkungen der Implementierung auf Dynamik, Flexibilität und Kosten überprüft.

Abbildung 17: Auswirkungen des Einsatzes von In-Memory-Anwendungen

Basis: n=1.010.

Skeptischer sind hier vor allem der öffentliche Sektor und die Finanzindustrie. Die Betrachtung des aktuellen Stands der Bemühungen hinsichtlich In-Memory-Anwendungen macht deutlich, dass ein Großteil der Unternehmen sich bereits in der Planungsphase befindet. Bereits 16 % machen sich zumindest mit Hilfe von Testinstallationen mit den Anwendungen vertraut, um die Potenziale dieser Technologie konkret im Unternehmensumfeld beurteilen zu können. Fast ein Viertel der Unternehmen (23 %) hat die Beschaffung von In-Memory-Datenbanken geplant und in die IT-Strategie aufgenommen. Kein unumkehrbarer Schritt in Richtung Umsetzung, aber ein deutliches Zeichen dafür, dass der Einsatz geprüft wird. Knapp jedes sechste Unternehmen beschäftigt sich momentan mit der Analyse der Herausforderungen, die sich mit In-Memory-Computing potenziell lösen lassen. Darauf aufbauend können Ideen konkretisiert und priorisiert werden, um eine Roadmap

20

In dieser Phase befinden sich aktuell acht Prozent der Unternehmen. Dieser Schritt wird durch eine Erhebung der Anforderungen für ein Projekt und einer anschließenden Entwicklung eines Lösungsdesigns abgeschlossen, jeder fünfte Befragte ist mit seinem Unternehmen hier angelangt. Einen Schritt weiter und mit der konkreten Realisierung befassen sich insgesamt 21 % der befragten Organisationen. 5 % sind in der Beschaffungsphase und prüfen demnach die Angebote der unterschiedlichen Anbieter, 7 % prüfen bereits Akzeptanz und Performance von In-MemoryAnwendungen mit Testinstallationen. Und während 6 % der befragten Unternehmen schon In-Memory einsetzen und es zum Teil sogar auf weitere Bereiche ausweiten wollen, befassen sich momentan 3 % mit dem Rollout dieses Systems.

Abbildung 18: Status quo im Unternehmen

Kategorie „Weiß nicht/Keine Angabe“ nicht dargestellt. Basis: n=1.010.

21

5 SAP HANA™

Eine der bekanntesten Anwendungen für In-MemoryTechnologien ist SAP HANA – High Performance Analytic Appliance – des Softwareanbieters SAP. Ein Jahr nach der Produkteinführung lohnt sich ein Blick auf die Akzeptanz und Zufriedenheit der Unternehmen mit der Lösung.

5.1 Bekanntheit von In-Memory-Anwendungen Da es sich bei In-Memory-Technologien generell und bei SAP HANA speziell um eine relativ neue Entwicklung handelt, ist die Frage nach der aktuellen Bekanntheit der Produkte sehr zentral. Markenbekanntheit gilt als eine Grundvoraussetzung, damit sich potenzielle Kunden im Entscheidungs- und Kaufprozess für eine Lösung festlegen. Bei dieser Frage stehen zwei Anwendungen mit großem Abstand an der Spitze. Zwei Drittel der befragten ICT-Entscheider geben an, das Microsoft-Produkt SQL Server 2012 zu kennen, ein Produkt, das seit dem neuesten Release In-Memory-fähig ist. Allerdings gilt dabei zu beachten, dass der Begriff SQL per se den Anschein von Bekanntheit vermittelt, da es sich hierbei um einen Standard im Bereich der Datenbanken handelt. Kurz hinter dem Produkt von Microsoft, das bereits viele Jahre im Markt vertreten ist, befindet sich schon SAP HANA. 63 % kennen das Produkt. Damit kann SAP HANA bereits ein Jahr nach der Produkteinführung eine beachtliche Bekanntheit bei der relevanten Zielgruppe vorweisen. Über eine hohe Bekanntheit verfügt das Produkt speziell in der Industrie und der Dienstleistungsbranche. Die In-Memory-Datenbanken Solid DB von IBM sowie Times Ten von Oracle sind den befragten Entscheidungsträgern insgesamt weniger bekannt. Ein Viertel gibt an, ASE 15.5 von Sybase (mittlerweile zu SAP gehörig) sowie Gemstone von VMware zu kennen.

22

Die Anwendung Qlikview von Qliktech ist lediglich 18 % der Befragten ein Begriff. Durch den enormen Werbedruck und den unerwartet großen Erfolg von SAP HANA verfügt das Produkt damit bereits heute über eine höhere Markenbekanntheit als viele Produkte, die bereits deutlich länger im Markt vertreten sind.

Abbildung 19: Bekanntheit der Produkte (gestützt) SQL Server 2012™ (Microsoft) HANA™ (SAP)

Solid DB™ (IBM)

Times Ten™ (Oracle)

ASE 15.5™ (Sybase/SAP)

Gemstone™ (VMware) Qlikview™ (Qliktech)

Mehrfachnennung möglich. Basis: n=1.010.

5.2 Status Quo SAP HANA™ Die allgemeine Bekanntheit ist nur ein Baustein bzw. der erste Schritt, um schlussendlich auch von den Unternehmen eingesetzt zu werden. Speziell bei einem hoch komplexen Produkt wie SAP HANA oder generell In-Memory-Technologien entsteht ein Bedarf an Detail-

wissen, um die Potenziale und Risiken dieser Anwendung für das eigene Unternehmen abzuschätzen. Der abgefragte Informationstand bezüglich SAP HANA dient einer ersten Einschätzung über die Kenntnistiefe, die für das Produkt nach einem Jahr vorliegt. Insgesamt 63 % kennen das Produkt SAP HANA. 39 %, also mehr als ein Drittel, geben an, die Vorteile von SAP HANA und den damit gebotenen transparenten Ende-zu-Ende-Prozessen zu kennen. 28 % der Entscheider haben bereits begonnen, eine In-MemoryStrategie für das eigene Unternehmen auf Basis von SAP HANA zu planen. Eine Grundvoraussetzung, da es sich hierbei um eine Anwendung handelt, die durch ihre Komplexität und Auswirkungen strategisch begleitet und in ein Gesamtkonzept eingebettet werden muss. 27 % der befragten ICT-Entscheidungsträger haben bereits konkrete Nutzungsszenarien für SAP HANA identifiziert. Da In-Memory-Technologien prinzipiell in vielen Geschäftsbereichen eingesetzt werden können, ist eine individuelle Bedarfsanalyse zwingend notwendig. Dabei gilt es, Geschäftsprozesse mit hohem Bedarf zu priorisieren. Fast jeder Dritte der Befragten hat sich darüber hinaus schon Gedanken über die Veränderungen gemacht, die der Einsatz von SAP HANA für die IT-Landschaft des Unternehmens mit sich bringen würde. Auch wenn einer der

häufig genannten Vorteile von SAP HANA eine Reduzierung der Komplexität von IT-Architekturen sein soll, sind im ersten Schritt natürlich Anpassungen im größeren Maße erforderlich, die vielleicht in naher Zukunft auch zu einer kompletten Umstellung der Datenbanksysteme auf SAP HANA führen können. Lediglich 13 % geben an, von SAP HANA gehört aber keine Vorstellungen über die Vorteile der Lösung zu haben. Im Ländervergleich liegen die größten Informationsdefizite momentan bei Unternehmen in Österreich und Frankreich vor. Während bei Unternehmen in Österreich In-Memory-Technologien grundsätzlich eine geringe Relevanz besitzen, kann der Mangel an Information in Frankreich zu einer reservierten Haltung gegenüber SAP HANA führen. Der überdurchschnittliche Stand der Planungen und Kenntnisse unter den befragten Unternehmen in Brasilien und vor allem der USA deckt sich mit den vorangegangenen Erkenntnissen in puncto Relevanz und Einsatzbereitschaft von In-Memory. Vor dem Hintergrund der geringen Bedeutung von In-Memory-Technologien überrascht der aktuelle Kenntnisstand der Befragten aus der Schweiz. Zwei Drittel der Befragten aus der Schweiz verfügt über Detailwissen hinsichtlich SAP HANA. Bezüglich der Branchen zeigen sich die Industrie und die

Abbildung 20: Informationsstand

SAP HANA sagt mir nichts. Ich habe von SAP HANA gehört, aber keine Idee davon wie es sich bei mir einsetzen lässt bzw. was es mir in meinem Alltag bringt.

Ich weiß welche Vorteile sich für mein Unternehmen durch transparente End-To-End-Prozesse ergeben. Ich habe mit den Planungen einer In-Memory-Strategie begonnen. Ich habe Nutzungsszenarien für SAP HANA identifiziert und weiß, welche Geschäftsprozesse mit SAP HANA unterstützt werden sollen. Ich weiß, was in meiner IT-Landschaft an Veränderungen notwendig sein wird, um SAP HANA optimal einzusetzen. Dargestellt sind „Ja“-Nennungen. Basis: n=1.010.

23

Dienstleistungsbranche als am besten informiert und am konkretesten mit den Planungen fortgeschritten. Nachholbedarf bietet sich hier bei der Finanzbranche und dem öffentlichen Sektor. Speziell Neuanschaffungen oder die Umstellung von Hard- und Software sind aufgrund der hohen Komplexität und Kosten oftmals langfristige Investitionsentscheidungen. In Anbetracht dessen und der Tatsache, dass SAP HANA erst seit einem Jahr auf dem Markt ist, kann die aktuelle Nutzung von insgesamt 6 % der befragten Unternehmen als beeindruckende Zahl bewertet werden. Nicht berücksichtigt wurde die Art des Einsatzes, d. h. hier können auch eventuelle Test- oder Teilbereichsinstallationen gemeint sein. Fast ein Drittel der Befragten plant aktuell den Einsatz von SAP HANA. Während 54 % der US-amerikanischen (darunter sogar bereits 15 % Nutzer) und 42 % der brasilianischen Unternehmen Anwender oder Planer der SAP-Anwendung sind, zeigen sich hier nun die russischen Unternehmen mit 45 % ähnlich interessiert an SAP HANA. Schlusslichter hinsichtlich Einsatz und Einsatzplanung sind die befragten Unternehmen aus Frankreich mit 15 % und Österreich mit lediglich 12 %. Schweizer ICT-Entscheidungsträger, die In-MemoryTechnologien generell eher skeptisch gegenüberstehen, sind allerdings mit 8 % an Nutzern und 34 % Planern durchaus an SAP HANA interessiert. Primus beim aktuellen Einsatz unter den Branchen sind Versorgungsunternehmen mit 15 %, gefolgt von Dienstleistungsunternehmen, die das SAP-Modul bereits zu 10 % einsetzen. Im Handel (4 %) und speziell in der Finanzbranche (2 %) findet sich diese In-Memory-Lösung aktuell kaum wieder. Allerdings plant bei letzterer Gruppe von Unternehmen jeder dritte befragte

Abbildung 21: Einsatz und Einsatzplanung Ja, im Einsatz Nein, nicht geplant Nein, aber geplant

Basis: n=1.010.

24

ICT-Manager die Einführung von SAP HANA, ebenso viele wie aus dem Industriesektor. Der öffentliche Sektor verfügt zusammengenommen lediglich über 23 % Planer und Anwender und liegt somit auf dem letzten Platz.

5.3 Bedeutung als Basis von SAP-Applikationen SAP plant mit der In-Memory-Technologie sein gesamtes Softwareportfolio zu erneuern und mittelfristig SAP HANA als grundlegende Datenbank für alle neuen SAP-Applikationen zu nutzen. Das Projekt „Orange“ soll bereits 2013 abgeschlossen sein und den Anwendern ermöglichen, die bestehende Datenbank für das bisherige SAP Business Information Warehouse (BW) durch SAP HANA zu ersetzen und diese Appliance damit zum „single point of entry“ zu machen. Darüber hinaus ist insbesondere die Positionierung von SAP HANA als Datenbank für die gesamte SAP Business Suite ab 2013 eine Entwicklung, die einen Paradigmenwechsel in der Nutzung und grundsätzlichen Architektur komplexer Datenbanklandschaften für transaktionale Systeme initiieren kann. Vor diesem Hintergrund ist die Meinung der befragten ICT-Manager interessant, ob SAP HANA langfristig bisherige Datenbanken im SAP-Umfeld überflüssig machen wird. Die Ergebnisse zeigen ein differenziertes Bild mit einer eindeutigen Tendenz. 36 % der Befragten sehen in SAP HANA ein Instrument um gezielt performancekritische Bereiche zu unterstützen und präferiert demnach die Stellung des Moduls als „analytics-sidecar“ von SAP BW. Vermutlich aus Kostengründen wird ein Einsatz von SAP HANA nur in Bereichen erwartet, die am stärksten von den Auswirkungen der Big-Data-Problematik betroffen sind. Eine „primary persistence“, sprich eine Nutzung von SAP HANA als primäre Datenbank für transaktionale und analytische Anwendungen, wird momentan von jedem fünften Entscheider erwartet bzw. gewünscht. Knapp jeder siebte Entscheider geht immerhin noch davon aus, dass sich SAP HANA als Nischenprodukt im SAP-Umfeld etablieren wird. 6 % jedoch gehen nur von einem aktuellen Hype aus und meinen, dass es generell bessere Datenbanken auf dem Markt gibt. Auffallend ist hier die extrem optimistische Einschätzung der US-amerikanischen Unternehmen, insgesamt rechnet hier mehr als ein Drittel damit, dass SAP HANA einen neuen Datenbankstandard setzen wird. Ähnlich beurteilen das auch jeweils 23 %

Abbildung 22: Erwartete Stellung im SAP-Umfeld

Ja, SAP HANA wird die Standard Datenbank im SAP-Umfeld sein Ja, SAP HANA wird allerdings nur in performancekritischen Bereichen zum Einsatz kommen Nein, SAP HANA wird ein Nischenprodukt sein Nein, es gibt bessere Datenbanken Weiß nicht/ Keine Angabe

Basis: n=635.

der brasilianischen und russischen Befragten. Ganz anders bewerten hingegen die befragten Experten aus der Schweiz und Frankreich die Lage. SAP HANA im Einsatz in performancekritischen Unternehmensbereichen sehen in erster Linie die Befragten in Deutschland sowie Russland. Vor allem Versorgungsunternehmen erwarten mittelfristig die Ablösung von herkömmlichen Datenbanken durch SAP HANA. Ein Drittel der befragten Verantwortlichen bei den Versorgungsunternehmen schätzt, dass SAP HANA mittelfristig andere Datenbanken ablösen wird. Trotzdem sieht der Großteil der Befragten aus den Versorgungsunternehmen SAP HANA eher in performancekritischen Bereichen.

5.4 Präferierte Betriebsmodelle & Lösungsanbieter Die Wahl des Betriebsmodells für eine Softwareanwendung hat unmittelbar Auswirkungen auf Kosten, Infrastruktur und Flexibilität der IT-Landschaft eines Unternehmens. In den letzten Jahren setzen sich vermehrt virtualisierte und Cloud-basierte Lösungen durch, welche die Infrastruktur der Anwendungen komplett einem Dienstleister überlässt. Der Betrieb von SAP HANA wird von den ICT-Entscheidern vorrangig im unternehmenseigenen Rechenzentrum gesehen, d. h. Großunternehmen und

öffentliche Institutionen bevorzugen nach wie vor die on-premise-Nutzung. Damit behalten Anwender die Kontrolle über die Applikation, tragen höhere, sich häufig erst mittelfristig amortisierende Kosten und verlieren insgesamt an Flexibilität. Diese Vorzugshaltung kann zum einen durch die noch nicht ausgereifte Kostenvorstellung in Bezug auf In-Memory-Technologien oder zum anderen durch Befürchtungen hinsichtlich der Datensicherheit bedingt sein. Unternehmen zögern vermutlich u. a. aus Sicherheits- und Datenschutzbedenken noch, Daten vorrangig außerhalb des Unternehmens zu speichern. Die Werte verdeutlichen aber auch, dass sich die Komplettlösung im eigenen Haus zunehmend auf dem Rückzug befindet. Der Verzicht auf eigene Hardware im Unternehmen und eine Verlagerung von Ressourcen zum IT-Provider, präferieren insgesamt schon mehr als die Hälfte der befragten Unternehmen. Ein Fünftel sieht die Anwendung beispielsweise am ehesten auf einer dedizierten Hardware bei ihrem IT-Service-Provider, die ausschließlich ihrem Unternehmen zur Verfügung steht. 19 % der Befragten würden einen Einsatz auf einem virtualisierten System bevorzugen. Damit reduzieren sie zumindest die Hardwarekosten. Fast jedes zehnte Unternehmen kann sich vorstellen, SAP HANA über eine Cloud-basierte Lösung eines Providers zu nutzen und die Kosten verbrauchsabhängig abrechnen zu können. 5 % gehen sogar so weit und würden lediglich die mit SAP HANA erstellten Auswertungsergebnisse somit „as a service“ je nach Bedarf einkaufen. Dabei erwarten Experten generell, dass sich lang-

25

fristig durch Big Data ein Trend entwickelt, der einer Informationsökonomie ähnelt. Daten sowie Verfahren zur fortschrittlichen Verarbeitung für Daten werden individuell angeboten und nachgefragt. Speziell österreichische und deutsche Unternehmen haben ein hohes Sicherheitsbedürfnis und würden SAP HANA eher in einem eigenen Rechenzentrum betreiben. Ganz anders wird dies in Frankreich und der

würden. Am ehesten würden die Unternehmen einen Spezialisten für Data-Management-Fragestellungen ins Haus holen, der sie beim Einsatz von In- MemoryTechnologien berät und unterstützt. Dieses Ergebnis überrascht nicht, da es sich hierbei nicht um eine Standardinstallation einer Applikation handelt, sondern Experten benötigt werden, die neben einem tiefen IT-Wissen auch über ausgeprägte statistische und betriebswirtschaftliche Kenntnisse verfügen, um die

Abbildung 23: Präferierte Betriebsmodelle

Im eigenen Rechenzentrum Auf dedizierter Hardware Auf virtualisierten Systemen Als Cloud-Service meines Providers HANA as a Service (Data as a Service) Weiß nicht/ Keine Angabe

Basis: n=635.

Schweiz gesehen. Grundsätzlich erweisen sich hier die Entscheider aus der Schweiz als überaus gewillt, Ressourcen auszulagern. 81 % würden ein Betriebsmodell wählen, das von einem Lieferanten bereitgestellt wird. Südafrikanische Unternehmen sind hingegen überdurchschnittlich stark daran interessiert, die Auswertungen nach Bedarf als Dienstleistung („as a service“) zu beziehen. Die Versorger legen am stärksten Wert auf Sicherheit. Fast jedes zweite Unternehmen möchte SAP HANA im eigenen Rechenzentrum vor Ort betreiben. Die Mehrheit der Unternehmen aus der Finanzbranche möchte hier flexibler bleiben und präferiert keine on-premise-Lösung. Vor dem Hintergrund der Neuartigkeit und der Komplexität von In-Memory-Anwendungen sind Unternehmen aktuell nicht in der Lage, diese ohne Hilfestellung von Lösungsanbietern zu implementieren. Hier stellt sich allerdings die Frage, welchem Lösungsanbieter die Entscheidungsträger ihr Vertrauen schenken

26

neuen Systeme gezielt zu nutzen. Bereits im vergangenen Jahr hat die Unternehmensberatung McKinsey die Prognose aufgestellt, dass allein in den USA in den nächsten Jahren bis zu 190.000 Big-Data-Spezialisten benötigt werden, um der Datenflut gewappnet entgegenzutreten. Dementsprechend würden Unternehmen am ehesten auf einen Spezialisten zurückgreifen, um dieses Know-how zu nutzen und somit die eigenen Mitarbeiter gezielt zu schulen. Nur 20 % vertrauen bei Fragen zu In-Memory-Lösungen auf ihren bisherigen ICT-Lieferanten, weil dieser ihre Bedürfnisse und Rahmenbedingungen am besten kennt. 15 % würden sich auf die Partnerwahl des Herstellers von der jeweiligen In-Memory-Datenbank verlassen und diesen als Lösungsanbieter präferieren. In den einzelnen Ländern fällt die Präferenz unterschiedlich aus. In Russland würden fast die Hälfte der Unternehmen einen Data-Management-Spezialisten als Anbieter wählen,

in Südafrika hingegen weniger als ein Drittel. In Österreich würden lediglich 17 % einen derartigen Weg gehen. Insbesondere in Spanien (28 %), aber auch in Deutschland (27 %) und den USA (24 %) würde der Einsatz mit dem aktuellen ICT-Lieferanten durchgeführt werden. Fast jeder zweite Befragte aus der

Schweiz (45 %) hingegen würde hier mit großem Abstand einem Partner des Datenbankherstellers vertrauen. Auf Branchenebene fällt die Wahl bei Versorgern und Unternehmen der Kommunikationsbranche mehrheitlich auf den momentanen Hauptanbieter von ICT-Leistungen.

Abbildung 24: Präferierter Lösungsanbieter

Spezialist für Data-Management-Fragestellungen

Mein bisheriger ICT-Lieferant

Partner des Herstellers von In-Memory-Datenbanken

Keine festen Präferenzen

Basis: n=635.

27

6 FAZIT UND AUSBLICK

Big Data hat in kurzer Zeit eine starke Position in der Wahrnehmung der ICT-Entscheider erreicht. Themen wie Collaboration und Outsourcing wurden bereits überholt. Der Handlungsdruck, den die Unternehmen bei diesem Thema spüren, ist bereits sehr ausgeprägt und wird sich in den nächsten beiden Jahren noch verstärken. Hoher Handlungsdruck wird insbesondere bei Unternehmen aus den USA, Brasilien und Spanien sowie in Versorgungs-, Dienstleistungs- als auch Kommunikationsunternehmen gesehen. Unternehmen aus Österreich und der Schweiz sehen aktuell einen geringeren Handlungsdruck. Die Mehrheit der Befragten sieht das eigene Unternehmen hinsichtlich der Data-Management-Strategie gut aufgestellt, mehr als die Hälfte bezeichnen das Datenmanagement als sehr entwickelt bzw. entwickelt. Nachholbedarf in der Ausarbeitung der eigenen DataManagement-Strategie wird von den befragten Unternehmen in Frankreich, Österreich und der Schweiz gesehen. Unter den Branchen sehen sich insbesondere Organisationen aus dem öffentlichen Sektor sowie Handelsunternehmen hinsichtlich ihrer Data-Management-Strategie noch nicht ausreichend aufgestellt. Aktuell werden die Herausforderungen innerhalb der Data-Management-Strategie in erster Linie bei der Reduzierung der Komplexität und Anzahl von Schnittstellen gesehen. Insbesondere befragte ICT-Entscheider aus Frankreich und aus den Versorgern sehen hier die größten Probleme beim Datenmanagement. Weiterhin wird die Explosion der Gesamtbetriebskosten als akute Herausforderung genannt. Darüber hinaus wird auch der weitere Anstieg der Datenmengen als problematisch betrachtet. Diese beiden Faktoren bereiten besonders den Versorgungsunternehmen Probleme. Mehr als die Hälfte (56 %) der Befragten geben an, dass Bestrebungen bezüglich der Implementierung

28

von In-Memory-Technologien in der aktuellen DataManagement-Strategie eine zentrale Rolle spielen. Insbesondere in den Ländern Brasilien (66 %) und USA (65 %) erfahren In-Memory-Verfahren einen hohen Stellenwert im Rahmen der aktuellen DataManagement-Strategie. Bereits heute spielen InMemory-Technologien bei Unternehmen, die diese einsetzen, in allen Geschäftsbereichen eine wichtige Rolle – nicht nur bei den oft diskutierten ReportingFragestellungen. Bereits 16 % der befragten Unternehmen und öffentlichen Einrichtungen setzen zum heutigen Zeitpunkt bereits In-Memory-Technologien für die Verarbeitung ihrer Daten ein. Weitere 31 % planen einen Einsatz – 90 % der ICT-Entscheider, die bereits Erfahrungswerte zu der Technologie teilen können, beurteilen die Erfahrungen als sehr gut bzw. gut. Fast ein Drittel der befragten Unternehmen hat bereits Budgets für den Einsatz von In-Memory-Technologien im Unternehmen bestimmt. Die angesetzten Budgets variieren dabei stark. Immerhin 29 % veranschlagen Budgets über eine Mio. EURO für ihre In-MemoryProjekte. Über 40 % der Unternehmen haben konkrete Planungen, In-Memory-Technologien zu erwerben und einzusetzen. In-Memory-Verfahren werden dabei von den Befragten als ein wesentlicher Baustein zur Bewältigung der Big-Data-Problematik gesehen. Die Befragten sehen In-Memory-Technologie vor allem zur Prozessoptimierung (48 %) bzw. Leistungssteigerung (47 %). Mehr als 23 % der befragten Unternehmen sind dabei, In-Memory-Technologien in ihre IT-Strategie zu verankern – bereits 21% beschäftigen sich mit der konkreten Umsetzung. SAP HANA konnte mit 63 % bereits in kurzer Zeit eine hohe Bekanntheit aufbauen und hat andere klassische In-Memory-Anwendungen bereits hinter sich gelassen. Dabei kennt die Hälfte der befragten Unterneh-

men nicht nur das Produkt SAP HANA, sondern hat sich bereits inhaltlich damit beschäftigt. Erstaunlich ist für ein Produkt, das erst seit einem Jahr am Markt ist, dass dieses bereits 6 % der befragten Unternehmen einsetzen, weitere 28 % der Unternehmen planen den Einsatz. Obwohl SAP HANA heute nur als Spezial-Datenbank für performancekritische Bereiche einsetzbar ist und hier auch 36 % der befragten ICT-Manager den wesentlichen Einsatzbereich sehen, trauen 19 % SAP HANA zu, die Standard-Datenbank im SAP-Umfeld zu werden. Dabei können sich über die Hälfte der Befragten Betriebsmodelle vorstellen, in denen ein externer Provider eine Rolle spielt – 5 % gehen sogar soweit und würden lediglich die erstellten Auswertungsergebnisse „as a Service“ je nach Bedarf einkaufen. Big Data – was ist zu tun? Zunächst sollten Unternehmen die aktuelle Situation analysieren. Hierbei sollte vor allem auf Best Practices und Erfahrungen anderer Unternehmen zurückgegriffen werden. Damit lassen sich Potenziale leichter identifizieren. Vor diesem Hintergrund gilt es, die aktuelle IT-Landschaft zu hin-

terfragen und auf die Anforderungen von Big Data vorzubereiten. Da zudem die Gesamtbetriebskosten schnell zum Problem werden können, ist es unabdingbar, eine technische und wirtschaftliche Analyse der möglichen Einsatzbereiche für In-Memory-Technologien einer Entscheidung für eine detaillierte Konzeption vorzulagern. Neben der erforderlichen Hard- und Software kommt es auch darauf an, das notwendige Know-how verfügbar zu haben, d. h. Mitarbeiter müssen die richtigen Fragen stellen und beantworten können. Die Schulung des eigenen Personals und die Gewinnung von qualifiziertem Personal stehen ganz oben auf der To-do-Liste der Unternehmen. Neben technischem Wissen müssen diese Experten vertiefte Expertise auf dem statistischen und betriebswirtschaftlichen Gebiet mitbringen. Es ist somit nicht erstaunlich, dass sich die Unternehmen neue Wege bei den Betriebsmodellen vorstellen können, um Technologien wie In-Memory bei sich zu implementieren. Big Data ist kein Buzzword mehr. Der Datenschatz muss aber durch die Unternehmen gehoben werden.

29

ABBILDUNGSVERZEICHNIS Abbildung 1: Big Data

6

Abbildung 2: Zusammensetzung der Stichprobe nach Rolle und Unternehmensgröße

7

Abbildung 3: Branchenverteilung unter den Unternehmen der Stichprobe

8

Abbildung 4: Relevanz und Investitionsbedarf ICT-Zukunftsthemen

9

Abbildung 5: Relevanz und Investitionsbedarf Big Data nach Branchen

10

Abbildung 6: Handlungsbedarf bei und Entwicklung von Big Data nach Land

10

Abbildung 7: Handlungsbedarf bei und Entwicklung von Big Data nach Branche

11

Abbildung 8: Entwicklungsstand der Data-Management-Strategie

11

Abbildung 9: Aktuelle Pain Points im Rahmen der Data-Management-Strategie

12

Abbildung 10: Relevanz von In-Memory-Technologien

13

Abbildung 11: Einsatz von In-Memory-Technologien

14

Abbildung 12: Erfahrungen mit In-Memory-Datenbanken

15

Abbildung 13: Aktueller Einsatz von In-Memory-Technologien

16

Abbildung 14: Budgetansätze für In-Memory-Technologien

17

Abbildung 15: Zukünftige Einsatzbereiche von In-Memory-Technologien

18

Abbildung 16: Beschaffungsabsicht/Investitionsbedarf nach Branchen

19

Abbildung 17: Auswirkungen des Einsatzes von In-Memory-Anwendungen

20

Abbildung 18: Status quo im Unternehmen

21

Abbildung 19: Bekanntheit der Produkte (gestützt)

22

Abbildung 20: Informationsstand

23

Abbildung 21: Einsatz und Einsatzplanung

24

Abbildung 22: Erwartete Stellung im SAP-Umfeld

25

Abbildung 23: Präferierte Betriebsmodelle

26

Abbildung 24: Präferierter Lösungsanbieter

27

30

KONTAKT & IMPRESSUM Kontakt Maik Manig Director Landsberger Str. 284 80687 München t: +49 89 5600 2124 e: [email protected]

Dr. Jens Giere Associate Director Landsberger Str. 284 80687 München t: +49 89 5600 1015 e: [email protected]

Impressum © 2012 TNS Infratest GmbH – Geschäftsbereich Technology Alle Rechte, auch die des Nachdrucks, der Vervielfältigung oder der Verwertung bzw. Mitteilung des Inhalts dieses Dokuments, behalten wir uns vor. Kein Teil darf ohne die schriftliche Genehmigung der TNS Infratest GmbH in irgendeiner Form reproduziert, an Dritte weitergegeben oder, insbesondere unter Verwendung elektronischer Systeme, verarbeitet, vervielfältigt, verbreitet oder zu öffentlichen Wiedergaben benutzt werden. Wir behalten uns das Recht vor, Inhalte zu aktualisieren oder zu modifizieren.

Ausschluss Die in diesem Bericht enthaltenen Informationen stammen aus Quellen, die als zuverlässig gelten. Die Informationen wurden mit professioneller Sorgfalt aufbereitet. TNS Infratest GmbH – Geschäftsbereich Technology übernimmt jedoch keinerlei Garantie für die Richtigkeit, Vollständigkeit oder Angemessenheit. TNS Infratest GmbH – Geschäftsbereich Technology übernimmt keine Haftung für Fehler, Auslassungen oder Unangemessenheit in den hierin enthaltenen Informationen oder für die Interpretation derselben. Die Verantwortung für die Auswahl und Sichtung des Materials liegt ausschließlich beim Leser. Die zum Ausdruck kommenden Einschätzungen können sich jederzeit ohne vorherige Ankündigung ändern. Diese Studie wurde freundlicherweise durch die T-Systems International GmbH gefördert. Für eine Interpretation und für Folgediskussionen stehen Ihnen die Big-Data-Spezialisten der T-Systems gerne zur Verfügung. Kontaktdaten der Big-Data-Spezialisten der T-Systems: Stefan Haertelt | [email protected] | Telefon +49 151 15195809

31

TNS Infratest