close

Anmelden

Neues Passwort anfordern?

Anmeldung mit OpenID

Datenblatt - ReinigungsBerater.de

EinbettenHerunterladen
kommunikationsmanager
Big Data Analytics berechnet verborgene Zusammenhänge und Trends
Jenseits des Bauchgefühls
Von Eric Czotscher
KOMMUNIKATIONSMANAGEMENT
> Big Data wird oft mit der verzweifelten
Bewältigung immer höherer Datenberge
gleichgesetzt. Doch die neuen IT-Werkzeuge von Big Data Analytics können
weit mehr. Statistiker setzen mit Big-Data-Instrumenten Daten aus ganz unterschiedlichen Quellen und in unterschiedlichen Formaten miteinander in
lungsbereitschaft ihrer Kunden besser
ausloten, Marketingabteilungen können
genauer einschätzen, wie ihre Kampagnen wirken werden, Experten können in
ihrem Issues-Management frühzeitig
neue Meinungstrends erkennen und
wirksam darauf reagieren. Im Wettbewerb um Aufmerksamkeit unterstützt
Big Data Unternehmen und Institutionen dabei, ihre Bezugsgruppen zielge-
„Im Prinzip kann bei Big Data ,alles‘ mit ,jedem’ verknüpft werden,
Hauptsache, die Informationen liegen in digitaler Form vor.“
Beziehung und spüren so verborgene
Zusammenhänge hinter den Daten auf.
Diese statistischen Korrelationen erlauben Rückschlüsse etwa auf Verhaltensgewohnheiten von Menschen oder auch
auf natürliche und technische Vorgänge.
Der US-Journalist Chris Anderson („The
Long Tail“) hat dies so formuliert: „Die
Verfügbarkeit riesiger Datenmengen
und der statistischen Mittel, die man
braucht, um die Zahlen ,feinzumahlen‘,
versetzt uns in die Lage, die Welt auf eine vollkommen neue Weise zu verstehen.“
Aus dem neuen Wissen lassen sich
Prognosen ableiten. So können Telekommunikationsunternehmen die Zah-
66 – II 2014
richteter und nutzenorientierter zu erreichen.
Anwendungsbeispiele für Big Data
gibt es aus unterschiedlichen Lebensund Wirtschaftsbereichen – von der Personalplanung und dem Kundenbeziehungsmanagement über medizinische
Forschung bis hin zur polizeilichen Prävention und Betrugsmustererkennung
bei Kreditkarten und Versicherungen.
Der NSA-Skandal ist hier ein unrühmliches Beispiel. So führten die Enthüllungen von Edward Snowden dazu, dass
Big Data heute selbst ein „Issue“ ist und
Unternehmen sich nur ungern über ihre
Big-Data-Projekte äußern, gerade weil
einige davon sehr erfolgreich sind.
Im Prinzip kann bei Big Data „alles“
mit „jedem“ verknüpft werden, Hauptsache, die Informationen liegen in digitaler Form vor – als Datenbankeinträge,
als Textdateien, als Tonaufnahmen oder
Videos, als Social-Media-Einträge oder
auch als Sensorendaten, zum Beispiel
Bewegungsmeldungen von Smartphones und Autos. Besondere Datenbanktechnologien wie Hadoop, die parallel
auf mehrere Server gleichzeitig zugreifen, aggregieren diese Daten, verbinden
die unterschiedlichen Datenformate miteinander und filtern darin enthaltene
statistische Muster heraus. Durch die dezentrale Verarbeitung können sehr große Datenmengen in kurzer Zeit analysiert werden – daher der Begriff „Big Data“. Wofür Hochleistungsrechner früher
Tage brauchten, benötigen Big-DataSysteme heute Minuten. Heute arbeiten
Datenanalysten mit kompletten Datensätzen und Grundgesamtheiten, wofür
sie früher Stichproben ziehen mussten.
Daneben hat die neue Technologie einen weiteren Vorteil: Sie kann Echtzeitdaten verarbeiten und unmittelbar
Handlungsempfehlungen geben. Eine
typische Anwendung ist die Analyse des
Klickverhaltens in Verbindung mit weiteren Daten der Nutzer einer Website. Je
nachdem, welche Buttons und Menüs
angeklickt werden, berechnet das System, was den Nutzer sonst noch interessiert, und blendet entsprechend an-
kommunikationsmanager
Volume
Big Data
Velocity
gepasste Information auf dem Bildschirm ein. In Webshops lässt sich damit
die Conversion – aus einem Interessenten wird ein Käufer – deutlich steigern.
Der E-Commerce-Spezialist OTTO
setzt Big Data Analytics ein, um den
Kundenbedarf genauer zu ermitteln und
so jederzeit die richtigen Waren vorrätig
zu haben. Für ein Handelsunternehmen
ist der rentable Wareneinkauf erfolgsentscheidend. Die Big-Data-Bedarfsplanung von OTTO basiert auf großen Datenmengen und wird von einer Vielzahl
von Faktoren beeinflusst. Für jeden Artikel wird täglich je Farbe und Größe eine
aktualisierte Prognose auf der Basis von
200 unterschiedlichen Variablen (Marke, Preis, Onlineplatzierung, Bestandssituation, Saison etc.) ermittelt. Jedes Jahr
erstellt das System mehr als 5 Milliarden
Variety
Einzelprognosen. Aus betriebswirtschaftlicher Sicht ein Erfolg für OTTO: Die
Prognosequalität verbesserte sich gegenüber herkömmlichen Verfahren um
bis zu 40 Prozent je Artikel, und die Restbestände am Saisonende wurden um 20
Prozent verringert. Durch ein weiteres
umfangreiches Datenmodell konnte das
Unternehmen auch Muster beim Retourenverhalten aufdecken und durch angepasste Marketingmaßnahmen die Retourenquote deutlich herunterfahren.
Mit Phantasie und
Experimentierfreude
Für die Umsetzung von Big Data Analytics im eigenen Unternehmen empfiehlt sich ein strategisches Vorgehen.
Die konkreten Ziele der Analyse sollten
klar sein – der Mehrwert für das Unternehmen und seine Bezugsgruppen steht
am Anfang jedes Projekts. Es gibt keine
Big-Data-Architektur, die für alle passt.
Big Data ist ein wachsendes „Ökosystem“, das eine Fülle von Technologien
und Komponenten enthält, aus denen
sich jedes Unternehmen passende Instrumente individuell zusammenstellen
muss. Nicht immer ist Big Data nötig. Es
gibt andere bewährte IT-Anwendungen
aus der Business Intelligence, mit denen
auch größere Datenmengen verarbeitet
werden können, solange die Daten in einer strukturierten Datenbank mit einheitlichen Formaten vorliegen.
Am Anfang steht die Ideenfindung.
Was kann ich mit der Big-Data-Analyse
herausfinden? Da vor allem unbekannte
Wahrheiten ans Licht gefördert werden
Was Big Data ausmacht: Die drei V
Volume
Datenvolumen
Da IT-gestützte Geschäftsprozesse permanent Daten produzieren, verfügen immer mehr Unternehmen und
Institutionen über gigantische Datenberge in der Größenordnung von bis zu Petabytes. Neben internen Daten
erzeugt eine Vielzahl externer Datenquellen, Geräte und Maschinen einen konstanten Datenstrom.
Variety
Datenvielfalt
Die Daten stammen aus vielen Quellen und sind unterschiedlicher Art. Grob lassen sie sich in unstrukturierte,
semistrukturierte und strukturierte Daten gruppieren. Die technologische Auswertung solcher polystrukturierter
Daten etwa durch Textanalyse oder Bilderkennung hat sich stark verbessert.
Velocity
Datengeschwindigkeit
Datengestützte Prozesse erfordern, dass Datensammlung, -integration und -analyse immer schneller –
oft in Echtzeit – durchgeführt werden müssen, um relevante Erkenntnisse zu erzielen bzw. um Geschäftsaktionen
einzuleiten. Darüber hinaus können sich Datenstrukturen, -quellen und -schnittstellen sehr schnell ändern.
Quelle: Managementkompass Big Data Analytics.
II 2014 – 67
kommunikationsmanager
sollen, ist diese Frage nicht so einfach zu
beantworten. Hier kommt es auf ein gutes Vorstellungs- und Kombinationsvermögen sowie den berühmten Blick über
den Tellerrand an, vor allem aber auf
große Geduld beim Ausprobieren mit
immer neuen Berechnungen. Die statistischen Analysen und Algorithmen liefern oft nur weißes Rauschen, also unbrauchbaren Datenmüll. Daraus „Datengold“ zu waschen erfordert Geschick. Denn es kommt nicht nur auf die
Technik an. Erfolgreiche Big-Data-For-
Falls Kundendaten in falsche Hände geraten sollten, kann dies die Reputation
eines Unternehmens schwer beschädigen. Der Branchenverband BITKOM
empfiehlt deshalb umfassende Anonymisierungs- oder Pseudonymisierungsprozesse, um einen zulässigen Umgang
mit personenbezogenen Daten zu ermöglichen.
In vielen Fällen von Big Data fehlt aber
ohnehin jeder Personenbezug – der Datenschutz findet keine Anwendung.
Dennoch ist auch hier eine datenschutz-
„Compliance im Datenschutz ist einer der wichtigsten Erfolgsfaktoren
im Big-Data-Management und schafft einen Wettbewerbsvorteil.“
scher, auch „Data Scientists“ genannt,
zeichnen sich durch Phantasie und Kreativität aus, verbunden mit einem mathematischen Gespür für Informationen.
Der unvoreingenommene Blick auf die
Daten ist wichtig. Denn wie die Praxis
zeigt, kann das statistisch gewonnene
Wissen durchaus der Intuition zuwiderlaufen. Die kausalen Zusammenhänge
hinter den beobachteten Datenkorrelationen lassen sich nicht immer erkennen
– dennoch treffen die Beobachtungen
nachweislich zu und lassen sich in der
Praxis ausnutzen. Manchmal ersetzen
Fakten das Bauchgefühl. „Das Ende des
Zufalls“, wie es Rudi Klausnitzer in seinem gleichnamigen Buch stark überspitzt formuliert, rückt näher.
Sicherheit zuerst
Ebenfalls am Anfang eines Big-DataProjekts sind Fragen zum Schutz persönlicher Daten und zur Datensicherheit
zu beantworten. Compliance im Datenschutz ist einer der wichtigsten Erfolgsfaktoren im Big-Data-Management und
schafft einen Wettbewerbsvorteil. Zu einer soliden Data Governance gehört die
Transparenz im Datenbestand, in den
Datenquellen und in der Datenvielfalt.
So lassen sich die Daten auch effektiver
managen, validieren und analysieren.
68 – II 2014
rechtliche Analyse unverzichtbar, wie
der IT-Anwalt Alexander Duisberg von
Bird & Bird empfiehlt. Das liegt zum einen am weiten Begriff personenbezogener Daten, der u.a. auch IP-Adressen
erfasst. Zum anderen kann die Verknüpfung anonymer Datenquellen womöglich doch zu Profilen und Personenbezug
führen. Die Komplexität nimmt zu,
wenn die Datenquellen unterschiedlicher nationaler Datenschutzregulierung unterliegen.
Wenn Unternehmen ihren Kunden
auf der Basis von Big-Data-Analysen
maßgeschneiderte Angebote machen
wollen, empfiehlt es sich, deren Einverständnis zur Datennutzung einzuholen.
Dazu müssen die Kunden ausführlich
über den Vorteil der neuen Instrumente
etwa bei der Produktgestaltung oder bei
der Sicherheit informiert werden.Trotz
großer Skepsis, was die Verwendung
persönlicher Daten in Deutschland betrifft, zeigen Erfolgsmodelle wie Facebook oder QuantifiedSelf, dass die Menschen durchaus intime Details veröffentlichen, wenn sie sich davon einen Nutzen versprechen.
Eine aktuelle Befragung für den „Managementkompass Big Data Analytics“
von F.A.Z.-Institut und Steria Mummert
Consulting zeigt, dass immerhin jeder
zweite Verbraucher in Deutschland be-
reit ist, private Vorlieben und Aktivitäten
preiszugeben, damit Unternehmen ihm
maßgeschneiderte Leistungen anbieten
können. Jeder Zweite akzeptiert dafür
zumindest teilweise die Auswertung der
eigenen Social-Media-Daten.
Unternehmen in Deutschland gehen
bei der Umsetzung von Big Data allerdings sehr zögerlich vor, und dies liegt
nicht nur an aktuellen Datenskandalen.
Oft fehlt das Wissen, um Big-Data-Projekte umzusetzen. Laut einer aktuellen
Studie von Saugatuck Technology halten
71 Prozent der IT- und Businessentscheider Big Data Analytics für wettbewerbsrelevant. Doch 59 Prozent mangelt es an
Ressourcen. Nur die Hälfte setzt deshalb
derzeit Big Data Analytics im Geschäft
ein. Data Scientists, die mit intelligenten
Algorithmen verborgene Muster in Daten aufspüren und sich gleichzeitig gut
auf die Bedürfnisse der Fachabteilungen
und Anwender einstellen können, sind
heute sehr gefragt. <
Eric Czotscher ist verantwortlicher Redakteur
und Ressortleiter für Studien und
Marktforschung im F.A.Z.-Institut für
Management-, Markt- und Medieninformationen, Frankfurt am Main
Document
Kategorie
Internet
Seitenansichten
4
Dateigröße
524 KB
Tags
1/--Seiten
melden