Logo Print

Media Center

Wissen sollte man teilen.

2. Big-Data-Konferenz

"Steering Business Digitally – Chancen und Potenziale der Digitalisierung"

Keynote-Speaker der 2. Big-Data-Konferenz 2015 war Prof. Dr. Jürgen Schmidhuber vom Schweizer Forschungsinsitut für Künstliche Intelligenz IDSIA. Er ist Pionier der selbstlernenden Algorithmen und Neuronalen Netzwerke (Deep Learning). Google, Microsoft, IBM und viele andere Unternehmen nutzen seine Erkenntnisse in zahlreichen Anwendungen wie Bild- und Spracherkennung, maschineller Übersetzung, Aktienkursvorhersage, usw.

Darüber hinaus wurden Best Practices zu Big Data von Allianz, Axel Springer, Blue Yonder, ConVista, Deltalis, Festo, Institut für Business Intelligence, Payback, pmOne, SAP, Twitter & Vodafone präsentiert.

Nachfolgend finden Sie eine Zusammenfassung der Konferenzinhalte.

In Kooperation und mit freundlicher Genehmigung von haufe.de/Controlling.

"Big Data" ist zumindest als Idee bei den Unternehmen angekommen."

Unternehmen stehen nicht nur einem immer größeren Datenberg, sondern auch einem wachsenden Werkzeugkasten gegenüber. Mit der Anwendung hapert es besonders in etablierten Unternehmen jedoch noch. Doch konnten die Leuchtturmprojekte auf der 2. Big-Data-Konferenz zeigen, wie Unternehmen ihre Daten und Geschäftsmodelle erfolgreich durchleuchten.

Themenvielfalt verdeutlicht Digitalisierungsspektrum
Das Thema „Chancen und Potenziale der Digitalisierung“ durchzog die zehn Fachvorträge aus Praxis und Forschung. Dabei zeigte sich das breite Spektrum der Digitalisierung in der Vielfalt der Vorträge. Vom „Cutting Edge“ der Künstlichen-Intelligenz-Forschung bis zur konkreten Auswirkung auf bestehende Geschäftsmodelle reichte die Bandbreite der Themen.

„Big Data bedeutet Veränderung“: Dieses Fazit zogen Konferenzleiter Alexander Vocelka und Walid Mehanna vom Veranstalter Horváth & Partners zum Ende der Konferenz. So stünden Unternehmen nicht nur einem immer größeren Datenberg, sondern auch einem wachsenden Werkzeugkasten gegenüber. Durch die richtige Anwendung der Werkzeuge würde aus Daten Verständnis und damit ein Mehrwert für die Unternehmen. Die Beiträge verdeutlichten, dass „Big Data“ zumindest als Idee mittlerweile in den Unternehmen angekommen ist. Spannend werde es sein, zu sehen, wie Unternehmen mit dem steigenden Wettbewerb durch „junge, wilde Start-ups“ umgingen. Speziell der Druck auf die internen IT-Abteilungen, ihre Prozesse agiler und flexibler zu gestalten, werde zunehmen, prophezeiten Vocelka und Mehanna.

Algorithmen werden immer intelligenter
Wichtige Impulse für die Datenanalyse kamen in den letzten Jahren aus der Künstlichen-Intelligenz-Forschung. „Die rasante Entwicklung im Bereich der Künstlichen Intelligenz wird dramatische Auswirkungen haben“, prophezeit Professor Schmidhuber. Der Scientific Director des Schweizer Forschungszentrums für Künstliche Intelligenz IDSIA veranschaulichte die Potenziale einiger besonders effektiver Modelle der künstlichen Intelligenz, den Neuronalen Netzen. Diese universell anwendbaren Algorithmen imitieren die Lernprozesse des menschlichen Gehirns und sind unter anderem in jedem Smartphone zu finden. Hier sorgen sie zum Beispiel für Siris menschlichen Touch.

Dass diese Algorithmen bereits heute in der Praxis Anwendung finden, verdeutlichte der Vortrag von Dr. Andreas Schmidt (Blue Yonder) über die Automatisierung von Unternehmensentscheidungen. Seine Prognose: „In Zukunft werden Mensch und Maschine Hand in Hand handeln, taktische Unternehmensentscheidungen werden der Maschine überlassen, die strategische Planung verbleibt weiterhin beim Menschen.“

Wo liegen die Hürden für die flächendeckende Umsetzung?
Während globale IT-Konzerne, neben Apple auch Google, IBM etc. und agile Start-up-Unternehmen bereits flächendeckend auf solche Algorithmen setzen, tun sich viele andere Unternehmen in der Einführung noch schwer. Zum einen, so stellte Professor Dr. Andreas Seufert, Direktor des Instituts für Business Intelligence von der Steinbeis-Hochschule Berlin auf Basis einer empirischen Studie fest, mangele es an hochqualifizierten Mitarbeitern, die zum Beispiel die neue  Funktion des Data Scientists ausfüllen könnten. Zum anderen beobachten Markus Nemeth und Marcel Franke von pmOne, dass bei den Unternehmen bisher noch Angst vor den anstehenden Veränderungen herrscht. Dabei müssen Unternehmen vor allem lernen wissenschaftlicher zu arbeiten und dabei iterative und evolutionäre Vorgehensmodelle entwickeln.

Leuchtturmprojekte zeigen vielfältige Anwendungsmöglichkeiten
Wie groß die Bandbreite der möglichen Anwendungen ist, zeigte Anja Schneider, Vice President bei der SAP, mit einer Livedemonstration kommender SAP Tools. Neben „klassischen“ prädiktiven Analyseanwendungen wie der Instandhaltung stellte sie Dashboards vor, die den Zustand von Waren in Realtime wiedergeben. Der Schlüssel hierzu sind Sensoren, die ständig Rückmeldung zu einer Vielzahl an Parametern wie Temperatur, Lage und Position geben.

In der fertigenden Industrie unterstützen laut Dr. Volker Nestle, dem Leiter Future Technology bei Festo, erstmals selbsttätige Roboter direkt den Menschen bei ermüdenden Aufgaben. Diese seien dabei so lernfähig, dass der Mensch keine Schutzkleidung mehr im Umgang brauche.

Digitalisierung bietet Chance, näher an Kunden zu rücken
In der Versicherungsindustrie sorgten neue Intermediäre wie Vergleichsportale zu einer Entkopplung zwischen Assekuranzen und Kunden. Diese Lücke wieder zu schließen, sei eine Schlüsselherausforderung für die Versicherungsindustrie, so Dr. Jochen Tenbieg von der Allianz SE. Die Potenziale seien dabei enorm, z. B: mit neuen Services wie zum Beispiel Assistenzen. Zudem  schaffe die Digitalisierung auch neue Versicherungsrisiken wie Cyberkriminalität – und damit neue Geschäftsmodelle.

Wo die Versicherungsindustrie dabei auf Big Data-Lösungen setzen sollte, zeigten Alexander Ritter und Alexander Makowski (ConVista Consulting AG) auf. Sie analysierten die Potenziale von Big Data-Anwendungsfällen in der Versicherungsindustrie. Dabei fanden sie mit der Echtzeit-Datentransparenz, individualisiertem Pricing für Kfz-Policen und individualisiertem Marketing drei Anwendungsfälle, deren „systematischer Ausbau“ lohnenswert ist.

Der Frage, wie Unternehmen relevanter für ihre Kunden werden können, ging auch Dr. Oliver Bohl (PAYBACK) nach. Seine Lösung: die vorhandenen Kundendaten durch intelligente Analyse und für die personalisierte Ansprache besser nutzen.

Ebenfalls aus Sicht des Marketings betrachtete Sven Markschläger (Twitter Germany) die Chancen der Digitalisierung. Das Fazit: Relevanz in der Kundenansprache erreichen Unternehmen durch Content Marketing, eine Weiterentwicklung des Sponsorings.

Die Frage nach dem Wohin mit all den Daten beantwortete zum guten Schluss Frank Harzheim, Geschäftsführer der Deltalis SA. Sein Angebot: Ein Hochsicherheitsrechenzentrum in einem umgewidmeten Militärbunker.

Die Veranstaltung
Auf der 2. Big-Data-Konferenz am 28. Oktober 2015 in Stuttgart haben über 120 Teilnehmer die Vorträge über die unterschiedlichen Aspekte der digitalen Unternehmenssteuerung verfolgt. Der wesentliche Schwerpunkt lag dieses Jahr auf den Analysemethoden, die als Grundlage für (teil-) automatisierte Unternehmensentscheidungen genutzt werden können. Wie die Unternehmen mit dem hohen Tempo des Wandels und dem sich daraus ergebenden Innovationsdruck umgehen, wird sicherlich auf der nächsten Big-Data-Konferenz am 8. November 2016 diskutiert werden.

Industrie 4.0 als Erweiterung der Lean Philosophie

Dank jahrelanger Mikrooptimierungen nach der Lean-Philosophie sind produzierende Unternehmen in der Massenfertigung bereits effizient aufgestellt. Um den Herausforderungen durch Kundenwünsche nach immer individuelleren, umweltfreundlicheren und aktuelleren Produkten begegnen zu können, ist eine Weiterentwicklung des Lean-Gedanken zu Industrie 4.0 nötig. Hierbei ergeben sich Potenziale für neue Geschäftsmodelle sowie erhebliche Herausforderungen für die Fachkräfte.

Von Produkttrends zu Produktionstreibern
Über Jahre lag der Fokus im Produktionsmanagement auf der Optimierung der Massenfertigung durch Lean Management. Das erreichte die Industrie durch komplexe, aufeinander abgestimmte Fertigungsstraßen und die genaue, kleinteilige Analyse der Produktionsschritte mit dem Ziel der Verschlankung. Somit ist die Produktion heute von großen Losgrößen und hoher Komplexität geprägt.

Für Anpassungsbedarf in den Produktionsprozessen sorgen vier wesentliche Produkttrends:

  • Produkte werden immer individueller, bis hin zur Personalisierung einzelner Produkte. Produktlebenszyklen werden immer kürzer, somit entstehen häufiger Umrüstungsbedarfe.
  • Produkte sollen so umweltfreundlich wie möglich sein, was neue Materialien und neue Technologien in der Fertigung erfordert.
  • Gesellschaftliche Trends wie der ständige, globale Austausch über Social Media-Kanäle und Änderungen im Nutzerverhalten wirken sich auf Produkte aus.

Aus den Produkttrends leitet Dr. Nestle, Leiter Future Technology bei der Festo AG & Co. KG, wiederum vier Treiber ab, die den Schritt zur Industrie 4.0 nötig machen.

  • Digitalisierte Fabriken kommunizieren in Zukunft intelligent in Wertschöpfungsnetzwerken.
  • Kundenspezifische Produktion ermöglicht effiziente Fertigung auch bei kleinen Losgrößen.
  • Wiederverwendung und Vermeidung von Verschwendung sichert die Nachhaltigkeit der Produktion.
  • Bessere Arbeitsbedingungen tragen gesellschaftlichen Trends Rechnung.

Industrie 4.0 setzt auf den Lean Gedanken auf
Industrie 4.0 ist eine Weiterentwicklung des Lean Gedanken. Durch Erhöhung der Flexibilität und Adaptivität können die Komplexität verringert sowie eine effiziente Produktion auch bei kleineren Losgrößen erreicht werden. „Industrie 4.0 bündelt bereits laufende und zukünftige Entwicklungsschwerpunkte der Industrie unter einem zentralen Begriff“, so Dr. Nestle.

Zur Erhöhung der Komplexität setzt die Industrie dabei unter anderem auf:

  • Einsatz von Produktionsmodulen,
  • Standardisierung von Schnittstellen und
  • intelligente, flexibel einsetzbare Komponenten.

Die Adaptivität wird unter anderem erhöht durch:

  • Selbstorganisation durch mechatronische Agenten (selbstorganisierende Maschinen),
  • integrierte Steuerung und Kommunikation sowie
  • durchgängige Automatisierungsarchitekturen.

„Der Prozess zur Industrie 4.0 erfolgt evolutionär und bereits seit Jahrzehnten“, sagt Dr. Nestle. Dabei ist klar: Nur dort wo ein klar zu erkennender Mehrwert durch gesteigerten Kundennutzen und eine Verbesserung der Beherrschung, Organisation, Effizienz etc. der Prozesse ersichtlich ist, werden sich die Ansätze durchsetzen. Aktuelle Schwerpunkte liegen dabei auf Smart Factory, einer wirtschaftlichen, flexiblen und adaptiven Produktion, z. B. durch die Mehrfachverwendung von Infrastruktur und auf Smart Products.

Neue Geschäftsmodelle durch Industrie 4.0
Unternehmen erhoffen sich aus der Investition in die Digitalisierung ihrer Wertschöpfungskette zunächst eine signifikante Steigerung der Ressourceneffizienz. Klar ist aber, dass diese zunehmende Digitalisierung mit einem immensen Datenwachstum einhergehen wird. Von zentraler Bedeutung wird also die Fähigkeit zur Datenanalyse und -interpretation sein.

Hieraus ergeben sich auch Potenziale zu gänzlich neuen Geschäftsmodellen. So ist es denkbar, dass zukünftig Plattform-Anbieter, also Unternehmen, die eine Infrastruktur zur Produktion vorhalten, von denen, die die Produktion durchführen, getrennt sein werden und sich nur virtuell vernetzen. Daten-Anbieter und Plattform-Enabler könnten die notwendigen Daten und Analysefähigkeiten, z. B. für die zu fertigenden Produkte vorhalten.

„Die Grenzen zwischen Maschinenbau und IT werden sich verschieben“, prophezeit Dr. Nestle. Die hohe Spezialisierung der in der Produktion eingesetzten Software stellte dabei bisher eine Eintrittshürde für die an standardisierte Komponenten gewöhnte IT-Industrie dar. Durch die Verschiebung der Grenzen ist eine Erweiterung der Geschäftsmodelle von IT-Unternehmen in den Kernbereich von Maschinenbauern oder aber der Eintritt von Dritten in den Markt denkbar.  

Für die Maschinenbauunternehmen werden somit ein strukturiertes Geschäftsmodell und damit ein Fokus auf die Kernkompetenzen immer wichtiger. Hierbei hilft das Reference Architectural Model Industrie 4.0 (RAMI) bei der Beantwortung der zentralen Fragen.

Was ändert sich für die Fachkräfte?
Durch die zunehmende Digitalisierung werden laut Dr. Nestle die Tätigkeiten der Fachkräfte zunehmend komplexer. In der Massenfertigung dominierten einfache Aufgaben mit einer hohen Standardisierung. Das Job-Profil wird sich im Zuge von Industrie 4.0 von dieser Bediener-Rolle zu einer Treiber-Rolle wandeln. Dabei werden die Aufgaben der Fachkräfte um Fehlerfindung, Präventive Instandhaltung und Monitoring erweitert sowie die Kompetenzen um selbstständige Entscheidungen ergänzt. Dazu müssen die Fachkräfte umfangreich qualifiziert werden. Dies hat Auswirkungen auf die Curricula aller Bildungsbereiche.

Festo ist hierbei mit eigenen Angeboten wie zum Beispiel der Lernfabrik führend.

Die Festo AG & Co. KG
Mit rund 18.000 Mitarbeitern in rund 63 Ländern gehört die familiengeführte Festo AG & Co. KG zu den Global Playern in der Automatisierungstechnik. Mit den beiden Geschäftsbereichen Automation, dem fertigenden Bereich, und Didactic, hierunter bündelt Festo Lernsysteme, Training und Consulting, bedient Festo rund 300.000 Kunden. Von den 2,5 Mrd. Euro Umsatz in 2014 gingen rund 7% in Forschung und Entwicklung. Weltbekannt sind die bionischen Modelle Festos, bei denen erfolgreich Naturphänomene in Robotiksysteme umgesetzt werden. Eine der neuesten Entwicklungen sind die eMotionButterflies, Schmetterlings-Roboter, die im kollektiven Schwarmverhalten fliegen und darüber hinaus die Grenzen des Ultraleichtbaus austesten.

Von Jan Tatzel, Horváth & Partners

Weitere Informationen zur Veranstaltung, die am 28. Oktober 2015 in Stuttgart stattgefunden hat, finden Sie hier »




Big-Data-Konferenz

„Big Data erfolgreich umsetzen wie Unternehmen neue Erfolgspotenziale erschließen“

Wie Unternehmen und Organisationen Big Data & Analytics einsetzen können, um ihre Geschäftsmodelle weiter zu entwickeln, die Produktentwicklung zu beschleunigen und entlang der Wertschöpfung gleichzeitig Effizienz und Qualität zu steigern 

Nachfolgend finden Sie Zusammenfassungen der Konferenzinhalte.

In Kooperation und mit freundlicher Genehmigung von haufe.de/Controlling.

Big Data & Analytics: Unglaubliche Chancen, enorme Herausforderungen

Big Data hat Unternehmen wie Google, eBay und Facebook groß gemacht – aber wie können auch etablierte Unternehmen von Big Data profitieren? Auf der Big-Data-Konferenz am 25. September in Stuttgart wurden die Erfolgspotenziale und Einsatzmöglichkeiten diskutiert und zahlreiche Praxisbeispiele vorgestellt.

Unternehmen erheben heute immer mehr Informationen über Kunden, Märkte und Produkte. Diese Entwicklung wird getrieben durch die riesigen Datenmengen, die Internet, Social Media, Social Business etc. bereitstellen. Sie wird weiter verstärkt durch die zunehmende maschinelle Erzeugung von Daten in Verbindung mit Industrie 4.0. Diese Datenmengen bieten unglaubliche Chancen für Unternehmen und Organisationen, stellen sie aber gleichzeitig vor neue Herausforderungen.

Wie Unternehmen neue Erfolgspotenziale erschließen
Zum Auftakt der Big-Data-Konferenz diskutierten die rund 120 Teilnehmer mit dem Vordenker und Bestseller-Autor Prof. Thomas H. Davenport, Professor of IT & Management Babson College Boston, wie Unternehmen die Datenflut nutzen können. Big Data hat nicht nur das Potenzial, bessere Analysen der Vergangenheit zu erstellen, sondern auch bessere Aussagen über die Zukunft zu treffen.

Im zweiten Teil der Konferenz berichteten sechs Referenten über ihre Erfahrungen mit Big Data & Analytics in der Unternehmenspraxis:

  • Mode und Algorithmik – Passt das zusammen? (Dr. Andreas Antrup, Head of Data Intelligence, Zalando SE)
  • Big Data – Big Confusion – How Data Links Can Help (Dr. Niko Waesche, SVP Digital Products and Sales, GfK SE)
  • Big Data gleich Big Value? – Goldgräberstimmung im Business (Dr. Lothar Burow, Head of Corporate Business Intelligence, Bayer AG)
  • Dynamic Rolling Forecast (Christian Rottenkolber, Controlling & Reporting DFS, Daimler Financial Services AG)
  • Big Data Analytics – Wie automatisierte Entscheidungen aufgrund präziser Prognosen Ihr Business revolutionieren (Prof. Dr. Michael Feindt, Gründer & Chief Scientific Advisor, Blue Yonder GmbH)
  • Finance Transformation: Mit Big Data auf dem Weg zu Realtime Finance bei der SAP AG (Carmen Sucic, Program Director Business Innovation & Application Services, SAP AG)

Alexander Vocelka, Partner bei Horváth & Partners, führte die Teilnehmer durch den Tag und moderierte die zahlreichen Fragen und Kommentare aus dem Plenum.

Auf die Menschen kommt es an
Auch wenn die Entwicklungen rund um Big Data eher technologisch getrieben sind, standen nicht die Tools und IT-Systeme, sondern der Mensch im Mittelpunkt der Diskussionen. In den Praxisberichten über die Nutzung von Big Data bei Bayer und Daimler Financial Services wird deutlich, dass Unternehmen nicht nur analytische Kompetenzen aufbauen, sondern auch Barrieren überwinden und ihre Einstellung im Umgang mit Daten ändern müssen. Auch Unternehmen, die wie Zalando ihr Geschäftsmodell auf die Nutzung von großen Datenmengen ausgerichtet haben, arbeiten täglich daran, Analytiker und Management noch besser zusammenzubringen.

„Wenn sich nur die IT mit Big Data beschäftigt, verpassen Sie eine Chance!“ meinte Prof. Thomas H. Davenport und erntete dafür allgemeine Zustimmung.

Von Alexander Vocelka, Horváth & Partners

Präzisere Prognosen ermöglichen automatisierte und dadurch effizientere Entscheidungen

Basierend auf analytischen Erkenntnissen und Technologien können unternehmerische Entscheidungen zuverlässig mit einem hohen Automatisierungsgrad getroffen werden. Prof. Dr. Michael Feindt setzt dabei auf den NeuroBayes-Algorithmus, der eigentlich für die Elementarteilchenphysik entwickelt wurde.

Big Data kann man als eine Verwissenschaftlichung der Wirtschaft betrachten, so Prof. Dr. Michael Feindt, Physiker und Gründer der Firma Blue Yonder. Auf der ersten Big-Data-Konferenz von Horváth & Partners berichtete Prof. Feindt, wie der für die wissenschaftliche Forschung entwickelte Algorithmus NeuroBayes erfolgreich in unterschiedlichen Wirtschaftszweigen und Fragestellungen in Unternehmen eingesetzt werden kann.

Neue Möglichkeiten durch Predictive Analytics
„Die Welt verläuft weder deterministisch noch zufällig.“ Vorhersagen können nach Prof. Feindt zwar nicht punktgenau gestaltet werden, doch durch die Zuordnung von Wahrscheinlichkeitsverteilungen können Prognosen als fundierte Grundlage von individuellen Einzelentscheidungen eingesetzt werden. Durch neue Technologien wie Predictive Analytics können diese Entscheidungen mit einem hohen Automatisierungsgrad basierend auf analytischen Erkenntnissen getroffen werden. Unternehmen sind dadurch in der Lage, durch den Einsatz komplexer, lernender Algorithmen, die auf eine gemeinsame, interne Datenbasis zugreifen, präzise Prognosen zu generieren und damit die entscheidende Frage „Was wird passieren?“ mit einer relativ hohen Wahrscheinlichkeit zu beantworten. Prof. Feindt betonte dabei die Bedeutung der internen Datenquellen, die alle geschäftsrelevanten Daten beinhalten. Unternehmen nutzten heute nur einen Bruchteil der eigenen Datenressourcen und verzichteten somit auf die Generierung neuer Erkenntnisse aus dem eigenen Datenspeicher.

Wissenschaftlicher NeuroBayes-Algorithmus in der Wirtschaft
„Im CERN gibt es Big Data schon lange.“ Prof. Dr. Feindt, der Entwickler des NeuroBayes-Algorithmus, erklärt den Zusammenhang zwischen der Elementarteilchenphysik und den neuen Anforderungen aus der Wirtschaft. In beiden Fällen sind Entscheider gezwungen aus großen Datenmengen mit Hilfe einer starken IT-Infrastruktur und dem Einsatz von robusten, statistischen Methoden neue Erkenntnisse zu gewinnen. In einem weiteren Schritt sollen Entscheidungen sogar automatisiert getroffen werden. Der für die experimentelle Elementarteilchenphysik entwickelte NeuroBayes-Algorithmus findet heute in verschiedenen Unternehmensbereichen Verwendung. Dabei werden komplexe Zusammenhänge aus historischen Unternehmensdaten erlernt und zur Prognose für die Zukunft nutzbar gemacht. Der Algorithmus basiert auf einem künstlichen neuronalen Netzwerk. Die Blue Yonder GmbH, führender Anbieter von Predictive Analytics, hat bereits zahlreiche Projekte in Absatzplanung, in der dynamischen Preisgestaltung, in der Retourenoptimierung und für weitere Geschäftsanforderungen erfolgreich umgesetzt.

Spannende Einsatzgebiete und Praxisbeispiele
Prof. Feindt illustrierte den erfolgreichen Einsatz der NeuroBayes-Technologie mit diversen Kundenreferenzen und Success Stories. So ist es einem Betreiber von Windkraftanlagen beispielsweise möglich mit präzisen Prognosen präventive Wartungsmaßnahmen zur Reduktion von Ausfallzeiten vorab zu planen. Im Handel gibt es eine erfolgreiche Zusammenarbeit mit dem Online-Händler OTTO. OTTO ist es mit dem Einsatz von NeuroBayes gelungen, die Prognosequalität der Absatz- und Retourenprognosen zu erhöhen und dadurch die Disposition zu optimieren. 

Von Can Tunco, Horváth & Partners

Big Data – Big Confusion? Ganzheitliche Analyse statt Silodenken gefordert

Dass Big Data allein nur zweitrangig interessante Informationen bieten kann, stellt Dr. Niko Waesche dar. Dabei zeigt er, dass mit Hilfe von Datenverknüpfungen „Big Data into Smart Data“ gewandelt werden kann und dass genau diese Verknüpfung das eigentliche Potenzial des Big-Data-Hypes darstellt.

Silodenken führt in die Sackgasse
Wenn ein Unternehmen aktuell große Datenmengen sammelt, dann werden diese Daten, seien es Kundendaten, Absatzdaten, soziale Trends oder Industrien, wahrscheinlich voneinander getrennt in verschiedenen Silos gelagert und nur isoliert analysiert und betrachtet. Dabei ist die Verknüpfung der Daten der ausschlaggebende Vorteil, den Big Data liefern kann, so die Botschaft von Dr. Niko Waesche, Global Lead Digital Products and Sales der Gesellschaft für Konsumforschung, in seinem Vortrag „Big Data – Big Confusion“. Für viele Unternehmen, besonders junge Internetunternehmen, liegen große Mengen an Daten vor. Diese können aber nicht entsprechend genutzt werden, da Marketing und Informationstechnologie nicht ausreichend miteinander verknüpft sind.

Cross-Media Combinations: Werbewirkung über alle Medien maximieren
Die Kombination verschiedener Medien kann große Vorteile bieten, wie verschiedene Studien der letzten Jahre gezeigt haben. Eine GfK Studie beispielsweise stellt dar, dass Websitebesucher, die durch Werbung auf die Internetseite aufmerksam geworden sind, in den meisten Fällen die entsprechende Werbung an ihrem Fernseher gesehen haben. Unternehmen können diese Beobachtungen zu ihren Vorteilen nutzen. So hat beispielsweise der Onlinehändler Zalando im Jahr 2010 begonnen, massiv in Fernsehwerbung zu investieren. Als Folge dieser Investitionen hat sich der Search Volume Index über die Monate April 2010 bis Oktober 2010 beinahe vervierfacht. Zalando hat weiterhin während dieser Zeit Messungen vorgenommen, wie viele Besuche die Internetseite generieren konnte. Auf diesem Wege konnten die entsprechenden Marketingprogramme verfeinert und justiert werden. Der GfK Crossmedia Link bietet in dieser Hinsicht beispielsweise die Möglichkeit digitales Kosumentenverhalten auf bis zu vier Bildschirmen zu messen. Dafür werden die Daten von Smartphone, Laptop, Tablet und TV aggregiert und analysiert. So kann die Wirkung von Werbung und Inhalten auf verschiedenen Kanälen beurteilt werden.

Nutzungsbeispiele für die neuen Technologien
Neue Technologien und Systeme, die die erhöhte Verfügbarkeit von Daten nutzen, sind bereits vorhanden. So beispielsweise das Real-Time Bidding Verfahren, mit dessen Hilfe digitale Werbeplätze in Echtzeit in einer Art Versteigerung angeboten werden. An diesem Verfahren ist eine Vielzahl von verschiedenen Unternehmen beteiligt, was den digitalen Ad-Market zu einem hoch komplizierten, sehr spezialisierten, aber gleichzeitig auch attraktiven Markt macht. Ähnliche Verfahren werden von Unternehmen verschiedenster Branchen genutzt. Dazu gehört beispielsweise der Video-on-Demand-Anbieter Netflix. Netflix analysiert die Daten seiner Nutzer, um herauszufinden, welche Themen und Inhalte momentan interessant sind und am meisten angesehen werden. Mit Hilfe dieser Erkenntnisse werden Eigenproduktionen auf den Markt gebracht, wie zum Beispiel die Serien „House of Cards“ oder „Orange is the new Black“. Aber auch Capital IQ, eine Informations- und Matchmaking-Plattform für Finanzinvestoren, oder eHarmony, eine US-amerikanische Dating-Website, nutzen Technologien, Verfahren und Algorithmen, die große Datenmengen auswerten und so entsprechend aufbereitete Informationen liefern und auf Basis dessen Empfehlungen abgeben.

Wie es weitergeht
Derzeit ist das Feld der Datenverknüpfung noch größtenteils unerschlossen. Doch bereits ist jetzt klar, dass die Genauigkeit, mit der die verschiedensten Entwicklungen vorhergesagt werden können, in den nächsten Jahren zunehmen wird. Wichtig wird dabei auch „location-based information“ sein, mit deren Hilfe es möglich ist, ortsbezogene Empfehlungen auszusprechen. Sei es der Hinweis auf ein Angebot beim Betreten eines Supermarktes, oder der Hinweis auf verschiedene gesundheitsbezogene Besonderheiten, wenn die Praxis eines Arztes aufgesucht wird. Dabei spielen allerdings auch Datenschutz sowie Marktmacht verschiedener Unternehmen eine Rolle. In welche Richtung sich dies entwickeln wird ist noch unklar. Ob der Markt fragmentiert sein wird oder ob wenige, dafür sehr große und einflussreiche Unternehmen die Daten über einzelne Konsumenten sammeln, besitzen und analysieren werden, wird sich noch herausstellen.

Klar ist jedoch, dass die Verknüpfung von Daten durch das Aufbrechen der einzelnen Silos große Potenziale bietet, um die bloßen Datenmengen in nutzbare Informationen zu wandeln.

Von Sven Auert, Hórváth & Partners

Big Data gleich Big Value? Auf die Menschen kommt es an

Big Data an sich bringt noch keinen Nutzen. Die Menschen müssen Ideen generieren, was man mit Big Data macht und worin der Mehrwert für das Unternehmen besteht. Dr. Lothar Burow stellt die Vorgehensweise und die Fortschritte im Controlling bei der Bayer AG vor.

Big Data gleich Big Marketing – und sonst?
Big Data ist in aller Munde, sowohl im Marketing von Anbietern und Beratern als auch in der Diskussion in Unternehmen und auf einschlägigen Fachveranstaltungen. Doch ist es nur Marketing oder steckt mehr dahinter? Dieser Frage und den möglichen Implikationen für Controller geht Dr. Lothar Burow, Head of Corporate Business Intelligence, Bayer AG anhand konkreter Anwendungsbeispiele auf den Grund.

Die inflationäre Verbreitung und oft unreflektierte Verwendung des Begriffs Big Data sowohl im Marketing von Anbietern und Beratern als auch in der Diskussion in Unternehmen und auf einschlägigen Fachveranstaltungen wirft die Frage auf, welche konkrete Bedeutung Big Data tatsächlich für Unternehmen hat und welche Auswirkungen sich für den Controller ergeben können.

Differenzierung nach Daten, Technologie und Analytics
Big Data steht wie kein anderer Begriff für diesen zusätzlichen Produktionsfaktor, der sich für die nähere Betrachtung in die Aspekte Daten, Technologie und Analytics differenzieren lässt.

Daten können abhängig von ihrer Herkunft beispielsweise nach

  • Kerndaten (im Unternehmen im Rahmen der Geschäftsprozesse generiert und idealerweise innerhalb des Unternehmens frei verfügbar),
  • Community-Daten (Daten von Kunden, Zulieferern, Vertriebsstellen etc., die oft zugekauft werden müssen) und
  • offenen Daten (im Internet frei verfügbare Daten)

unterschieden werden. Aufgrund von Herkunft und Charakter differieren sie stark hinsichtlich Verfügbarkeit, Verlässlichkeit, Kontrollierbarkeit etc. und damit auch in ihrem unmittelbaren Nutzwert.

Aufgrund des Fortschritts in der Technologie lassen sich heute mittels neuer Speicherkonzepte, selbstlernender Software und neuer analytischer Anwendungen große Datenmengen schneller und mit deutlich besseren Analyseergebnissen verarbeiten und darstellen.

Der Bereich Analytics führt letztendlich durch die verbesserte Nutzbarkeit fortschrittlicher analytischer Methoden dazu, dass aus der Komplexität der unzähligen verfügbaren Daten relevante Informationen extrahiert, sinnvoll aggregiert und dem Management zur Entscheidungsfindung zeitnah zur Verfügung gestellt werden können.

Erst durch die Verknüpfung dieser drei Aspekte von Big Data und insbesondere in der letzten Stufe Analytics entsteht der Nutzen für das Unternehmensgeschäft.

Mehrwert ist abhängig von der Qualität der Analytics
Dieser Business Impact ist für Bayer der entscheidende Faktor, wenn es um die Frage nach Einsatz und Nutzung von Big Data im Unternehmen geht. Und je fortgeschrittener die Analytics, desto größer der potenzielle Mehrwert.

Entscheidend für den Erfolg von Big Data im Unternehmen sind vor allem die passenden Rahmenbedingungen.

  • Statistiker, die in der Lage sind komplexe Zusammenhänge der vorhandenen Daten zu verstehen, zu analysieren und nutzbar zu machen, müssen eine größere Rolle im Unternehmen spielen.
  • Entscheidungsprozesse müssen angepasst werden, um die neuen Möglichkeiten zu berücksichtigen.
  • Interne Wettbewerbe und Informationshoheit müssen aufgelöst, Daten intern offen zur Verfügung gestellt und Transparenz geschaffen werden.
  • Der Mind Set im Unternehmen muss an die neuen Möglichkeiten angepasst, Verständnis geschaffen und Skills aufgebaut werden.

Nur so können Informationen voll zum Wohle des Unternehmens genutzt werden, denn der wahre Wettbewerb findet außerhalb des Unternehmens statt.

Verbesserungen bei Bayer
Bayer hat unter Berücksichtigung dieser Paradigmen auf Basis von Big Data Lösungen für das Controlling geschaffen, die zu spürbaren Verbesserungen für das Unternehmen und nebenbei zu einer Top-Platzierung im Ranking von Hackett geführt haben:

  • Prognose zum Monatsende (Forecasting)
  • Berechnung der Gruppenmarge
  • Optimierung und Visualisierung der internen Werteflüsse
  • Simulationen in der Planung
  • Self-Service Reporting

Der Nutzen aus diesen Anwendungsfällen ist vielfältig. So ermöglichte die smarte Aggregation der Informationen eine bessere Nachvollziehbarkeit des Reportings. Zusammen mit der gestiegenen Verlässlichkeit des Forecastings und der neu gewonnenen Transparenz über die Bandbreite der möglichen Unsicherheit der Ergebnisse führt der Einsatz von Big Data Analytics im Forecasting zu erhöhter Akzeptanz und Vertrauen beim Management.

Die Visualisierung der internen Werteflüsse sorgt für schnelle Transparenz und wird heute erfolgreich als Steuerungsinstrument verwendet.

In der Planung können durch den Einsatz von Big Data bei Anpassungen in den Planungsparametern die über 60 Income Statements weltweit innerhalb weniger Minuten für die gesamte Gruppe neu kalkuliert und damit Verzögerungen aus der reinen Kalkulation der Planungsergebnisse signifikant reduziert werden.

Im Bereich Self-Service Reporting sind Anwender heute in der Lage ohne Unterstützung durch das Controlling aus einem Applet-Baukasten die für sie relevanten Reporting-Bausteine auszuwählen und zu einem Cockpit zusammen zu führen. Das Controlling kann die frei gewordenen Kapazitäten für die deutlich Nutzen stiftendere Bewertung und Interpretation der Reporting-Ergebnisse verwenden.

Dies hatte auch positive Auswirkungen auf das Bild des Controllers im Unternehmen. Die Wahrnehmung konnte vom „Scorekeeper“ zum „Valued Business Partner“ weiterentwickelt werden.

Fazit

Wesentliche Lessons Learned aus dem Einsatz von Big Data bei Bayer sind:

  • Die Änderung des Mind Sets im Controlling, bei den Anwendern und auch im Management ist erfolgskritisch
  • Alle relevanten Daten müssen in einem Business Warehouse zusammengefasst werden
  • Datenqualität ist Schlüssel zum Erfolg: Sie wird erreichbar durch Datenharmonisierung in den ERP-Systemen in Verbindung mit einer starken Governance

Big Data an sich bringt noch keinen Nutzen. Die Menschen müssen Ideen generieren, was man mit Big Data macht und worin der Mehrwert für das Unternehmen besteht. Erst dadurch entsteht der eigentliche Nutzen von Big Data.

Von Mark René Hertting, Horváth & Partners

Weitere Informationen zur Veranstaltung, die am 25. September 2014 in Stuttgart stattgefunden hat, finden Sie hier »