Wie haben sich die Big Data-Trends von 2017 entwickelt?

3
04.01.2018ǀ ǀ Big Data
Big Data-Trends 2018: Blick nach oben

Big Data-Trends 2018: Blick nach oben

Mein Blogbeitrag Anfang des Jahres zu wichtigen Trends im Big Data-Bereich machte deutlich, dass 2017 ganz im Zeichen von Hadoop, Predictive Analytics und Cloud stehen wird und deren Bedeutung für Unternehmen wächst. Das ist definitiv eingetreten. Doch wie haben sich die weiteren Trends im Jahr 2017 entwickelt, und wie sieht es für das Jahr 2018 aus?

1. Nutzung von Hadoop hat weiter zugenommen

Dass die Nutzung von Hadoop in Europa zunehmen wird, war bereits im Jahr 2016 absehbar, da sich in diesem Zeitraum die Nutzeranzahl des Big-Data-Framework-Tools verdoppelt hat. Dieser Trend hat sich auch für 2017 bestätigt: Hadoop wird in einer Vielzahl von Projekten eingesetzt und häufig implementiert. Unternehmen nutzen es insbesondere im Rahmen von Big Data Analytics und oft in Ergänzung mit Technologien wie Spark. Da sich das Tool für vielfältige Einsatzzwecke eignet, werden auch im Jahr 2018 die Use Cases zunehmen. Der Einsatz lohnt sich insbesondere für Bereiche wie Sensordaten-Auswertung im Kontext IoT. Anwender profitieren von Hadoop, da es sich für die Verarbeitung großer, polystrukturierter Datenmengen eignet und zusätzlich übergreifende Analysemöglichkeiten bietet. Große Datenmengen lassen sich mit der Lösung kinderleicht und kostengünstig speichern, verwalten und nutzen.

2. Predictive Analytics wird immer wichtiger

Dass sich Reaktivität inzwischen nicht mehr auszahlt, war bereits zu Beginn des Jahres 2017 absehbar. Um schon vorher einschätzen zu können, beispielsweise welche Waren Kunden zu welchem Zeitpunkt benötigen, braucht es eine informationsbasierte Unternehmensführung. Im Jahr 2017 hat sich it-novum daher noch weiter auf die Themen Data Science und Predictive Maintenance konzentriert. Im Fokus stand dabei z.B. die Optimierung von Wartungsprozessen, wofür entsprechende Daten aus der Produktion ausgelesen werden müssen, um auf Probleme frühzeitig reagieren zu können. Mit Technologien wie Pentaho, Hadoop oder auch Python ist man für solche Szenarien bestens für die Zukunft gerüstet. Um Ressourcen und Kapazitäten zukünftig noch besser einsetzen zu können und die Produktivität und Effizienz zu steigern, sollten sich Unternehmen im Jahr 2018 daher noch stärker auf diesen Bereich fokussieren.

3. Cloud-basierende Datensysteme: In Deutschland herrscht noch Skepsis

Um die Skalierbarkeit und mehr Flexibilität zu gewinnen, brauchen Unternehmen eine kosteneffiziente, schnelle Datenanalyse – dafür benötigen sie eine Cloud-Lösung. Die Cloud ist leider insbesondere in Deutschland für viele Unternehmen immer noch ein rotes Tuch. Gegenüber Cloud-Anbietern herrscht eine gewisse Skepsis. Insbesondere aus Gründen der Data Security entscheiden sich viele Unternehmen gegen eine Cloud-Lösung. Im Jahr 2018 gibt es hier also noch Nachholbedarf – in Ländern wie den USA oder dem Vereinigten Königreich haben sich Cloud-Datensysteme bereits stärker etabliert.

4. IoT, Cloud, Big Data und Cybersecurity müssen besser zusammenarbeiten

Im Jahr 2017 haben das Datenvolumen und die Komplexität der Systeme weiter zugenommen. Insbesondere im Zuge der am 25. Mai 2018 in Kraft tretenden DSGVO müssen sich Unternehmen Compliance-konform verhalten und können etwaige Nutzerdaten ausschließlich der Richtlinie entsprechend sammeln. Für 2018 gilt es daher weiter, Strategien zu analysieren, zu bewerten und gegebenenfalls zu verändern, um kommende Herausforderungen wie bspw. die stärkere Operationalisierung von Predictive Analytics zu meistern. Einzelne Bereiche müssen weiter zusammenwachsen, und die IT muss weiterhin flexibel auf Veränderungen reagieren. Nur so ist für eine positive Differenzierung gegenüber der Konkurrenz gesorgt.

5. Self-Service-Datenaufbereitung weiterhin wichtig

Auch in diesem Jahr war das Thema Self-Service für unsere Kunden ein sehr zentrales Thema. Anwender möchten ihre Daten möglichst selbstständig erstellen und auswerten können. Daher ist es notwendig, Daten per Knopfdruck verfügbar zu machen. Für Unternehmen ist es effizienter, auf Basis der gesammelten Daten Entscheidungen selbst und schnell zu treffen.

Ausblick ins Jahr 2018

In vielen Bereichen bewegen wir uns stärker in Richtung Streaming-Analytics-Szenarien. Es geht also nicht mehr nur um eine Batch-Verarbeitung, sondern um eine nahezu Echtzeit-Verarbeitung von Daten und Analysen. Gefragt sind daher Projekte wie openLighthouse, die einen ganzheitlichen Blick auf Unternehmensdaten werfen, in diesem Fall auf Informationen aus den verschiedenen Anwendungen des IT Service Managements. In einem Markt mit wachsender Konkurrenz ist es absolut notwendig, Daten binnen kurzer Abstände zu analysieren. Zudem wird IoT sehr viel bedeutsamer – auch damit müssen sich viele Unternehmen auseinandersetzen. Wachsen IoT und Predictive Analytics aber näher zusammen, so ermöglicht es ihre Kombination, Daten nahezu in Echtzeit auszuwerten.

Diese Artikel könnten Sie auch interessieren:

Tags: , , , , ,

Stefan Müller - Director Big Data Analytics
Nach mehreren Jahren Tätigkeit im Bereich Governance & Controlling und Sourcing Management ist Stefan Müller bei it-novum gelandet, wo er den Bereich Big Data Analytics aufgebaut hat. Stefans Herz schlägt für die Möglichkeiten, die die BI-Suiten von Pentaho und Jedox bieten, er beschäftigt sich aber auch mit anderen Open Source BI-Lösungen. Seine Begeisterung für Business Open Source im Bereich Datenintelligenz gibt Stefan regelmäßig in Fachartikeln, Statements und Vorträgen weiter.
Webprofile von Stefan: Twitter, LinkedIn, XING