Realizing a Big Data Stack for machine learning, real time processing and data visualization
0
Open technologies for a big data stack
Open technologies for a big data stack
Big Data-Trends 2018: Blick nach oben
Mein Blogbeitrag Anfang des Jahres zu wichtigen Trends im Big Data-Bereich machte deutlich, dass 2017 ganz im Zeichen von Hadoop, Predictive Analytics und Cloud stehen wird und deren Bedeutung für Unternehmen wächst. Das ist definitiv eingetreten. Doch wie haben sich die weiteren Trends im Jahr 2017 entwickelt, und wie sieht es für das Jahr 2018 aus? zum Artikel
Michael Deuchert unterstützt uns zukünftig im Bereich BI/Big Data
Wir haben Zuwachs bekommen: Michael Deuchert unterstützt uns seit kurzem im Bereich Business Intelligence & Big Data. Ich habe mich mit ihm über seine Aufgaben unterhalten und wie GPU-basierte Analysen bei der Auswertung von Maschinendaten helfen können. zum Artikel
Hadoop-Cluster sicher machen ist nicht schwer. Wir zeigen Ihnen, wie es geht.
Momentan gibt es wieder vermehrt Hacker-Angriffe auf Hadoop-Cluster. Opfer sind Anwender von Hadoop-Distributed-File-System-Installationen (HDFS). Bei den Attacken wird die Hadoop-Datenbank „geleert“. Wer seine Daten wieder haben möchte, muss Lösegeld zahlen. Schätzungsweise sind 8.000 bis 10.000 HDFS-Installationen weltweit betroffen. Dabei ist es recht einfach, seine Hadoop-Installation gegen Angriffe zu sichern. Wie das geht, zeige ich hier. zum Artikel
Welche Big Data Trends werden 2017 aktuell?
2017 werden zunehmend mehr Unternehmen die mit Big Data-Lösungen gewonnenen und analysierten Daten als Basis für reguläre Geschäftsprozesse und -entscheidungen nutzen. Fünf Trends werden den Bereich Big Data im nächsten Jahr vornehmlich prägen.
Die Bedeutung von Big Data-Lösungen im unternehmerischen Alltag nimmt kontinuierlich zu. 2017 werden sich die Unternehmen vor allem mit diesen Themen auseinandersetzen müssen: zum Artikel
Turboschnell Big-Data-Analyse
Wie Controller mit hohem Bedarf an Rechenpower große Datenmengen extrem schnell analysieren können, zeigen wir in unserem Screencast „Big Data für Controller“. Die Kombination von Hadoop mit der BI-Suite von Jedox lässt eine um hundertmal schnellere Cube-Befüllung und Auswertungen zu.
Hadoop Yarn sorgt für eine effiziente Clusterauslastung
Der MapReduce-Algorithmus, der in Hadoop zur Datenanalyse eingesetzt wird, ist für die vielfältigen Anwendungsgebiete nicht immer optimal, da er ursprünglich für die Batch-Verarbeitung entwickelt wurde. Um eine größere Skalierbarkeit, Teilbarkeit und Zuverlässigkeit eines Hadoop-Clusters zu erreichen, haben die Entwickler mit Hadoop Yarn deshalb eine hierarchische Modifizierung am Cluster-Framework vorgenommen. zum Artikel
Für Unternehmen ist die Verlagerung ihrer Daten nach Hadoop eine Herausforderung, weil die vorhandenen Daten üblicherweise in relationalen Datenbanken mit der Structured Query Language (SQL) gespeichert sind. In Teil 3 unserer Big Data-Serie geht es daher um Apache Hive, das auf dem MapReduce-Algorithmus beruht und den SQL-Dialekt Hive Query Language gleich mit liefert. zum Artikel
Viele Unternehmen stehen vor dem Problem, dass ihnen einfach die Zeit fehlt, um ihre Daten zu analysieren. Ein System wie Hadoop organisiert die Verarbeitung und den Datenfluss dergestalt, dass die Verarbeitungszeit bei zunehmendem Datenvolumen sinkt. Im Big Data-Bereich spielt Hadoop mittlerweile bei vielen Lösungen eine zentrale Rolle.
Daten gehören heute zu den wichtigsten Ressourcen in jedem Unternehmen. Aus ihnen lassen sich Erkenntnisse gewinnen, mit denen neue Geschäftsmodelle entwickelt, Produkte individualisiert und Strategien verbessert werden können. Am Anfang stehen die meisten Unternehmen jedoch vor der Herausforderung, ihre Use Cases zu identifizieren: denn je nach Anwendungsszenario kommen meist individuell zugeschnittene Technologiekonzepte aus dem Big Data-Umfeld zum Einsatz.
nach oben