Apache Storm – Big Data-Analyse auf Echtzeitbasis

0
24.11.2016ǀ ǀ Big Data
Hadoop Yarn sorgt für eine effiziente Clusterauslastung

Hadoop Yarn sorgt für eine effiziente Clusterauslastung

Unternehmen, die eigene Big-Data-Umgebungen aufbauen wollen, sollten einen Blick auf Apache Storm werfen: Das fehlertolerante und skalierbare System gehört zu den bekanntesten Big-Data-Lösungen im Open-Source-Bereich und hat sich auf die Fahnen geschrieben, Daten in Echtzeit zu verarbeiten. Überdies erlaubt Storm die Ausgabe von Daten, während die Berechnung im Hintergrund weiterläuft.  zum Artikel

Hadoop Yarn – Big Data beschleunigen

0
Hadoop Yarn sorgt für eine effiziente Clusterauslastung

Hadoop Yarn sorgt für eine effiziente Clusterauslastung

Der MapReduce-Algorithmus, der in Hadoop zur Datenanalyse eingesetzt wird, ist für die vielfältigen Anwendungsgebiete nicht immer optimal, da er ursprünglich für die Batch-Verarbeitung entwickelt wurde. Um eine größere Skalierbarkeit, Teilbarkeit und Zuverlässigkeit eines Hadoop-Clusters zu erreichen, haben die Entwickler mit Hadoop Yarn deshalb eine hierarchische Modifizierung am Cluster-Framework vorgenommen.  zum Artikel

Splunk – Big Data vereinfachen

0
Die wichtigsten zehn Big Data-Technologien

Splunk holt die Informationen aus den Daten

Unternehmen, die aus ihren Betriebs- und Geschäftsdaten alle wichtigen Informationen herausholen wollen, bietet der Analyse-Spezialist Splunk mit „Splunk Enterprise“ eine flexibel konfigurierbare Lösung, die fast sämtliche Arten von Daten indizieren, verarbeiten und auswerten kann.  zum Artikel

Apache Spark – Framework für Echtzeitanalysen

1
Die wichtigsten zehn Big Data-Technologien

Apache Spark nutzt In-Memory für schnelle Streaming-Analysen.

Apache Spark ist ein parallel arbeitendes Open Source-Framework, das die schnelle Verarbeitung großer Datenmengen auf geclusterten Computern ermöglicht. Im Vergleich zu Hadoop kann Spark mit der In-Memory-Technologie bei bestimmten Anwendungsszenarien Daten um ein vielfaches schneller verarbeiten. Davon profitieren auch Pinterest- und Airbnb-Nutzer.

 zum Artikel

Infobright – MySQL-Engine mit effektiver Datenkompression

3
Die wichtigsten zehn Big Data-Technologien

Infobright hat auch große Datenmengen immer im Griff.

Das explosionsartige Datenwachstum setzt die etablierten Datenmanagementlösungen unter Druck, da ihre Flexibilität beschränkt ist. Mit der hochentwickelten Data Warehouse-Architektur von Infobright haben Betreiber Ihre anwachsenden Datenmengen, die steigenden Ansprüche der Nutzer und die hohen Kundenerwartungen auch bei begrenzten IT-Ressourcen bestens im Griff.  zum Artikel

Apache Hive – das Data Warehouse für Hadoop

1
Die wichtigsten zehn Big Data-Technologien

Apache Hive hilft, den Durchblick im Datenwald zu behalten

Für Unternehmen ist die Verlagerung ihrer Daten nach Hadoop eine Herausforderung, weil die vorhandenen Daten üblicherweise in relationalen Datenbanken mit der Structured Query Language (SQL) gespeichert sind. In Teil 3 unserer Big Data-Serie geht es daher um Apache Hive, das auf dem MapReduce-Algorithmus beruht und den SQL-Dialekt Hive Query Language gleich mit liefert.  zum Artikel

Apache Hadoop – ein bewährtes Open Source-Framework

2
Die wichtigsten zehn Big Data-Technologien

Apache Hive hilft, den Durchblick im Datenwald zu behalten

Viele Unternehmen stehen vor dem Problem, dass ihnen einfach die Zeit fehlt, um ihre Daten zu analysieren. Ein System wie Hadoop organisiert die Verarbeitung und den Datenfluss dergestalt, dass die Verarbeitungszeit bei zunehmendem Datenvolumen sinkt. Im Big Data-Bereich spielt Hadoop mittlerweile bei vielen Lösungen eine zentrale Rolle.

 zum Artikel