Apache Spark – Framework für Echtzeitanalysen

1
Die wichtigsten zehn Big Data-Technologien

Apache Spark nutzt In-Memory für schnelle Streaming-Analysen.

Apache Spark ist ein parallel arbeitendes Open Source-Framework, das die schnelle Verarbeitung großer Datenmengen auf geclusterten Computern ermöglicht. Im Vergleich zu Hadoop kann Spark mit der In-Memory-Technologie bei bestimmten Anwendungsszenarien Daten um ein vielfaches schneller verarbeiten. Davon profitieren auch Pinterest- und Airbnb-Nutzer.

 zum Artikel

Apache Hadoop – ein bewährtes Open Source-Framework

2
Die wichtigsten zehn Big Data-Technologien

Apache Hive hilft, den Durchblick im Datenwald zu behalten

Viele Unternehmen stehen vor dem Problem, dass ihnen einfach die Zeit fehlt, um ihre Daten zu analysieren. Ein System wie Hadoop organisiert die Verarbeitung und den Datenfluss dergestalt, dass die Verarbeitungszeit bei zunehmendem Datenvolumen sinkt. Im Big Data-Bereich spielt Hadoop mittlerweile bei vielen Lösungen eine zentrale Rolle.

 zum Artikel

10 Big Data-Technologien, die Sie kennen sollten

3
Die wichtigsten zehn Big Data-Technologien

10 Technologien, die man kennen sollte, um sich nicht im Daten-Dschungel zu verirren

Daten gehören heute zu den wichtigsten Ressourcen in jedem Unternehmen. Aus ihnen lassen sich Erkenntnisse gewinnen, mit denen neue Geschäftsmodelle entwickelt, Produkte individualisiert und Strategien verbessert werden können. Am Anfang stehen die meisten Unternehmen jedoch vor der Herausforderung, ihre Use Cases zu identifizieren: denn je nach Anwendungsszenario kommen meist individuell zugeschnittene Technologiekonzepte aus dem Big Data-Umfeld zum Einsatz.

 zum Artikel