Über Stefan Müller

Stefan Müller - Director Big Data Analytics
Nach mehreren Jahren Tätigkeit im Bereich Governance & Controlling und Sourcing Management ist Stefan Müller bei it-novum gelandet, wo er den Bereich Big Data Analytics aufgebaut hat. Stefans Herz schlägt für die Möglichkeiten, die die BI-Suiten von Pentaho und Jedox bieten, er beschäftigt sich aber auch mit anderen Open Source BI-Lösungen. Seine Begeisterung für Business Open Source im Bereich Datenintelligenz gibt Stefan regelmäßig in Fachartikeln, Statements und Vorträgen weiter.
Webprofile von Stefan: Twitter, LinkedIn, XING

Interview mit Wael Elrifai: „IoT, Big Data Science und R&D“

0
Wael Elrifai ist Director Enterprise Solutions bei Pentaho

Wael Elrifai ist Director Enterprise Solutions bei Pentaho

Wael Elrifai ist einer der Referenten auf dem Pentaho User Meeting. Er arbeitet bei Pentaho, wo er für die Enterprise-Lösungen zuständig ist. Ich habe mich mit Wael über seinen Vortrag auf dem PUM17 unterhalten und weshalb Anwender unbedingt die neue Version der BI-Suite ausprobieren sollten.  zum Artikel

Pentaho User Meeting am 16. Februar in Frankfurt

1

Treffpunkt für alle Pentaho-Anwender: das Pentaho User Meeting 2017

Treffpunkt für alle Pentaho-Anwender: das Pentaho User Meeting

Mitte Februar ist es wieder soweit: das Pentaho User Meeting, kurz PUM17, findet in Frankfurt statt. Am 16. Februar treffen sich zum inzwischen 4. Mal alle Pentaho-Anwender und an der BI-Plattform Interessierte zum Erfahrungs- und Wissensaustausch. Von Pentaho aus haben bereits Matt Casters, Pedro Alves, Jens Bleuel und Wael Elrifai zugesagt. Anwender sind aufgerufen, ihr Pentaho-Projekt vorzustellen, der Call for Papers ist bis 6. Januar offen. Anmeldungen sind ab sofort möglich.  zum Artikel

Apache Storm – Big Data-Analyse auf Echtzeitbasis

0
24.11.2016ǀ ǀ Big Data
Hadoop Yarn sorgt für eine effiziente Clusterauslastung

Hadoop Yarn sorgt für eine effiziente Clusterauslastung

Unternehmen, die eigene Big-Data-Umgebungen aufbauen wollen, sollten einen Blick auf Apache Storm werfen: Das fehlertolerante und skalierbare System gehört zu den bekanntesten Big-Data-Lösungen im Open-Source-Bereich und hat sich auf die Fahnen geschrieben, Daten in Echtzeit zu verarbeiten. Überdies erlaubt Storm die Ausgabe von Daten, während die Berechnung im Hintergrund weiterläuft.  zum Artikel

Pentaho Analyzer – flexibles Analysetool für das Open Data Warehouse

0
Pentaho Analyzer – flexibles Analysetool für das Open Data Warehouse

Pentaho Analyzer: flexibles Analysetool für das Open Data Warehouse

Die Datenpräsentation bildet die Schnittstelle zwischen System und Anwender – aus Vertrieb, Controlling, Produktion und zunehmend auch dem Marketing ist sie heute kaum mehr wegzudenken. Mit den Datenintegrations- und Analysemöglichkeiten von Pentaho sind auch Anwender ohne Programmierkenntnisse in der Lage, Daten aus dem Data Warehouse aufzubereiten, zu visualisieren und interaktiv miteinander zu teilen.  zum Artikel

Mondrian – quelloffener OLAP Server für relationale Datenbanksysteme

0
Mondrian bietet gute Abfragegeschwindigkeit bei großen DatenmengenDatenbanken

Mondrian bietet gute Abfragegeschwindigkeit bei großen DatenmengenDatenbanken

Die Arbeitsschritte innerhalb eines Data Warehouse basieren auf dem Online Analytical Processing. OLAP dient zur mehrdimensionalen Visualisierung großer Datenmengen. Zusammenhängende Daten werden typischerweise in Form eines Würfels dargestellt. Ob relationales (ROLAP), multidimensionales (MOLAP) oder hybrides (HOLAP) Online Analytical Processing eingesetzt werden sollte, ist u.a. davon abhängig, ob die Daten aus einer Datenbank kommen oder aus operativen Systemen.  zum Artikel

Hadoop Yarn – Big Data beschleunigen

0
Hadoop Yarn sorgt für eine effiziente Clusterauslastung

Hadoop Yarn sorgt für eine effiziente Clusterauslastung

Der MapReduce-Algorithmus, der in Hadoop zur Datenanalyse eingesetzt wird, ist für die vielfältigen Anwendungsgebiete nicht immer optimal, da er ursprünglich für die Batch-Verarbeitung entwickelt wurde. Um eine größere Skalierbarkeit, Teilbarkeit und Zuverlässigkeit eines Hadoop-Clusters zu erreichen, haben die Entwickler mit Hadoop Yarn deshalb eine hierarchische Modifizierung am Cluster-Framework vorgenommen.  zum Artikel

Datenanalyse auf Knopfdruck: Big Data für Fachanwender

0
Maximilian-Post_Twitteranalysen

Inhaltlich und kulinarisch gehaltvoll: Der Data Analytics Lunch

Davon träumen viele Controller und Marketer: Big Data auf Knopfdruck auswerten zu können. In den meisten Unternehmen ist man davon noch weit entfernt. Wie es gehen kann, zeigen die Anwenderbeispiele unserer Eventreihe „Data Analytics Lunch“: Vom 28. Juni bis 17. Juli tourten wir mit Best Practice-Fällen durch Österreich und Deutschland – um Unternehmen aufzuzeigen, wie sie die Kluft zwischen ihren Daten und den Fachanwendern schließen können. Eine Zusammenfassung der Beiträge und Anwenderbeispiele (pdf-Download).
 zum Artikel

Splunk – Big Data vereinfachen

0
Die wichtigsten zehn Big Data-Technologien

Splunk holt die Informationen aus den Daten

Unternehmen, die aus ihren Betriebs- und Geschäftsdaten alle wichtigen Informationen herausholen wollen, bietet der Analyse-Spezialist Splunk mit „Splunk Enterprise“ eine flexibel konfigurierbare Lösung, die fast sämtliche Arten von Daten indizieren, verarbeiten und auswerten kann.  zum Artikel

nach oben