Über Stefan Müller

Stefan Müller - Director Big Data Analytics
Nach mehreren Jahren Tätigkeit im Bereich Governance & Controlling und Sourcing Management ist Stefan Müller bei it-novum gelandet, wo er den Bereich Big Data Analytics aufgebaut hat. Stefans Herz schlägt für die Möglichkeiten, die die BI-Suiten von Pentaho und Jedox bieten, er beschäftigt sich aber auch mit anderen Open Source BI-Lösungen. Seine Begeisterung für Business Open Source im Bereich Datenintelligenz gibt Stefan regelmäßig in Fachartikeln, Statements und Vorträgen weiter.
Webprofile von Stefan: Twitter, LinkedIn, XING

Lebensretter Pseudonymisierte Daten helfen Leben zu schützen

0
16.10.2020ǀ ǀ Big Data

Sicherere Events dank Geodaten

Auch Events werden mit Geodaten sicherer

Geodaten, bei denen die Verbindung zu personenbezogenen Informationen reversibel entfernt wurde, eröffnen ganz neue Möglichkeiten für Rettung und Sicherheit: sie ermöglichen nämlich unter anderem die Früherkennung von Panikpotenzial bei großen Menschenansammlungen und interaktive Anwendungen wie die Corona-Karte, die in Echtzeit aktualisiert wird. Pseudonymisierungstechniken sorgen dabei für den nötigen Datenschutz.  zum Artikel

Datenintegration: die Grundlage für erfolgreiche Digitalisierung Pentaho User Meeting fand 2020 virtuell statt

0

Im Filmstudio des virtuellen PUM

Im Filmstudio des virtuellen PUM

Als wir im Herbst letzten Jahres mit der Vorbereitung des Pentaho User Meetings 2020 begannen, hätten wir uns nicht träumen lassen, dass es erst 12 Monate später stattfinden würde. Und das auch nur virtuell. Nachdem sich die Ereignisse im Frühjahr überschlugen, die halbe Arbeitswelt ins Home Office wechselte und niemand wusste, wie es weitergehen würde, sind wir aber einfach nur froh, die Krise gesund überstanden zu haben. Inzwischen sind Online-Meetings normaler Bestandteil unseres Alltags – also warum nicht auch alle Pentaho-Anwender virtuell zusammenbringen?  zum Artikel

Frameworks als rettende Helfer Data Vault: mehr Agilität im Data Warehouse (Teil 3)

0

Data Vault

Mehr Agilität durch Data Vault

Wer bislang noch nicht mit der Modellierungstechnik Data Vault gearbeitet hat, fragt sich häufig, wie diese in die bestehende Data Warehouse-Architektur integriert werden kann. Data Vault Frameworks sind hier die Lösung, weil sie einen Layer zwischen Data Warehouse und Entwickler ziehen und somit die Komplexität bei der Umsetzung verringern.  zum Artikel

Die Vorteile von Data Vault Data Vault: mehr Agilität im Data Warehouse (Teil 2)

0

Data Vault

Mehr Agilität durch Data Vault

Agile Unternehmen brauchen eine agile IT. Moderne Datenstrukturen sind aber mit bestehenden Data Warehouse-Architekturen nur umständlich (und teuer) zu erreichen. Data Vault ist ein Technologieansatz, mit dem sich Legacy Data Warehouses den Anforderungen der Digitalisierung anpassen lassen. Im zweiten Beitrag der Blogserie geht es um die Vorteile des Konzepts.  zum Artikel

„Das Schönste ist der zufriedene Kunde am Ende“ Teamverstärkung durch Data Scientist Benedikt Böhning

0

Data Scientist Benedikt

Jüngster Teamzuwachs: Benedikt Böhning

Unser Team wächst weiter. Seit kurzem unterstützt uns Benedikt Böhning im Bereich Big Data Analytics. Nach dem Abitur in Fulda studierte Benedikt Informatik an der TU Darmstadt. Die Verbindung zur Heimat durch Familie, Freunde und Fußball war jedoch immer gegeben. Daher war für ihn immer klar, sich nach dem erfolgreichen Masterabschluss nach einem Job in Fulda und Umgebung umzuschauen.  zum Artikel

Data Vault: mehr Agilität im Data Warehouse Teil 1: Konzept und Definition

0

Data Vault

Mehr Agilität durch Data Vault

Unternehmen müssen ihr Geschäft in immer kürzeren Zyklen transformieren und sich permanent den Marktbedürfnissen anpassen. Data Warehouse-Verantwortliche stehen deshalb unter Druck, für agile Datenstrukturen sorgen zu müssen. Dafür sind bestehende Data Warehouses aber häufig zu schwerfällig, zu komplex oder zu teuer. Eine gute Lösung, um mit bestehenden Architekturen moderne Anforderungen abzudecken, ist Data Vault. In dieser Blogserie, die auf dem gleichnamigen Whitepaper basiert, diskutiere ich das Konzept und seine Einsatzmöglichkeiten für Data Warehouses.  zum Artikel

„Mein Beruf ist unglaublich facettenreich“ Neu im Analytics-Team: Philipp Gies

0

Philipp unterstützt unseren BDA-Bereich

Philipp Gies

Wir kooperieren seit Jahren eng mit der Hochschule Fulda, um Nachwuchs-ITlern die Möglichkeit zu bieten, während eines Betriebspraktikums oder Abschlussarbeit Praxiserfahrung zu sammeln. Zudem halte ich regelmäßig Gastvorträge zu verschiedenen Aspekten der Datennutzung und -aufbereitung. Philipp Gies kam über ein Praktikum zu uns, schrieb dann hier seine Bachelorthesis und unterstützt uns seit kurzem im Bereich Big Data Analytics. Willkommen!  zum Artikel

Use Cases für die digitale Produktion 2 weitere Datenanwendungsfälle für Smart Manufacturing (Teil 3)

0

Smarte Produktionsprozesse basieren auf integrierten Daten

Smarte Produktionsprozesse basieren auf integrierten Daten

Die Einbindung aller Daten für vollintegrierte Analysen und Prognosen ist das Ziel jeder Smart Manufacturing-Initiative. Im zweiten Beitrag unserer Smart Factory-Serie habe ich bereits zwei Use Cases vorgestellt. Im letzten Artikel der Serie stelle ich zwei weitere Beispiele vor.  zum Artikel

Maschinelles Lernen ist eines der spannendsten Forschungsgebiete Timo Féret stärkt den Bereich Data Science

0

Timo unterstützt den Data Science-Bereich

Neu im Team: Timo Féret

Um der steigenden Nachfrage nach Datenlösungen zu begegnen, haben wir in den letzten Monaten kontinuierlich unseren Bereich Big Data Analytics ausgeweitet. Unter den Neuzugängen ist Timo Féret, mit dem ich mich über Maschinenlernen, künstliche Intelligenz und die vielfältigen Anforderungen unserer Kunden unterhalten habe.  zum Artikel

Use Cases für die digitale Produktion Vier Datenanwendungsfälle für die Smart Factory (Teil 2)

0

Überblick behalten dank integrierter Datenbasis

Überblick behalten dank integrierter Datenbasis

In vielen Industrieunternehmen ist die digitalisierte Produktion bereits Realität. Wie eine gelungene Datenintegration und darauf basierende, smarte Prognosen dabei helfen, die Produktionseffektivität und -effizienz zu steigern, zeigen nachfolgende Beispiele aus der Praxis.  zum Artikel

nach oben