Über Stefan Müller

Stefan Müller - Director Big Data Analytics
Nach mehreren Jahren Tätigkeit im Bereich Governance & Controlling und Sourcing Management ist Stefan Müller bei it-novum gelandet, wo er den Bereich Big Data Analytics aufgebaut hat. Stefans Herz schlägt für die Möglichkeiten, die die BI-Suiten von Pentaho und Jedox bieten, er beschäftigt sich aber auch mit anderen Open Source BI-Lösungen. Seine Begeisterung für Business Open Source im Bereich Datenintelligenz gibt Stefan regelmäßig in Fachartikeln, Statements und Vorträgen weiter.
Webprofile von Stefan: Twitter, LinkedIn, XING

DSGVO: mehr Dynamik erforderlich Die Pseudonymisierung mit statischen Token reicht nicht aus

0
14.04.2020ǀ ǀ Big Data

Auge mit Fingerabdruck

Eine statische Pseudonymisierung ist nicht ausreichend

Anonymisierungstechniken im Umgang mit personenbezogenen Daten sind ein wichtiger Bestandteil der DSGVO. Die traditionelle Pseudonymisierung ist jedoch unzureichend, wie die Artikel-29-Datenschutzgruppe (heute Europäischer Datenschutzausschuss oder EDPB) bereits im Jahr 2014 feststellte. Damit reicht die Pseudonymisieurng mit statischen Token nicht aus. Wie eine rechtskonforme Pseudonymisierung aussehen muss, erklärt Mark Little, Chief Data Strategist bei unserem Partner Anonos, in diesem Beitrag.  zum Artikel

Daten in der digitalen Produktion Vier Datenanwendungsfälle für die Smart Factory (Teil 1)

0
Überblick behalten dank integrierter Datenbasis

Daten sind essentiell für eine optimale Fertigungskette

Welche Chancen hat die Digitalisierung für produzierende Unternehmen? Wo können in der Fertigung Potenziale ausgeschöpft werden durch die geschickte Verknüpfung von Daten? Vier Usecases verdeutlichen den Nutzen, den ein integrierter Ansatz für Daten aus der Fertigung hat.  zum Artikel

Datenauswertung: Von der Analyse bis zur Handlungsempfehlung Datenintegration als Grundlage für Industrie 4.0 (Teil 4)

0

Monteur mit Computer vor Anlage

Analysen sind die wichtigste Ressource für Produktionsoptimierungen

Der dritte Teil der Serie zur Bedeutung von Datenintegration für die Digitalisierung der Produktion drehte sich um die einzelnen Ausbaustufen bei der Zusammenführung aller wichtigen Datenquellen zu einem durchgehenden Datenfluss. Im 4. Teil der Serie erkläre ich, wie sich die verschiedenen Integrationsstufen bei Daten in den jeweiligen Analyseverfahren wiederspiegeln.  zum Artikel

Warum die DSGVO die Pseudonymisierung der Anonymisierung vorzieht Ein hohes Schutzniveau ist nur über Pseudonymisierung zu erreichen

0
27.02.2020ǀ ǀ Big Data

Auge mit Fingerabdruck

Favorisiert von der DSGVO: die Pseudonymisierung

Sich auf die Anonymisierung zu verlassen, ist fast unmöglich. Die Nichteinhaltung der DSGVO-Anonymisierungsanforderungen setzt Datenverarbeiter und -kontrolleure großen Risiken im Rahmen der DSGVO aus. Dabei gibt es eine weitaus bessere Alternative: Pseudonymisierung. Dieser Artikel erklärt, warum die Pseudonymisierung effektiver ist als die Anonymisierung, um das in der DSGVO geforderte hohe Schutzniveau für personenbezogene Daten zu gewährleisten.Von Gerry Rankin, Anonos  zum Artikel

CERN: a scalable infrastructure for data integration and reporting How to bring together data for thousands of users

0

Miroslav Potocky from CERN

Miroslav Potocky accounts for CERN’s data integration and reporting infrastructure

How do you deal with infrastructure issues such as scalability if your organization is huge and your data sums up to several hundreds of terabytes? CERN, world’s biggest research organization, is implementing a scalable infrastructure for data integration and reporting using open source tools such as Pentaho Data Integration. At Pentaho User Meeting, Miroslav Potocky will present the project.  zum Artikel

Data Warehouse in der Cloud Wie die Cloud die klassischen Datenplattformen revolutioniert

1

Rene Medak, Sales Director bei Snowflake

Rene Medak, Sales Director bei Snowflake

Themen wie Geschwindigkeit, Flexibilität und Data Sharing werden im Data Warehouse-Bereich immer wichtiger für Unternehmen. Klassische Data Warehouses können die durch Digitalisierung und Big Data veränderten Anforderungen kaum noch erfüllen. Welche Vorteile die Cloud für Data Warehousing besitzt, stellt Rene Medak vom Cloud-Spezialisten Snowflake auf dem Pentaho User Meeting am 11. März vor. Ich habe mich mit ihm über die wachsende Bedeutung der Cloud für Datenhaltung und -analyse unterhalten.  zum Artikel

Ausbaustufen bei der Datenintegration in der Fertigung Datenintegration als Grundlage für Industrie 4.0 (Teil 3)

2

Blauer Baum

Datenfluss aller wichtigen Datenquellen

Während sich der zweite Teil der Serie zum Stellenwert von Datenintegration in der Fertigung um Produktionsdaten in der Wertschöpfungskette drehte, geht es im dritten Teil um die einzelnen Ausbaustufen bei der Zusammenführung aller wichtigen Datenquellen zu einem durchgehenden Datenfluss.  zum Artikel

So analysiert man Geodaten datenschutzkonform Pseudonymisierung personengebundener Bewegungsprofile und Datenanreicherung

2

Lars Behrens ist seit 20 Jahren im Bereich Geodaten tätig

Lars Behrens ist seit 20 Jahren im Bereich Geodaten tätig

Am 11. März findet das siebte Pentaho User Meeting statt. Neben Updates zu Pentaho wird es dieses Mal auch eine Reihe von Live-Demos geben. Eine davon dreht sich um Geodaten und wie sie durch Pseudonymisierung für Analysen genutzt werden können. Ich habe mich dazu mit Lars Behrens vom Geodatenspezialisten ESRI unterhalten.  zum Artikel

nach oben