Über Alexander Keidel

Alexander Keidel ist Informatiker mit Schwerpunkt Hochleistungsrechnen (HPC). An der Technischen Universität Clausthal forschte er im Bereich Cloud Computing und HPC, bevor er zur it-novum wechselte. Im Bereich "Business Intelligence & Big Data" besetzt Alex den Schwerpunkt Big Data-Technologien und widmet sich dabei Themen wie dem Next-Generation Data Warehouse und Realtime Analytics.

Beschleunigen Sie Ihre Daten: Big Data-Workshop am 13. Juli

0
Entscheidungsfindung beschleunigen durch bessere Daten

Entscheidungen beschleunigen durch bessere Daten

Schöpfen Sie das volle Potenzial Ihrer Daten aus? Können Sie alle wichtigen Informationen für geschäftsrelevante Entscheidungen aufbereiten? Oder schlummern Ihre Daten immer noch in getrennten Datensilos? Im Workshop „Big Data Test Drive“ zeige ich Ihnen, wie Sie Ihre Daten(quellen) richtig integrieren.  zum Artikel

In fünf Schritten zum sicheren Hadoop-Cluster

1
01.03.2017ǀ ǀ Big Data
Hadoop-Cluster sicher machen ist nicht schwer. Wir zeigen Ihnen, wie es geht.

Hadoop-Cluster sicher machen ist nicht schwer. Wir zeigen Ihnen, wie es geht.

Momentan gibt es wieder vermehrt Hacker-Angriffe auf Hadoop-Cluster. Opfer sind Anwender von Hadoop-Distributed-File-System-Installationen (HDFS). Bei den Attacken wird die Hadoop-Datenbank „geleert“. Wer seine Daten wieder haben möchte, muss Lösegeld zahlen. Schätzungsweise sind 8.000 bis 10.000 HDFS-Installationen weltweit betroffen. Dabei ist es recht einfach, seine Hadoop-Installation gegen Angriffe zu sichern. Wie das geht, zeige ich hier.  zum Artikel

Big Data: Hive on Spark mit Jedox nutzen

1
Stark beschleunigt: Datenanalysen mit Jedox und Hive on Spark.

Stark beschleunigt: Datenanalysen mit Jedox und Hive on Spark.

– mit Michael Deuchert und Phillip Musch
Die Auswertung riesiger Datenbestände durch den Fachanwender wird immer wichtiger. Der Großteil der Business Intelligence-Lösungen tut sich aber noch schwer damit. Aus diesem Grund haben wir die BI-Plattform Jedox mit Hive on Spark kombiniert. Damit lassen sich riesige Datenmengen komfortabel in einer Software bearbeiten und analysieren – auch durch IT-fremde Fachanwender wie Controller.  zum Artikel

nach oben