Den Datenschatz aus den Tiefen jedes SAP-Systems holen Teil 1: Warum der Tauchgang so schwierig ist

2
Den Datenschatz aus den Tiefen des SAP-Systems heben

Den Datenschatz aus den Tiefen des SAP-Systems heben

Die Verknüpfung von SAP- mit CRM- und weiteren Daten und ihre Analyse bringt so manches ans Licht: eine Rundumsicht auf den Kunden, Zusammenhänge, Entwicklungstendenzen, Vorhersagen. Warum also verschenken Unternehmen die Chance, ihre SAP-Daten für vertriebliche und strategische Aufgaben zu nutzen? Nun, weil der Datenschatz erst geortet und gehoben werden muss – im Fall von SAP ein zumeist schwieriges Unterfangen.  zum Artikel

In 5 Schritten zur Predictive Analytics-Umsetzung

2
Mit Predictive Analytics lassen sich Vorhersagen für zukünftige Ereignisse berechnen

Mit Predictive Analytics lassen sich Vorhersagen für zukünftige Ereignisse berechnen

Business Intelligence beschäftigt sich hauptsächlich mit historischen Daten. Basierend auf einem bestimmten Datensatz versuchen wir, einen Blick in die Zukunft zu werfen und mögliche Trends vorherzusagen. Dafür sind Data Science-Methoden wie Predictive Analytics aber besser geeignet, weil sie Muster erkennen können, die sich wiederum auf andere Daten anwenden lassen. In diesem Artikel werde ich ein Modell für die Vorhersage von Verkäufen erstellen und es für eine Analyse verwenden. Im Mittelpunkt steht dabei der Prozess, d.h. die Entwicklung des Modells, seiner Implementierung und der abschließenden Analyse, und nicht die Entwicklung des besten Vorhersagemodells.  zum Artikel

Interview: “Ziele nur mit Pentaho erreichbar“

0
Pentaho im Einsatz bei der STIWA Group

Pentaho im Einsatz bei der STIWA Group

Bereits 114 Anmeldungen zählt das Pentaho User Meeting am 16. Februar. Dabei sind auch Werner Fragner und Alexander Meisinger vom Automatisierungsspezialisten STIWA Group. Sie werden in ihrem Vortrag die auf Pentaho basierende Software AMS Analysis-CI vorstellen und wie sich damit Effizienzgewinne bei Produktionsanlagen realisieren lassen.  zum Artikel

Apache Hadoop – ein bewährtes Open Source-Framework

2
Die wichtigsten zehn Big Data-Technologien

Apache Hive hilft, den Durchblick im Datenwald zu behalten

Viele Unternehmen stehen vor dem Problem, dass ihnen einfach die Zeit fehlt, um ihre Daten zu analysieren. Ein System wie Hadoop organisiert die Verarbeitung und den Datenfluss dergestalt, dass die Verarbeitungszeit bei zunehmendem Datenvolumen sinkt. Im Big Data-Bereich spielt Hadoop mittlerweile bei vielen Lösungen eine zentrale Rolle.

 zum Artikel