Big Data Test Drive | Workshop für die Integration von Big Data

Schöpfen Sie das volle Potenzial Ihrer Daten aus? Können Sie alle wichtigen Informationen für geschäftsrelevante Entscheidungen aufbereiten? Oder schlummern Ihre Daten immer noch in getrennten Datensilos?

Viele Unternehmen nutzen Hadoop, NoSQL und analytische Datenbanken, um Ihre Kunden und Märkte besser zu verstehen und Wettbewerbsvorteile zu nutzen. Mit der Einrichtung eines Hadoop Clusters ist es aber nicht getan. Erst durch die Integration aller wichtigen Informationen und Datenquellen lässt sich das volle Potenzial von Hadoop nutzen.

Wie Sie unterschiedliche Datenformate standardisiert aus verschiedenen Datenquellen laden können, zeigen wir im Ganztags-Workshop „Big Data Test Drive“. Anhand von Use Cases und praktischen Übungen lernen Sie, wie Sie die Integration von Big Data mit Pentaho meistern – ganz ohne Hard Coding.

Das erwartet Sie im „Big Data Test Drive“-Workshop

Die Big Data-Experten Jakob Brandl von Pentaho und Alexander Keidel von it-novum stellen Ihnen vier Big Data-Praxisbeispiele vor und veranschaulichen sie anhand von Präsentationen, Demonstrationen und praktischen Übungen.

Für die Extraktion, Aufbereitung und Kombination der Daten verwenden Sie Pentaho. Pentaho ist nicht nur eines der führenden Big Data-Werkzeuge, sondern stellt gleichzeitig auch eine komplette Suite für die Auswertung und Visualisierung von Daten zur Verfügung – für Geschäftsberichte, Management-Dashboards oder Analysen durch die Fachanwender selbst.

Die Ganztagesveranstaltung ist für alle BI- und Big Data-Verantwortlichen relevant, die bereits mit der Materie vertraut sind – zum Beispiel: Business Controlling & BI Projects, Database Team Lead, CFO, DWH Manager/ Projektleiter, BI Analysten, Technical Architects, Entwickler, Business Intelligence oder Big Data Projektleiter.
Lernen Sie anhand von echten Praxis-Use Cases

1. Den Data Lake flexibel befüllen – mit geringer Komplexität und hoher Kosteneffizienz

Unternehmen müssen die Datenverarbeitung von wenigen bis hin zu hunderten oder tausenden Quellen skalieren. Das ist sehr aufwändig und personalintensiv, denn häufig müssen hunderte von hartcodierten Datenprozessen manuell erstellt werden, was sie anfällig für Fehler macht.

Wir zeigen Ihnen, wie Sie mit Pentahos Technologie “Metadata Injection” Daten aus tausenden unterschiedlichen Dateiquellen oder Datenbanken in einem Prozess verarbeiten anstatt in tausend einzelnen. Ihre ETL-Verarbeitung wird dadurch deutlich vereinfacht und leichter wartbar.

2. Heben Sie die Schätze in Ihrem Data Lake: mit dem Data Refinery-Konzept

Mit dem Data Refinery-Konzept von Pentaho machen Sie Big Data zum essentiellen Bestandteil Ihrer analytischen Prozesse. Mit Technologien wie MapReduce, Impala und Spark modernisieren Sie Ihre Datenverarbeitung. Bei Data Refinery werden Daten unterschiedlichster Herkunft verarbeitet, bevor sie in eine analytische Datenbank für schnelle Abfragen geladen werden. Dadurch reduzieren sich die Kosten für ETL und Datenmanagement stark. Für die Unternehmensplanung werden die Daten mittels Spark und Hadoop kombiniert, aggregiert und verarbeitet.

3. Datenaufbereitung für Fachanwender: Self-Service Data Preparation

BI- und Big Data-Verantwortliche verwenden viel Zeit auf das Aggregieren und Aufbereiten von Daten oder sind auf Support der IT-Abteilung angewiesen. Die IT kann dafür sorgen, dass diese Arbeitsschritte effektiver und effizienter ablaufen– indem sie Self-Service-Möglichkeiten für eine selbstständige Datenaufbereitung durch den Fachanwender bereitstellt. Für die Aufbereitung von Daten aus unterschiedlichsten Quellen wird Pentaho in Kombination mit Impala genutzt.

4. Nutzen Sie Pentaho für 360-Grad-Analysen: HBase, RDBMS und Impala

Fachbereiche wie Vertrieb, Marketing, Controlling und die Unternehmensleitung benötigen eine 360°-Sicht auf den Kunden. Dazu müssen die Informationen aus den unterschiedlichen Systemen in der Analyseplattform kombiniert werden. Die 360°-Kundenakte wird mit Impala auf Basis verschiedenster Daten aus Hbase und einer relationalen Datenbank umgesetzt und mit Pentaho visualisiert. Damit können die Fachabteilungen Auswertungen selbst durchführen und sind unabhängig von der IT.

Melden Sie sich gleich an: https://it-novum.com/veranstaltungen/big-data-test-drive-workshop-fuer-die-integration-von-big-data/?wm=ecin

Das erwartet Sie im „Big Data Test Drive“-Workshop

Die Big Data-Experten Jakob Brandl von Pentaho und Alexander Keidel von it-novum stellen Ihnen vier Big Data-Praxisbeispiele vor und veranschaulichen sie anhand von Präsentationen, Demonstrationen und praktischen Übungen.

Für die Extraktion, Aufbereitung und Kombination der Daten verwenden Sie Pentaho. Pentaho ist nicht nur eines der führenden Big Data-Werkzeuge, sondern stellt gleichzeitig auch eine komplette Suite für die Auswertung und Visualisierung von Daten zur Verfügung – für Geschäftsberichte, Management-Dashboards oder Analysen durch die Fachanwender selbst.

Die Ganztagesveranstaltung ist für alle BI- und Big Data-Verantwortlichen relevant, die bereits mit der Materie vertraut sind – zum Beispiel: Business Controlling & BI Projects, Database Team Lead, CFO, DWH Manager/ Projektleiter, BI Analysten, Technical Architects, Entwickler, Business Intelligence oder Big Data Projektleiter.
Lernen Sie anhand von echten Praxis-Use Cases
1. Den Data Lake flexibel befüllen – mit geringer Komplexität und hoher Kosteneffizienz

Unternehmen müssen die Datenverarbeitung von wenigen bis hin zu hunderten oder tausenden Quellen skalieren. Das ist sehr aufwändig und personalintensiv, denn häufig müssen hunderte von hartcodierten Datenprozessen manuell erstellt werden, was sie anfällig für Fehler macht.

Wir zeigen Ihnen, wie Sie mit Pentahos Technologie “Metadata Injection” Daten aus tausenden unterschiedlichen Dateiquellen oder Datenbanken in einem Prozess verarbeiten anstatt in tausend einzelnen. Ihre ETL-Verarbeitung wird dadurch deutlich vereinfacht und leichter wartbar.
2. Heben Sie die Schätze in Ihrem Data Lake: mit dem Data Refinery-Konzept

Mit dem Data Refinery-Konzept von Pentaho machen Sie Big Data zum essentiellen Bestandteil Ihrer analytischen Prozesse. Mit Technologien wie MapReduce, Impala und Spark modernisieren Sie Ihre Datenverarbeitung. Bei Data Refinery werden Daten unterschiedlichster Herkunft verarbeitet, bevor sie in eine analytische Datenbank für schnelle Abfragen geladen werden. Dadurch reduzieren sich die Kosten für ETL und Datenmanagement stark. Für die Unternehmensplanung werden die Daten mittels Spark und Hadoop kombiniert, aggregiert und verarbeitet.
3. Datenaufbereitung für Fachanwender: Self-Service Data Preparation

BI- und Big Data-Verantwortliche verwenden viel Zeit auf das Aggregieren und Aufbereiten von Daten oder sind auf Support der IT-Abteilung angewiesen. Die IT kann dafür sorgen, dass diese Arbeitsschritte effektiver und effizienter ablaufen– indem sie Self-Service-Möglichkeiten für eine selbstständige Datenaufbereitung durch den Fachanwender bereitstellt. Für die Aufbereitung von Daten aus unterschiedlichsten Quellen wird Pentaho in Kombination mit Impala genutzt.
4. Nutzen Sie Pentaho für 360-Grad-Analysen: HBase, RDBMS und Impala

Fachbereiche wie Vertrieb, Marketing, Controlling und die Unternehmensleitung benötigen eine 360°-Sicht auf den Kunden. Dazu müssen die Informationen aus den unterschiedlichen Systemen in der Analyseplattform kombiniert werden. Die 360°-Kundenakte wird mit Impala auf Basis verschiedenster Daten aus Hbase und einer relationalen Datenbank umgesetzt und mit Pentaho visualisiert. Damit können die Fachabteilungen Auswertungen selbst durchführen und sind unabhängig von der IT.

Dieser Artikel erschien am und wurde am aktualisiert.
Nach oben scrollen