Data Warehousing for Partners (DWP)

Total time
Location
At location
Starting date and place

Data Warehousing for Partners (DWP)

Fast Lane Institute for Knowledge Transfer GmbH
Logo Fast Lane Institute for Knowledge Transfer GmbH
Provider rating: starstarstarstarstar_half 8.9 Fast Lane Institute for Knowledge Transfer GmbH has an average rating of 8.9 (out of 33 reviews)

Need more information? Get more details on the site of the provider.

Starting dates and places

placeHannover
11 Feb 2025 until 14 Feb 2025
placeMünchen
10 Jun 2025 until 13 Jun 2025
placeHamburg
29 Sep 2025 until 2 Oct 2025
placeHamburg
18 Nov 2025 until 21 Nov 2025

Description

Voraussetzungen

Erforderlich:

  • Sie haben die Schulung Data Engineering on Google Cloud abgeschlossen.
  • Sie sind ein Google Cloud Certified Professional Data Engineer oder verfügen über gleichwertige Kenntnisse im Bereich Data Engineering.
  • Sie haben Zugang zu Cloud Connect - Partner.

Empfohlen:

  • Erfahrung im Aufbau von Datenverarbeitungspipelines.
  • Erfahrung mit Apache Beam und Apache Hadoop.
  • Programmierkenntnisse in Java oder Python.

Organisatorische Anforderungen:

  • Die Cloud-Partner-Organisation muss zuvor mindestens eine Data-Warehouse-Lösung auf einer beliebigen Data-Warehouse-Plattform implementiert haben.

Zielgruppe

Die Hauptzielgruppe für diesen Kurs sind Google Cloud Partner mit d…

Read the complete description

Frequently asked questions

There are no frequently asked questions yet. If you have any more questions or need help, contact our customer service.

Didn't find what you were looking for? See also: Warehouse Management, Data Warehouse, Python, Retail (Management), and Logistics.

Voraussetzungen

Erforderlich:

  • Sie haben die Schulung Data Engineering on Google Cloud abgeschlossen.
  • Sie sind ein Google Cloud Certified Professional Data Engineer oder verfügen über gleichwertige Kenntnisse im Bereich Data Engineering.
  • Sie haben Zugang zu Cloud Connect - Partner.

Empfohlen:

  • Erfahrung im Aufbau von Datenverarbeitungspipelines.
  • Erfahrung mit Apache Beam und Apache Hadoop.
  • Programmierkenntnisse in Java oder Python.

Organisatorische Anforderungen:

  • Die Cloud-Partner-Organisation muss zuvor mindestens eine Data-Warehouse-Lösung auf einer beliebigen Data-Warehouse-Plattform implementiert haben.

Zielgruppe

Die Hauptzielgruppe für diesen Kurs sind Google Cloud Partner mit den folgenden relevanten Aufgabenbereichen:

  • Data Warehouse-Entwicklungsingenieure
  • Data-Warehouse-Berater
  • Data-Warehouse-Architekten

Auch wenn diese Rollen nicht zur Kernzielgruppe gehören, kann der Kurs für sie relevant sein, wenn sie die Anforderungen erfüllen:

  • Technische Projektleiter
  • Technische Projektleiter
  • Daten-/Business-Analysten

Detaillierter Kursinhalt

Modul 1 - Data Warehouse-Lösungen in der Google Cloud

Themen:

  • Implementierung von Big Data-Lösungen in der Google Cloud
  • Kundenbedürfnisse
  • Beispiel-Architekturen
  • Migrationsstrategien und -planung
  • Arbeiten mit PSO

Zielsetzungen:

  • Beschreiben Sie das Google-Portfolio an Data Warehouse- und Datenverarbeitungsdiensten
  • Identifizierung der Google-Strategie für Data Warehouse-Produkte und -Dienstleistungen
  • Suche nach technischen Ressourcen für Data Warehouse-Partner

Modul 2 - BigQuery für Data Warehousing-Profis

Themen:

  • BigQuery-Konzepte
  • BigQuery-Berechtigungen und Sicherheit
  • Überwachung und Rechnungsprüfung
  • Schema-Entwurf
  • Partitionierung und Clustering
  • Datenerfassung und Ladeaufträge
  • Umgang mit Veränderungen und langsam wechselnden Dimensionen
  • Daten abfragen
  • Verwaltung von Arbeitslasten und Gleichzeitigkeit
  • Analysieren von Daten
  • Dimensionierung und Kostenmanagement
  • Optimierung von Abfragen
  • Optimierung der Speicherung

Zielsetzungen:

  • Beschreiben Sie die Schlüsselkomponenten einer erfolgreichen Data Warehouse-Implementierung auf BigQuery
  • Identifizieren von Best Practices für die Implementierung eines Data Warehouse mit BigQuery
  • Verwenden Sie die Google Cloud-Konsole für den Zugriff auf öffentliche Datensätze
  • Durchführung von Abfragen über die Konsole und Analyse der Abfrageergebnisse mit Hilfe von Client-Bibliotheken
  • Kombinieren Sie E-Commerce-Datensätze, um erweiterte Datensätze mit BigQuery-Joins und Unions zu erstellen.

Modul 3 - Umstellung auf BigQuery

Themen:

  • Phasen der Migration
  • Sicherheit
  • Google Cloud Data Warehouse Architektur
  • Postmigration
  • Benutzerakzeptanz

Zielsetzungen:

  • Bewertung eines bestehenden Data Warehouse und Entwicklung einer Strategie für die Migration zu BigQuery
  • Beschreiben Sie bewährte Verfahren für die Migration bestehender Data Warehouses zu BigQuery
  • Identifizierung der wichtigsten Ressourcen, Tools und Partner für die Migration zu BigQuery
  • Migrieren von SQL Server-Beispieldaten zu BigQuery mit Striim
  • Ermittlung von Ressourcen zur Übersetzung produktspezifischer SQL-Abfragen in BigQuery Standard SQL

Modul 4 - ETL-Werkzeuge und Positionierung

Themen:

  • Dataproc
  • Cloud Data Fushion
  • Datenfluss

Zielsetzungen:

  • Beschreiben Sie die wichtigsten Funktionen von Dataproc, Cloud Data Fusion und Dataflow
  • Apache Spark-Aufträge zu Dataproc migrieren
  • Best Practices für die Erstellung von Dataflow-Workflows mithilfe von Dataflow-Vorlagen ermitteln
  • Konfigurieren Sie Cloud Data Fusion, um eine Datenumwandlungspipeline zu erstellen, die mehrere Quellen mit BigQuery als Ausgabedaten-Senke verbindet.
  • Erstellen von Datenpipelines, die Daten aus dem Cloud-Speicher in BigQuery mithilfe von Dataflow einlesen

Modul 5 - Streaming-Analytik

Themen:

  • Warum Streaming-Analytik?
  • Der Pub/Sub-Dienst
  • Datenflussfenster und Auslöser
  • Datenfluss-Quellen und -Senken
  • Herausforderungen bei Migration und Übernahme

Zielsetzungen:

  • Identifizierung der Komponenten einer Streaming-Analytics-Lösung in der Google Cloud
  • Erstellen einer IoT-Streaming-Pipeline mit Pub/Sub und Kafka
  • Erforschung von Entwurfsmustern und Optimierungsüberlegungen für Streaming-Analytics-Lösungen
  • Erstellen und Ausführen einer Streaming-Dataflow-Pipeline, die Daten von Pub/Sub zu BigQuery überträgt, unter Verwendung einer Dataflow-Vorlage

Modul 6 - Einführung in Looker als Datenplattform

Themen:

  • Überblick über die Looker-Plattform
  • Architektur der Looker-Plattform
  • Paradigmenwechsel: Modellierungssprache versus hartkodiertes SQL
  • Analytische Kernkonzepte

Zielsetzungen:

  • Navigieren auf der Looker-Plattform
  • Beschreiben Sie die Architektur der Looker-Plattform
  • Entdecken Sie die Vorteile der Looker Modeling Language (LookML) gegenüber hart kodiertem SQL
  • Beschreiben Sie die vier wichtigsten analytischen Konzepte in Looker
  • Analysieren und Visualisieren von Daten mit Explores in Looker

Modul 7 - Erweiterte BigQuery-Funktionen

Themen:

  • BigQuery GIS
  • BigQuery ML

Zielsetzungen:

  • Beschreiben Sie die Hauptmerkmale von BigQuery GIS und BigQuery ML
  • Analysieren Sie Daten mit BigQuery-GIS-Funktionen und visualisieren Sie die Ergebnisse mit BigQuery Geo Viz
  • Trainieren und Bewerten eines ML-Modells mit BigQuery ML zur Vorhersage von Taxitarifen
There are no reviews yet.

Share your review

Do you have experience with this course? Submit your review and help other people make the right choice. As a thank you for your effort we will donate $1.- to Stichting Edukans.

There are no frequently asked questions yet. If you have any more questions or need help, contact our customer service.