Training schedule

Join waiting list

IN-COMPANY TRAINING PROGRAMS

Contact Giovanni Lanzani, if you want to know more about custom data & AI training for your teams. He’ll be happy to help you!
Check out more

GCP

GCP Data Engineer werden

Werden Sie Professional Data Engineer auf GCP. Entwerfen Sie Datenverarbeitungssysteme, bauen Sie End-to-End-Daten-Pipelines, analysieren Sie Daten und führen Sie maschinelles Lernen aus. Dieser Kurs ist Teil des Data Engineering Ausbildungsprogramms von Google, mit dem Sie als Professional Data Engineer zertifiziert werden.

Dieser viertägige Kurs bietet eine Mischung aus Präsentationen, Demos und Praxisübungen. Sie lernen, wie Sie Datenverarbeitungssysteme entwerfen, End-to-End-Daten-Pipelines bauen, Daten analysieren und maschinelles Lernen ausführen.

Clients we've helped

What you'll learn

For everyone familiar with SQL, ETL, and a programming language

  • Datenverarbeitungssysteme auf GCP entwerfen und bauen
  • Daten mit GCP Services analysieren
  • Machine-Learning-Modelle entwickeln und einsetzen
  • Der Umgang mit strukturierten und unstrukturierten Daten und Streaming Data

The schedule

Program

Google Cloud Dataproc Übersicht

  • Cluster entwerfen und verwalten
  • Individuelle Maschinentypen und präemptive Worker Nodes
  • Cluster skalieren und löschen
  • Praxisübung: Hadoop Cluster mit Google Cloud Dataproc entwerfen

Dataproc Jobs ausführen

  • Pig and Hive Jobs ausführen
  • Trennung von Speicherung und Computing
  • Praxisübung: Hadoop und Spark Jobs mit Dataproc ausführen
  • Praxisübung: Jobs übertragen und überwachen

Dataproc in Google Cloud Platform integrieren

  • Cluster mit Initialisierungsaktionen anpassen
  • BigQuery Support
  • Praxisübung: Google Cloud Platform Services anwenden

Unstrukturierte Daten mit Machine Learning APIs von Google verstehen

  • Machine Learning APIs von Google
  • Beispiele für häufige ML-Anwendungen
  • ML APIs verwenden
  • Praxisübung: Big Data Analysen mit Fähigkeiten für maschinelles Lernen ergänzen

Serverlose Datenanalyse mit Big Query

  • Was ist BigQuery?
  • Abfragen und Funktionen
  • Praxisübung: Abfragen in BigQuery schreiben
  • Daten in BigQuery laden
  • Daten aus BigQuery exportieren
  • Praxisübung: Daten laden und exportieren
  • Verschachtelte und wiederholte Felder
  • Mehrere Tabellen abfragen
  • Praxisübung: Komplexe Abfragen
  • Leistung und Preis

Serverlose, automatisch skalierende Daten-Pipelines mit Dataflow

  • Das Beam-Programmiermodell
  • Data Pipelines in Beam Python
  • Data Pipelines in Beam Java
  • Praxisübung: Dataflow Pipeline schreiben
  • Skalierbare Verarbeitung von Big Data mit Beam
  • Praxisübung: MapReduce in Dataflow
  • Zusätzliche Daten integrieren
  • Praxisübung: Side Inputs
  • Handling stream data
  • GCP Reference architecture

Erste Schritte mit Machine Learning

  • Was bedeutet Machine Learning / Maschinelles Lernen (ML)
  • Effektives ML: Konzepte, Arten
  • ML Datensätze: Generalisierung
  • Praxisübung: ML-Datensätze erkunden und entwerfen

ML-Modellierungen mit TensorFlow gestalten

  • Erste Schritte mit TensorFlow
  • Praxisübung: tf.learn einsetzen
  • TensorFlow Graphen and Schleifen + Übung
  • Praxisübung: Low-Level TensorFlow verwenden und frühzeitiges Stoppen
  • ML-Training überwachen
  • Praxisübung: Charts und Graphen des TensorFlow-Trainings

ML-Modellierungen mit CloudML skalieren

  • Warum Cloud ML?
  • TensorFlow-Modell einpacken
  • End-to-End-Training
  • Praxisübung: ML-Modell lokal und in der Cloud ausführen

Feature Engineering

  • Gute Funktionen entwerfen
  • Input transformieren
  • Synthetische Funktionen
  • Preprocessing mit Cloud ML
  • Praxisübung: Feature Engineering

Architektur von Streaming Analytics Pipelines

  • Streamdaten-Verarbeitung: Die Herausforderungen
  • Der Umgang mit variablen Datenmengen
  • Der Umgang mit ungeordneten/verspäteten Daten
  • Praxisübung: Streaming-Pipeline entwerfen

Variable Datenmengen einbinden

  • Was ist Cloud Pub/Sub?
  • Wie es funktioniert: Themen und Abonnements
  • Praxisübung: Simulation

Streaming-Pipelines implementieren

  • Die Herausforderungen der Streamverarbeitung
  • Der Umgang mit verspäteten Daten: Trigger, Akkumulierungen
  • Praxisübung: Pipeline zur Streamdatenverarbeitung von Verkehrsdaten in Echtzeit

Streaming Analytics und Dashboards

  • Streaming Analytics: Von Daten zu Entscheidungen
  • Streamdaten abfragen mit BigQuery
  • Was ist Google Data Studio?
  • Praxisübung: Ein Echtzeit-Dashboard zur Visualisierung der verarbeiteten Daten erstellen

Hoher Durchsatz und geringe Latenz mit Bigtable

  • Was ist Cloud Spanner?
  • Bigtable-Schema entwerfen
  • In Bigtable einbinden
  • Praxisübung: Streaming in Bigtable
meet your trainer

Daniel van der Ende

Data Gandalf
Flexible delivery

The Right Format For Your Preferred Learning Style

In-Classroom & In-Company Training
Online, Instructor-Led Training
Hybrid and Blended Learning
Self-Paced Training
Get in touch with the experts

Have any questions?

Contact Giovanni Lanzani, our Managing Director of Learning and Development, if you want to know more. He’ll be happy to help you!

Call me back

You can reach him out by phone as well at +31 6 51 20 6163

Course: Data Engineering on Google Cloud Platform Kurs

Book now