Training schedule
Join waiting listIN-COMPANY TRAINING PROGRAMS
Contact Giovanni Lanzani, if you want to know more about custom data & AI training for your teams. He’ll be happy to help you!
Check out more
GCP Data Engineer werden
Werden Sie Professional Data Engineer auf GCP. Entwerfen Sie Datenverarbeitungssysteme, bauen Sie End-to-End-Daten-Pipelines, analysieren Sie Daten und führen Sie maschinelles Lernen aus. Dieser Kurs ist Teil des Data Engineering Ausbildungsprogramms von Google, mit dem Sie als Professional Data Engineer zertifiziert werden.
Dieser viertägige Kurs bietet eine Mischung aus Präsentationen, Demos und Praxisübungen. Sie lernen, wie Sie Datenverarbeitungssysteme entwerfen, End-to-End-Daten-Pipelines bauen, Daten analysieren und maschinelles Lernen ausführen.
Clients we've helped
What you'll learn
For everyone familiar with SQL, ETL, and a programming language
- Datenverarbeitungssysteme auf GCP entwerfen und bauen
- Daten mit GCP Services analysieren
- Machine-Learning-Modelle entwickeln und einsetzen
- Der Umgang mit strukturierten und unstrukturierten Daten und Streaming Data
The schedule
Google Cloud Dataproc Übersicht
- Cluster entwerfen und verwalten
- Individuelle Maschinentypen und präemptive Worker Nodes
- Cluster skalieren und löschen
- Praxisübung: Hadoop Cluster mit Google Cloud Dataproc entwerfen
Dataproc Jobs ausführen
- Pig and Hive Jobs ausführen
- Trennung von Speicherung und Computing
- Praxisübung: Hadoop und Spark Jobs mit Dataproc ausführen
- Praxisübung: Jobs übertragen und überwachen
Dataproc in Google Cloud Platform integrieren
- Cluster mit Initialisierungsaktionen anpassen
- BigQuery Support
- Praxisübung: Google Cloud Platform Services anwenden
Unstrukturierte Daten mit Machine Learning APIs von Google verstehen
- Machine Learning APIs von Google
- Beispiele für häufige ML-Anwendungen
- ML APIs verwenden
- Praxisübung: Big Data Analysen mit Fähigkeiten für maschinelles Lernen ergänzen
Serverlose Datenanalyse mit Big Query
- Was ist BigQuery?
- Abfragen und Funktionen
- Praxisübung: Abfragen in BigQuery schreiben
- Daten in BigQuery laden
- Daten aus BigQuery exportieren
- Praxisübung: Daten laden und exportieren
- Verschachtelte und wiederholte Felder
- Mehrere Tabellen abfragen
- Praxisübung: Komplexe Abfragen
- Leistung und Preis
Serverlose, automatisch skalierende Daten-Pipelines mit Dataflow
- Das Beam-Programmiermodell
- Data Pipelines in Beam Python
- Data Pipelines in Beam Java
- Praxisübung: Dataflow Pipeline schreiben
- Skalierbare Verarbeitung von Big Data mit Beam
- Praxisübung: MapReduce in Dataflow
- Zusätzliche Daten integrieren
- Praxisübung: Side Inputs
- Handling stream data
- GCP Reference architecture
Erste Schritte mit Machine Learning
- Was bedeutet Machine Learning / Maschinelles Lernen (ML)
- Effektives ML: Konzepte, Arten
- ML Datensätze: Generalisierung
- Praxisübung: ML-Datensätze erkunden und entwerfen
ML-Modellierungen mit TensorFlow gestalten
- Erste Schritte mit TensorFlow
- Praxisübung: tf.learn einsetzen
- TensorFlow Graphen and Schleifen + Übung
- Praxisübung: Low-Level TensorFlow verwenden und frühzeitiges Stoppen
- ML-Training überwachen
- Praxisübung: Charts und Graphen des TensorFlow-Trainings
ML-Modellierungen mit CloudML skalieren
- Warum Cloud ML?
- TensorFlow-Modell einpacken
- End-to-End-Training
- Praxisübung: ML-Modell lokal und in der Cloud ausführen
Feature Engineering
- Gute Funktionen entwerfen
- Input transformieren
- Synthetische Funktionen
- Preprocessing mit Cloud ML
- Praxisübung: Feature Engineering
Architektur von Streaming Analytics Pipelines
- Streamdaten-Verarbeitung: Die Herausforderungen
- Der Umgang mit variablen Datenmengen
- Der Umgang mit ungeordneten/verspäteten Daten
- Praxisübung: Streaming-Pipeline entwerfen
Variable Datenmengen einbinden
- Was ist Cloud Pub/Sub?
- Wie es funktioniert: Themen und Abonnements
- Praxisübung: Simulation
Streaming-Pipelines implementieren
- Die Herausforderungen der Streamverarbeitung
- Der Umgang mit verspäteten Daten: Trigger, Akkumulierungen
- Praxisübung: Pipeline zur Streamdatenverarbeitung von Verkehrsdaten in Echtzeit
Streaming Analytics und Dashboards
- Streaming Analytics: Von Daten zu Entscheidungen
- Streamdaten abfragen mit BigQuery
- Was ist Google Data Studio?
- Praxisübung: Ein Echtzeit-Dashboard zur Visualisierung der verarbeiteten Daten erstellen
Hoher Durchsatz und geringe Latenz mit Bigtable
- Was ist Cloud Spanner?
- Bigtable-Schema entwerfen
- In Bigtable einbinden
- Praxisübung: Streaming in Bigtable