Training schedule
Join waiting listIN-COMPANY TRAINING PROGRAMS
Contact Giovanni Lanzani, if you want to know more about custom data & AI training for your teams. He’ll be happy to help you!
Check out more
Ehe Sie mit Google Cloud Platform (GCP) arbeiten können, benötigen Sie die richtigen Kenntnisse und Fähigkeiten. Sie benötigen nur dieses eintägige Grundlagentraining, um mit Big Data und Machine Learning mit GCP anzufangen.
Der Kurs umfasst eine Mischung aus Präsentationen, Demos und praktischen Übungen, mit denen Sie die Big Data und Machine Learning Fähigkeiten von Google Cloud Platform (GCP) kennenlernen. Sie lernen wie Sie Big Data im großen Stil für Analytics und Machine Learning verarbeiten. Sie lernen die Grundlagen zur Gestaltung neuer Modelle für maschinelles Lernen kennen und erfahren, wie sie Streaming Data Pipelines und Dashboards gestalten.
Clients we've helped
What you'll learn
Perfect for Developers, sysadmins, and Solution Architects
- The value of Google Cloud Platform for Big Data & Machine Learning
- How to process Big Data at scale for analytics
- How to leverage GCP service for Machine Learning
- How to create streaming data pipelines and dashboards
The schedule
Vorstellung von Google Cloud Platform
- Grundlagen von Google Platform im Überblick
- Google Cloud Platform Big Data Products
Grundlagen zu Computing and Speicherung
- CPUs on demand (Compute Engine)
- Ein globales Datensystem (Cloud Storage)
- CloudShell
- Praxisübung: Eine Ingest-Transform-Publish Data Processing Pipeline erstellen
Datenanalyse in der Cloud
- Die Schritte zur Cloud
- Cloud SQL: Ihre SQL Datenbank in der Cloud
- Praxisübung: Daten in CloudSQL importieren und Queries ausführen
- Spark on Dataproc
- Praxisübung: Machine Learning Empfehlungen mit Spark on Dataproc
Datenanalyse skalieren
- Schneller Direktzugriff
- Datalab
- BigQuery
- Praxisübung: Datensätze für Machine Learning erstellen
Machine Learning
- Machine Learning mit TensorFlow
- Praxisübung: ML mit TensorFlow ausführen
- Vorgefertigte Modelle für häufige Bedürfnisse
- Praxisübung: ML APIs einsetzen
Architekturen zur Datenverarbeitung
- Nachrichtenorientierte Architekturen mit Pub/Sub
- Pipelines mit Dataflow erstellen
- Referenz-Architektur für Datenverarbeitung in Echtzeit und Batches
Zusammenfassung
- Warum GCP?
- Und wie geht es weiter?
- Zusätzliche Ressourcen