Du suchst deine bereits erworbenen Lerninhalte? Dann geht es hier entlang: Zum academy Campus
In diesem Workshop lernen Data Engineers, Cloud-Architekten und Datenbank-Administratoren praxisnah, wie sie Datenbanken sicher und effizient in die Cloud migrieren – von der Planung über die Durchführung bis hin zur CutOver-Phase.
+ 1 weitere Option
Dieser Workshop hat bereits stattgefunden. Eine Liste aller kommenden Workshops finden Sie hier.
Die Migration von On-Premises-Datenbanken in die Cloud eröffnet Unternehmen Möglichkeiten für höhere Skalierbarkeit, Flexibilität und transparente Kostenkontrolle. Damit dieser Schritt gelingt, sind eine sorgfältige Analyse, strategische Planung und eine präzise technische Umsetzung entscheidend. Dieser Workshop unterstützt Sie dabei, die Herausforderungen der Cloud-Migration systematisch anzugehen.
Nach dem Workshop können Sie …
Cloud-Modelle und Plattformen einordnen: Public, Private und Hybrid Cloud verstehen sowie führende Anbieter (AWS, Azure, GCP) und typische Datenplattformen (BigQuery, Snowflake, Redshift, Azure Synapse) einschätzen.
Migrationsstrategie planen: Geeignete Ansätze wie Lift & Shift, Replatforming oder Refactoring auswählen und auf die eigene Umgebung anwenden.
Testmigrationen durchführen und validieren: Teilbereiche in einer sicheren Umgebung prüfen, um Funktion, Datenkonsistenz und Performance sicherzustellen.
Datenmigration umsetzen: Daten zuverlässig übertragen, Systeme ggf. parallel betreiben und den Cut-over zum Cloud-System planen und durchführen.
Betrieb und Monitoring absichern: Nach der Migration den laufenden Betrieb überwachen, Zugriffsrechte verwalten und typische Fallstricke vermeiden.
In diesem Workshop lernen Sie, wie Sie On-Premises-Datenbanken sicher und effizient in die Cloud überführen. Sie vergleichen die Vor- und Nachteile der Cloud-Modelle Public, Private und Hybrid, lernen führende Plattformen wie AWS, Azure und GCP kennen und gewinnen einen Überblick über moderne Cloud-Datenlösungen wie Snowflake, BigQuery, Redshift, Azure Synapse oder Databricks. Neben klassischen „Lift & Shift“-Ansätzen steht auch die Migration zu cloud-nativen Plattformen im Fokus, die für Skalierbarkeit, Performance und moderne Analysen optimiert sind.
Sie lernen, bestehende Systeme zu analysieren, Ziele zu definieren und die passende Cloud-Architektur auszuwählen. Dabei klären Sie, welche Migrationsstrategie – Lift & Shift, Replatforming oder Refactoring – sinnvoll ist, und erfahren, wie Teilmigrationen in Testumgebungen geprüft sowie vollständige Migrationen inklusive Parallelbetrieb, Cut-over und Qualitätssicherung geplant werden.
Neben methodischem Grundlagenwissen erhalten Sie auch konkrete Hinweise zu typischen Fallstricken und Best Practices. Praxisnahe Übungen und reale Szenarien sorgen dafür, dass Sie das Gelernte direkt anwenden und auf Ihre eigene IT-Umgebung übertragen können.
Cloud-Modelle & Migrationsvorbereitung
Cloud-Modelle & Anbieter verstehen: Überblick über Public, Private und Hybrid Cloud sowie zentrale Unterschiede zwischen AWS, Microsoft Azure und Google Cloud
Migrationsvorbereitung: Bestandsaufnahme der bestehenden Systeme, Zieldefinition und Auswahl eines geeigneten Cloud-Modells
Migrationsstrategien: Einordnung und Anwendung von Lift & Shift, Replatforming und Refactoring anhand typischer Szenarien
Strategieauswahl in der Praxis: Anwendung der Strategien auf Beispielarchitekturen (Gruppenübung)
Migrationsansätz & Testmigration
Testumgebung aufbauen: Vorbereitung einer isolierten Umgebung zur sicheren Erprobung der Migration
Teilmigration durchführen: Übertragung einzelner Datenbereiche zur Überprüfung von Funktion, Datenkonsistenz und Performance
Validierung & Fehleranalyse: Prüfung der migrierten Inhalte, Verbindungen und Berechtigungen sowie Behebung typischer Probleme vor der Hauptmigration (Gruppenübung)
Datenmigration & Betriebssicherung
Datenmigration umsetzen: Durchführung der finalen Datenübertragung (online/offline), inkl. optionalem Parallelbetrieb
Cut-over & Go-live: Umschalten auf das Cloud-System mit möglichst geringer Ausfallzeit
Monitoring & Absicherung: Einrichtung von Monitoring, Logging und Zugriffskontrolle zur Betriebsüberwachung nach der Migration
Abschluss & Reflexion
Data Engineers, die mit der Extraktion, Transformation und dem Laden (ETL/ELT) großer Datenmengen vertraut sind und praktische Erfahrung im Umgang mit SQL, relationalen Datenbanken sowie Datenintegrations-Tools mitbringen.
Cloud-Architekten, die für die Planung, Umsetzung und Verwaltung skalierbarer Datenplattformen in der Cloud verantwortlich sind und über ein fundiertes Verständnis von Netzwerkinfrastrukturen und Sicherheit verfügen.
Datenbank- und DWH-Administratoren, die bestehende Data-Warehouse-Umgebungen betreuen und mit Schema-Design, Performanceoptimierung, Zugriffskontrolle und Migrationserfordernissen vertraut sind.
DevOps-Ingenieure, die für die Verwaltung von Cloud-Umgebungen, die Automatisierung von Deployments und die Bereitstellung von Infrastruktur in skalierbaren Umgebungen verantwortlich sind.
Kenntnisse in SQL
Erfahrung mit relationalen Datenbanken und DWH-Konzepten
Vertraut mit ETL-/ELT-Prozessen und idealerweise Kenntnisse in Skriptsprachen, wie Python etc.
Grundlegende Kenntnisse in Cloud-Computing-Konzepten, insbesondere in Bezug auf Infrastrukturmodelle (IaaS, PaaS), Zugriffskontrolle (IAM, RBAC), Netzwerkanbindung
eigene Hardware
Sie erhalten Ihre Schulungsunterlagen in digitaler Form. So können Sie selbst entscheiden, ob Sie diese elektronisch bearbeiten und archivieren oder lieber ausdrucken möchten.
Mit der Teilnahmebescheinigung unterstreichen Sie Ihr Weiterbildungsengagement und verbessern Ihre Perspektiven für interne Karriereschritte oder neue berufliche Wege.
Sie nehmen über Zoom am Workshop teil, wobei die Verbindung über einen lokal gehosteten, DSGVO-konformen On-Premises-Connector erfolgt.
Um einen intensiven Austausch zwischen dem Trainer und den Teilnehmenden zu gewährleisten, erfolgt die Schulung in Gruppen von maximal 12 Personen.
Sollte die Durchführung der Veranstaltung aufgrund höherer Gewalt, der Verhinderung eines Referenten, von Störungen am Veranstaltungsort oder wegen zu geringer Teilnehmerzahl nicht möglich sein, werden die Teilnehmenden so früh wie möglich informiert.
Paul Christ arbeitet seit 2021 als Senior Data Engineering Consultant bei The Information Lab. Er ist spezialisiert auf Data Engineering, Python-Programmierung sowie die Administration von Tableau- und Alteryx-Servern. Als Data Steward verantwortet er die interne Datenbereitstellung und setzt dabei verschiedene Tools zur Automatisierung ein. Zudem unterstützt er Unternehmen bei der Migration von Tableau Server in die Cloud und betreibt Data Engineering mit Snowflake und dbt. Darüber hinaus gibt er regelmäßig Trainings zu Tableau Server, Alteryx und weiteren BI-Tools. Seine methodische Arbeitsweise und sein tiefgehendes Fachwissen ermöglichen es ihm, komplexe Inhalte verständlich aufzubereiten und erfolgreich in Projekten umzusetzen.
Dieser Workshop hat bereits stattgefunden. Eine Liste aller kommenden Workshops finden Sie hier.
Füllen Sie ganz einfach und bequem das Kontaktformular aus und wir werden Ihnen Ihre Fragen schnellstmöglich beantworten.
Telefonisch erreichbar: Mo – Fr | 08:30 – 16:00 Uhr

