Ihr Aufgabenbereich
- Entwurf, Entwicklung, Test und Monitoring von Prozessen zur Extraktion, Transformation sowie zum Laden von Daten aus Quellsystemen in das Data Warehouse und in den Data Lake (ETL-Pipelines)
- Entwicklung, Orchestrierung und Monitoring von Airflow DAGs
- Analyse und Neuanbindung von verschiedenen strukturierten Datenquellen
- Verantwortung für die Entwicklung und Optimierung von PL/SQL-Abfragen sowie Implementierung und Erweiterung von Datenmodellen für eine optimale Daten- und Reportingarchitektur
- Gestaltung automatisierter Qualitätsprozesse zur Sicherstellung der Software- und Datenqualität sowie der Datenverfügbarkeit zur Einhaltung von Service Level Agreements
- Evaluation und Optimierung der aktuellen Lösungen, des physischen Modells sowie der Abfragen
- Mitwirkung bei der Entwicklung von PoCs, um Use Cases, z.B. im Bereich Streaming-Technologien, zu verproben