Deine Aufgaben
Entwicklung von Datenpipelines zur Dateningestion und Datenverarbeitung
Konzeption und Entwicklung von ETL- und ELT-Prozessen, auch in der Cloud
Entwicklung von Data Lake-Lösungen in Azure, AWS, oder GCP, sowie die Anbindung im Hybrid-Cloud Umfeld
(verteiltes) Bereinigen und Vorverarbeiten von Daten mit geeigneten Frameworks (Spark, Hadoop)
Überwachung und Optimierung von Datenprozessen durch Monitoring-Lösungen
Du entwickelst Container-basierte Datenanalysen und deployst mit effizienten CI/CD Prozessen
Usecase getriebene Datenanalyse und Trenderkennung in Daten
Konzeption und Verwaltung von Usermanagement-Systemen, inklusive Berechtigungskonzepte
Entwicklung effektiver Datenmodelle zur Adhoc Analyse und Reporting
Überwachung der Datenqualität und Problembehebung zur Sicherstellung der Datenintegrität