Design, Implementierung und Optimierung komplexer ETL-Prozesse und Datenmodelle unter Einsatz moderner Plattformen (z. B. Databricks) mit Fokus auf Qualität, Performance und Stabilität * Hohes Maß an Eigeninitiative, proaktivem Arbeitsstil und Gestaltungswillen mit Fokus auf Prozessoptimierung, Zielerreichung und wirksame Zusammenarbeit im Team * Entwicklung, Automatisierung und Optimierung datengetriebener Lösungen mit , Python und GitHub sowie Gestaltung cloudnativer Architekturen und Integration neuer Tools * Sehr gute Kenntnisse in modernen Datenmanagement- und Analytics-Technologien, insbesondere Databricks, ETL-Prozessen, Python, PySpark, Pylint, SQL und DAX sowie Erfahrung in Datenmodellierung, automatisierten Entwicklungs- und Deployment-Prozessen und im Einsatz datengetriebener Algorithmen und Machine Learning
mehr