Du liebst es, Daten zum Fließen zu bringen, große Datenmengen performant zu verarbeiten und saubere Pipelines zu bauen? Dein Schwerpunkt liegt klar auf Entwicklung und Datenverarbeitung? Dann bist du hier richtig.
- Du arbeitest im Consulting-Umfeld und entwickelst für unterschiedliche Kunden immer wieder neue, abwechslungsreiche Datenlösungen.
- Du entwickelst skalierbare ETL/ELT-Datenpipelines für Batch- und Streaming-Verarbeitung und arbeitest mit Spark / PySpark, Python und SQL.
- Du implementierst Datenmodelle nach Kimball, Data Vault oder Lakehouse-Prinzipien.
- Du transformierst, normalisierst und denormalisierst Daten aus verschiedenen Quellsystemen.
- Du orchestrierst Datenpipelines mit Airflow oder vergleichbaren Tools und arbeitest mit Databricks, Snowflake oder ähnlichen Plattformen.
- Du unterstützt Datenanalyse- und Machine-Learning-Pipelines.
- Du sorgst für Qualität durch Testing, Dokumentation und CI/CD.