Dein Schwerpunkt liegt klar auf Entwicklung und Datenverarbeitung? Du liebst es, Daten zum Fließen zu bringen, große Datenmengen performant zu verarbeiten und saubere Pipelines zu bauen? * Du arbeitest im Consulting-Umfeld und entwickelst für unterschiedliche Kunden immer wieder neue, abwechslungsreiche Datenlösungen. * Du entwickelst skalierbare ETL/ELT-Datenpipelines für Batch- und Streaming-Verarbeitung und arbeitest mit Spark / PySpark, Python und SQL. * Du implementierst Datenmodelle nach Kimball, Data Vault oder Lakehouse-Prinzipien. * Du unterstützt Datenanalyse- und Machine-Learning-Pipelines. * Du bist sicher im Umgang mit Snowflake und/oder Databricks und erfahren in Datenmodellierung (dimensionale Modellierung, Data Vault, Normalisierung & Denormalisierung). * Du denkst analytisch und hast Freude daran, komplexe Datenprobleme sauber zu lösen.
mehr