Du besitzt Kenntnisse in der Entwicklung von Pipelines und Datenintegrationsstrecken (ELT/ETL, Azure Data Factory, DBT, Stored Procedures oder ähnliche Tools) Wir setzen uns für eine Kultur der Innovation und der Integration neuer Technologien ein. * Du verantwortest selbständig die Optimierung der Pipelines sowie die Integration in Cloud Plattformen * Du verfügst über mehrjährige Berufserfahrung in der Softwareentwicklung, insbesondere in datengetriebenen Projekten, im Bereich Data Warehousing oder im Aufbau von Datenplattformen * Du kennst dich mit Datenmodellierung aus und hast je nach Bereich Erfahrung mit Data Vault, Data Mesh, Kimball oder Inmon * Du bringst Kenntnisse in Big Data-Architekturen und -Technologien (Databricks, Microsoft Fabric, Azure Synapse, SQL & NoSQL Datenbanken, Spark, Kafka, Elastic, etc.) und Programmierung (Python, Scala, Java etc.) mit
mehr