Du bringst Kenntnisse in Big Data-Architekturen und -Technologien (Databricks, Microsoft Fabric, Azure Synapse, SQL & NoSQL Datenbanken, Spark, Kafka, Elastic, etc.) und Programmierung (Python, Scala, Java etc.) mit * Du verfügst über mehrjährige Berufserfahrung in der Softwareentwicklung, insbesondere in datengetriebenen Projekten, im Bereich Data Warehousing oder im Aufbau von Datenplattformen * Du besitzt Kenntnisse in der Entwicklung von Pipelines und Datenintegrationsstrecken (ELT/ETL, Azure Data Factory, DBT, Stored Procedures oder ähnliche Tools) * Du kennst dich mit Datenmodellierung aus und hast je nach Bereich Erfahrung mit Data Vault, Data Mesh, Kimball oder Inmon * Kenntnisse in den folgenden Bereichen sind von Vorteil: Cloud (Azure oder AWS), Data Science oder Business Intelligence (Reporting Tools) * Du denkst wie ein Engineer: Du planst Architektur und
mehr