Du evaluierst und entscheidest mit deiner Expertise, welche Azure-Services wir nutzen - ob Microsoft Fabric, Azure Data Factory, Databricks oder eine Kombination. * Mindestens 5 Jahre Erfahrung im Data Engineering, davon 2-3 Jahre auf Microsoft Azure, praktische Erfahrung mit Microsoft Fabric, Azure Data Factory und/ oder Azure Databricks
Du evaluierst und entscheidest mit deiner Expertise, welche Azure-Services wir nutzen - ob Microsoft Fabric, Azure Data Factory, Databricks oder eine Kombination. * Mindestens 5 Jahre Erfahrung im Data Engineering, davon 2-3 Jahre auf Microsoft Azure, praktische Erfahrung mit Microsoft Fabric, Azure Data Factory und/ oder Azure Databricks
Tiefe Kenntnisse moderner Datenarchitekturen, Data Engineering und Cloud-KI-Plattformen (z. B. Databricks, Snowflake, MS Fabric) sowie mindestens einer Public Cloud (AWS, Azure, GCP, IONOS).
Tiefe Kenntnisse moderner Datenarchitekturen, Data Engineering und Cloud-KI-Plattformen (z. B. Databricks, Snowflake, MS Fabric) sowie mindestens einer Public Cloud (AWS, Azure, GCP, IONOS).
bundesweit, Berlin, Frankfurt, Hamburg, Köln, Leipzig, München
Teilweise Home-Office
Anschreiben nicht erforderlich
Aktuelle Technologien wie MS SQL Server, MS Azure, MS Fabric, Databricks oder Cloudera setzt du ein und entwickelst sie weiter * Fundierte Kenntnisse in mindestens einer der Technologien: MS SQL Server, MS Azure, MS Fabric, Databricks oder Cloudera
Aktuelle Technologien wie MS SQL Server, MS Azure, MS Fabric, Databricks oder Cloudera setzt du ein und entwickelst sie weiter * Fundierte Kenntnisse in mindestens einer der Technologien: MS SQL Server, MS Azure, MS Fabric, Databricks oder Cloudera
Erfahrung: Mindestens drei Jahre Consulting- und Projekterfahrung mit Microsoft Fabric oder vergleichbaren Technologien – insbesondere beim Aufbau von Data Lakes, Data Warehouses, Dataflows oder Pipelines.
Erfahrung: Mindestens drei Jahre Consulting- und Projekterfahrung mit Microsoft Fabric oder vergleichbaren Technologien – insbesondere beim Aufbau von Data Lakes, Data Warehouses, Dataflows oder Pipelines.
Datenverarbeitung & Architektur: Konzeption und Entwicklung von ETL/ELT-Pipelines (z. B. auf Databricks, Fabric, Snowflake) sowie Implementierung skalierbarer Datenarchitekturen in Cloud-Umgebungen (Azure, AWS). Data Engineering Tools: Erfahrung mit Plattformen wie Databricks, MS Fabric oder Snowflake ist von Vorteil.
Datenverarbeitung & Architektur: Konzeption und Entwicklung von ETL/ELT-Pipelines (z. B. auf Databricks, Fabric, Snowflake) sowie Implementierung skalierbarer Datenarchitekturen in Cloud-Umgebungen (Azure, AWS). Data Engineering Tools: Erfahrung mit Plattformen wie Databricks, MS Fabric oder Snowflake ist von Vorteil.
bundesweit, Berlin, Frankfurt, Hamburg, Köln, Leipzig, München
Teilweise Home-Office
Anschreiben nicht erforderlich
Fundierte Kenntnisse in modernen Big-Data-Technologien und -Plattformen (z. B. Databricks, Cloudera, Hadoop, Spark, Kafka, Azure Data Services, Fabric)
Fundierte Kenntnisse in modernen Big-Data-Technologien und -Plattformen (z. B. Databricks, Cloudera, Hadoop, Spark, Kafka, Azure Data Services, Fabric)
Du arbeitest sicher mit modernen Analytics- und Visualisierungstools wie Microsoft Azure und Fabric, Holistics, dbt, Power BI, Tealium oder Google Analytics.
Du arbeitest sicher mit modernen Analytics- und Visualisierungstools wie Microsoft Azure und Fabric, Holistics, dbt, Power BI, Tealium oder Google Analytics.
Henkel holds leading positions in both industrial and consumer businesses: Our portfolio includes well-known hair care products, laundry detergents, fabric softeners as well as adhesives, sealants, and functional coatings.
Henkel holds leading positions in both industrial and consumer businesses: Our portfolio includes well-known hair care products, laundry detergents, fabric softeners as well as adhesives, sealants, and functional coatings.
Henkel holds leading positions in both industrial and consumer businesses: Our portfolio includes well-known hair care products, laundry detergents, fabric softeners as well as adhesives, sealants, and functional coatings.
Henkel holds leading positions in both industrial and consumer businesses: Our portfolio includes well-known hair care products, laundry detergents, fabric softeners as well as adhesives, sealants, and functional coatings.
Gewinnung von Data Insights und Erstellung aussagekräftiger Visualisierungen auf Basis der Microsoft‑Fabric‑Plattform * Mehrjährige Erfahrung im Einsatz moderner Analysewerkzeuge wie Power BI (inkl. effizienter Datenmodelle, DAX, RLS), SQL, Python sowie Fabric Real‑Time Dashboards und idealerweise Grafana zeichnen dich aus.
Gewinnung von Data Insights und Erstellung aussagekräftiger Visualisierungen auf Basis der Microsoft‑Fabric‑Plattform * Mehrjährige Erfahrung im Einsatz moderner Analysewerkzeuge wie Power BI (inkl. effizienter Datenmodelle, DAX, RLS), SQL, Python sowie Fabric Real‑Time Dashboards und idealerweise Grafana zeichnen dich aus.
Gestaltung der End-to-End-Datenarchitektur unserer Microsoft‑Fabric‑Plattform (OneLake, Eventhouse, Datenschichten). * Du hast ein abgeschlossenes Studium der Informatik oder eine vergleichbare Qualifikation sowie mehrjährige Erfahrung mit modernen Cloud‑Datenarchitekturen, idealerweise in Azure oder Microsoft Fabric.
Gestaltung der End-to-End-Datenarchitektur unserer Microsoft‑Fabric‑Plattform (OneLake, Eventhouse, Datenschichten). * Du hast ein abgeschlossenes Studium der Informatik oder eine vergleichbare Qualifikation sowie mehrjährige Erfahrung mit modernen Cloud‑Datenarchitekturen, idealerweise in Azure oder Microsoft Fabric.
die Mitgestaltung und Weiterentwicklung moderner Data-&-AI-Plattformen in Azure – insbesondere mit Databricks und Microsoft Fabric * sehr gute Kenntnisse in Azure-basierten Datenarchitekturen sowie praktische Erfahrung mit Databricks und/oder Microsoft Fabric hast
die Mitgestaltung und Weiterentwicklung moderner Data-&-AI-Plattformen in Azure – insbesondere mit Databricks und Microsoft Fabric * sehr gute Kenntnisse in Azure-basierten Datenarchitekturen sowie praktische Erfahrung mit Databricks und/oder Microsoft Fabric hast
Idealerweise hast Du bereits Kenntnisse in verschiedenen BI Technologien erworben (SAP Datasphere, SAP Analytics Cloud, SAP BW on HANA, Power BI und Kenntnisse in ABAP, SQL, Python, Core Data Services (CDS), MS Fabric, MS Databricks)
Idealerweise hast Du bereits Kenntnisse in verschiedenen BI Technologien erworben (SAP Datasphere, SAP Analytics Cloud, SAP BW on HANA, Power BI und Kenntnisse in ABAP, SQL, Python, Core Data Services (CDS), MS Fabric, MS Databricks)
Architektur & Umsetzung: Du konzipierst und implementierst die Zielarchitektur einer zentralen Unternehmensdatenplattform – von der Datenintegration bis zur Governance, bevorzugt auf Basis von Microsoft Fabric * Fundierte Erfahrung im Design und Betrieb moderner Datenplattformen sowie im Einsatz von Daten- und Analysewerkzeugen, idealerweise aus dem Microsoft-Ökosystem (z. B. Power BI, Fabric, Azure Databricks) oder vergleichbaren Technologien
Architektur & Umsetzung: Du konzipierst und implementierst die Zielarchitektur einer zentralen Unternehmensdatenplattform – von der Datenintegration bis zur Governance, bevorzugt auf Basis von Microsoft Fabric * Fundierte Erfahrung im Design und Betrieb moderner Datenplattformen sowie im Einsatz von Daten- und Analysewerkzeugen, idealerweise aus dem Microsoft-Ökosystem (z. B. Power BI, Fabric, Azure Databricks) oder vergleichbaren Technologien
Unser Team setzt auf innovative Technologien wie K2View Fabric, Kafka und Cloud-native Architekturen in AWS und unterstützt mit Millionen API-Calls und Event-Triggers pro Monat die digitalen Interaktionen von Millionen Kund:innen.
Unser Team setzt auf innovative Technologien wie K2View Fabric, Kafka und Cloud-native Architekturen in AWS und unterstützt mit Millionen API-Calls und Event-Triggers pro Monat die digitalen Interaktionen von Millionen Kund:innen.
Unser Team setzt auf innovative Technologien wie K2View Fabric, Kafka und Cloud-native Architekturen in AWS und unterstützt mit Millionen API-Calls und Event-Triggers pro Monat die digitalen Interaktionen von Millionen Kund:innen. * Außergewöhnliche Probemlösungskompetenz, Erfahrung und strategische Weiterentwicklung im Incident-, Problem- und Change-Management in produktiven, K2View Fabric Umgebungen
Unser Team setzt auf innovative Technologien wie K2View Fabric, Kafka und Cloud-native Architekturen in AWS und unterstützt mit Millionen API-Calls und Event-Triggers pro Monat die digitalen Interaktionen von Millionen Kund:innen. * Außergewöhnliche Probemlösungskompetenz, Erfahrung und strategische Weiterentwicklung im Incident-, Problem- und Change-Management in produktiven, K2View Fabric Umgebungen
As a vertically integrated producer, the company controls the entire value chain – from fibre to finished fabric – serving customers in public procurement, protective workwear and technical textiles.
As a vertically integrated producer, the company controls the entire value chain – from fibre to finished fabric – serving customers in public procurement, protective workwear and technical textiles.