Aufbau und Weiterentwicklung von Datenmodellen, ETL-Prozessen und Dashboards * Erfahrung in ETL-Entwicklung und Betrieb (SSIS, Azure Synapse, Datavault) sowie SSRS-Reporting
Aufbau und Weiterentwicklung von Datenmodellen, ETL-Prozessen und Dashboards * Erfahrung in ETL-Entwicklung und Betrieb (SSIS, Azure Synapse, Datavault) sowie SSRS-Reporting
Daten aus verschiedenen Quellen in zentrale Data Warehouses und Data Lakes integrieren - unter Einsatz von ETL Tools wie Informatica PowerCenter * Skalierbare Datenpipelines und ETL-Prozesse entwickeln, konstruieren und warten * Sehr gute Kenntnisse in SQL sowie ETL-Prozessen / -tools * Bereitschaft, sich im jeweiligen Kundenkontext durch gezielte Einarbeitung Know-how in verschiedenen ETL-Tools (wie Informatica PowerCenter, Apache Spark oder Qlik/Talend) sowie weiteren Programmiersprachen und Technologien aufzubauen
Daten aus verschiedenen Quellen in zentrale Data Warehouses und Data Lakes integrieren - unter Einsatz von ETL Tools wie Informatica PowerCenter * Skalierbare Datenpipelines und ETL-Prozesse entwickeln, konstruieren und warten * Sehr gute Kenntnisse in SQL sowie ETL-Prozessen / -tools * Bereitschaft, sich im jeweiligen Kundenkontext durch gezielte Einarbeitung Know-how in verschiedenen ETL-Tools (wie Informatica PowerCenter, Apache Spark oder Qlik/Talend) sowie weiteren Programmiersprachen und Technologien aufzubauen
Erstellung von Datenmodellen und Durchführung der Datenaufbereitung (ETL) im DWH. * Von Vorteil: Kenntnisse in ETL-Integration oder Methoden der künstlichen Intelligenz.
Erstellung von Datenmodellen und Durchführung der Datenaufbereitung (ETL) im DWH. * Von Vorteil: Kenntnisse in ETL-Integration oder Methoden der künstlichen Intelligenz.
Erfahrung mit einigen der folgenden Methoden und Technologien: Java, Python, Java Skript, UML, C#, Kubernetes, SQL, CI CD, HTML, TOMCAT, Workflow und ETL-Tools
Erfahrung mit einigen der folgenden Methoden und Technologien: Java, Python, Java Skript, UML, C#, Kubernetes, SQL, CI CD, HTML, TOMCAT, Workflow und ETL-Tools
Cloud-Lösungen planen & umsetzen: Du arbeitest mit modernen Cloud-Plattformen wie Azure, AWS oder Snowflake, hilfst bei der Entwicklung skalierbarer Datenarchitekturen und optimierst ETL/ELT-Prozesse und Data Pipelines.
Cloud-Lösungen planen & umsetzen: Du arbeitest mit modernen Cloud-Plattformen wie Azure, AWS oder Snowflake, hilfst bei der Entwicklung skalierbarer Datenarchitekturen und optimierst ETL/ELT-Prozesse und Data Pipelines.
Du entwickelst eigenverantwortlich robuste ETL/ELT-Pipelines – vom Raw-Ingest bis zum Gold-Layer. * Du beherrscht souverän die Erstellung von ETL/ELT-Pipelines mit SQL, Python und ggf. DBT.
Du entwickelst eigenverantwortlich robuste ETL/ELT-Pipelines – vom Raw-Ingest bis zum Gold-Layer. * Du beherrscht souverän die Erstellung von ETL/ELT-Pipelines mit SQL, Python und ggf. DBT.
Frankfurt am Main, Berlin, Hamburg, Düsseldorf, München, Stuttgart
Teilweise Home-Office
Du besitzt Kenntnisse in der Entwicklung von Pipelines und Datenintegrationsstrecken (ELT/ETL, Azure Data Factory, DBT, Stored Procedures oder ähnliche Tools)
Du besitzt Kenntnisse in der Entwicklung von Pipelines und Datenintegrationsstrecken (ELT/ETL, Azure Data Factory, DBT, Stored Procedures oder ähnliche Tools)
Dabei setzen Sie ETL-Tools (z.B. Informatica), Datenbanktechniken oder auch Big Data-Techniken (z.B. SPARK) ein. * Sie optimieren die Performance laufzeitkritischer ETL-Prozesse für sehr große Datenmengen. * Sie unterstützen bei der Erstellung von Testautomatisierungslösungen für ETL-Strecken und andere Datenverarbeitungen im Back-End. * Sehr gute Kenntnisse mit mindestens einem bekannten ETL-Tool (z.B. Informatica, Talend, Pentaho, BusinessObjects Data Integrator, …)
Dabei setzen Sie ETL-Tools (z.B. Informatica), Datenbanktechniken oder auch Big Data-Techniken (z.B. SPARK) ein. * Sie optimieren die Performance laufzeitkritischer ETL-Prozesse für sehr große Datenmengen. * Sie unterstützen bei der Erstellung von Testautomatisierungslösungen für ETL-Strecken und andere Datenverarbeitungen im Back-End. * Sehr gute Kenntnisse mit mindestens einem bekannten ETL-Tool (z.B. Informatica, Talend, Pentaho, BusinessObjects Data Integrator, …)
Dabei setzen Sie ETL-Tools (z.B. Informatica), Datenbanktechniken oder auch Big Data-Techniken (z.B. SPARK) ein. * Sie optimieren die Performance laufzeitkritischer ETL-Prozesse für sehr große Datenmengen. * Sie unterstützen bei der Erstellung von Testautomatisierungslösungen für ETL-Strecken und andere Datenverarbeitungen im Back-End. * Sehr gute Kenntnisse mit mindestens einem bekannten ETL-Tool (z.B. Informatica, Talend, Pentaho, BusinessObjects Data Integrator, …)
Dabei setzen Sie ETL-Tools (z.B. Informatica), Datenbanktechniken oder auch Big Data-Techniken (z.B. SPARK) ein. * Sie optimieren die Performance laufzeitkritischer ETL-Prozesse für sehr große Datenmengen. * Sie unterstützen bei der Erstellung von Testautomatisierungslösungen für ETL-Strecken und andere Datenverarbeitungen im Back-End. * Sehr gute Kenntnisse mit mindestens einem bekannten ETL-Tool (z.B. Informatica, Talend, Pentaho, BusinessObjects Data Integrator, …)
Erfahrung mit Cloud-Datenarchitekturen (z. B. Data Fabric, Data Mesh) und -lösungen wie Azure oder AWS ergänzen Sie durch Know-how im Bereich Data Governance, Datenintegration, ETL-Prozessen sowie Machine Learning und generativer KI.
Erfahrung mit Cloud-Datenarchitekturen (z. B. Data Fabric, Data Mesh) und -lösungen wie Azure oder AWS ergänzen Sie durch Know-how im Bereich Data Governance, Datenintegration, ETL-Prozessen sowie Machine Learning und generativer KI.
In diesem Kontext übernehmen Sie Prozessaktivitäten im Bereich der Softwareentwicklung und Maintenance von Applikationen mit Fokus auf technische Konzeption und Realisierung im Informatica-ETL-Umfeld in einer verteilten Big-Data-Architektur.
In diesem Kontext übernehmen Sie Prozessaktivitäten im Bereich der Softwareentwicklung und Maintenance von Applikationen mit Fokus auf technische Konzeption und Realisierung im Informatica-ETL-Umfeld in einer verteilten Big-Data-Architektur.
Tiefgehende Kenntnisse in Data-Cloud-Architekturen, Datenmodellierung und Infrastruktur (z. B. Data Warehousing, ETL-Prozesse, Azure Data Factory, Synapse).
Tiefgehende Kenntnisse in Data-Cloud-Architekturen, Datenmodellierung und Infrastruktur (z. B. Data Warehousing, ETL-Prozesse, Azure Data Factory, Synapse).