Aufbau und Weiterentwicklung von Datenmodellen, ETL-Prozessen und Dashboards * Erfahrung in ETL-Entwicklung und Betrieb (SSIS, Azure Synapse, Datavault) sowie SSRS-Reporting
Aufbau und Weiterentwicklung von Datenmodellen, ETL-Prozessen und Dashboards * Erfahrung in ETL-Entwicklung und Betrieb (SSIS, Azure Synapse, Datavault) sowie SSRS-Reporting
Daten aus verschiedenen Quellen in zentrale Data Warehouses und Data Lakes integrieren - unter Einsatz von ETL Tools wie Informatica PowerCenter * Skalierbare Datenpipelines und ETL-Prozesse entwickeln, konstruieren und warten * Sehr gute Kenntnisse in SQL sowie ETL-Prozessen / -tools * Bereitschaft, sich im jeweiligen Kundenkontext durch gezielte Einarbeitung Know-how in verschiedenen ETL-Tools (wie Informatica PowerCenter, Apache Spark oder Qlik/Talend) sowie weiteren Programmiersprachen und Technologien aufzubauen
Daten aus verschiedenen Quellen in zentrale Data Warehouses und Data Lakes integrieren - unter Einsatz von ETL Tools wie Informatica PowerCenter * Skalierbare Datenpipelines und ETL-Prozesse entwickeln, konstruieren und warten * Sehr gute Kenntnisse in SQL sowie ETL-Prozessen / -tools * Bereitschaft, sich im jeweiligen Kundenkontext durch gezielte Einarbeitung Know-how in verschiedenen ETL-Tools (wie Informatica PowerCenter, Apache Spark oder Qlik/Talend) sowie weiteren Programmiersprachen und Technologien aufzubauen
Erstellung von Datenmodellen und Durchführung der Datenaufbereitung (ETL) im DWH. * Von Vorteil: Kenntnisse in ETL-Integration oder Methoden der künstlichen Intelligenz.
Erstellung von Datenmodellen und Durchführung der Datenaufbereitung (ETL) im DWH. * Von Vorteil: Kenntnisse in ETL-Integration oder Methoden der künstlichen Intelligenz.
Erfahrung mit einigen der folgenden Methoden und Technologien: Java, Python, Java Skript, UML, C#, Kubernetes, SQL, CI CD, HTML, TOMCAT, Workflow und ETL-Tools
Erfahrung mit einigen der folgenden Methoden und Technologien: Java, Python, Java Skript, UML, C#, Kubernetes, SQL, CI CD, HTML, TOMCAT, Workflow und ETL-Tools
Cloud-Lösungen planen & umsetzen: Du arbeitest mit modernen Cloud-Plattformen wie Azure, AWS oder Snowflake, hilfst bei der Entwicklung skalierbarer Datenarchitekturen und optimierst ETL/ELT-Prozesse und Data Pipelines.
Cloud-Lösungen planen & umsetzen: Du arbeitest mit modernen Cloud-Plattformen wie Azure, AWS oder Snowflake, hilfst bei der Entwicklung skalierbarer Datenarchitekturen und optimierst ETL/ELT-Prozesse und Data Pipelines.
Du entwickelst eigenverantwortlich robuste ETL/ELT-Pipelines – vom Raw-Ingest bis zum Gold-Layer. * Du beherrscht souverän die Erstellung von ETL/ELT-Pipelines mit SQL, Python und ggf. DBT.
Du entwickelst eigenverantwortlich robuste ETL/ELT-Pipelines – vom Raw-Ingest bis zum Gold-Layer. * Du beherrscht souverän die Erstellung von ETL/ELT-Pipelines mit SQL, Python und ggf. DBT.
Frankfurt am Main, Berlin, Hamburg, Düsseldorf, München, Stuttgart
Teilweise Home-Office
Du besitzt Kenntnisse in der Entwicklung von Pipelines und Datenintegrationsstrecken (ELT/ETL, Azure Data Factory, DBT, Stored Procedures oder ähnliche Tools)
Du besitzt Kenntnisse in der Entwicklung von Pipelines und Datenintegrationsstrecken (ELT/ETL, Azure Data Factory, DBT, Stored Procedures oder ähnliche Tools)
Dabei setzen Sie ETL-Tools (z.B. Informatica), Datenbanktechniken oder auch Big Data-Techniken (z.B. SPARK) ein. * Sie optimieren die Performance laufzeitkritischer ETL-Prozesse für sehr große Datenmengen. * Sie unterstützen bei der Erstellung von Testautomatisierungslösungen für ETL-Strecken und andere Datenverarbeitungen im Back-End. * Sehr gute Kenntnisse mit mindestens einem bekannten ETL-Tool (z.B. Informatica, Talend, Pentaho, BusinessObjects Data Integrator, …)
Dabei setzen Sie ETL-Tools (z.B. Informatica), Datenbanktechniken oder auch Big Data-Techniken (z.B. SPARK) ein. * Sie optimieren die Performance laufzeitkritischer ETL-Prozesse für sehr große Datenmengen. * Sie unterstützen bei der Erstellung von Testautomatisierungslösungen für ETL-Strecken und andere Datenverarbeitungen im Back-End. * Sehr gute Kenntnisse mit mindestens einem bekannten ETL-Tool (z.B. Informatica, Talend, Pentaho, BusinessObjects Data Integrator, …)
Dabei setzen Sie ETL-Tools (z.B. Informatica), Datenbanktechniken oder auch Big Data-Techniken (z.B. SPARK) ein. * Sie optimieren die Performance laufzeitkritischer ETL-Prozesse für sehr große Datenmengen. * Sie unterstützen bei der Erstellung von Testautomatisierungslösungen für ETL-Strecken und andere Datenverarbeitungen im Back-End. * Sehr gute Kenntnisse mit mindestens einem bekannten ETL-Tool (z.B. Informatica, Talend, Pentaho, BusinessObjects Data Integrator, …)
Dabei setzen Sie ETL-Tools (z.B. Informatica), Datenbanktechniken oder auch Big Data-Techniken (z.B. SPARK) ein. * Sie optimieren die Performance laufzeitkritischer ETL-Prozesse für sehr große Datenmengen. * Sie unterstützen bei der Erstellung von Testautomatisierungslösungen für ETL-Strecken und andere Datenverarbeitungen im Back-End. * Sehr gute Kenntnisse mit mindestens einem bekannten ETL-Tool (z.B. Informatica, Talend, Pentaho, BusinessObjects Data Integrator, …)
Erfahrung mit Cloud-Datenarchitekturen (z. B. Data Fabric, Data Mesh) und -lösungen wie Azure oder AWS ergänzen Sie durch Know-how im Bereich Data Governance, Datenintegration, ETL-Prozessen sowie Machine Learning und generativer KI.
Erfahrung mit Cloud-Datenarchitekturen (z. B. Data Fabric, Data Mesh) und -lösungen wie Azure oder AWS ergänzen Sie durch Know-how im Bereich Data Governance, Datenintegration, ETL-Prozessen sowie Machine Learning und generativer KI.
In diesem Kontext übernehmen Sie Prozessaktivitäten im Bereich der Softwareentwicklung und Maintenance von Applikationen mit Fokus auf technische Konzeption und Realisierung im Informatica-ETL-Umfeld in einer verteilten Big-Data-Architektur.
In diesem Kontext übernehmen Sie Prozessaktivitäten im Bereich der Softwareentwicklung und Maintenance von Applikationen mit Fokus auf technische Konzeption und Realisierung im Informatica-ETL-Umfeld in einer verteilten Big-Data-Architektur.
Praktische Erfahrung als Data Engineer mit gängigen ETL-Frameworks wie Talend oder informatica alternativ mit Tools wie Apache Spark, Apache NiFi oder Databricks und praktische Erfahrung mit Data Streaming Tools und Frameworks wie Apache Kafka, Beam oder Apache Flink sowie mit dem Aufsatz von relationalen und dokumentenorientierten Datenbanken
Praktische Erfahrung als Data Engineer mit gängigen ETL-Frameworks wie Talend oder informatica alternativ mit Tools wie Apache Spark, Apache NiFi oder Databricks und praktische Erfahrung mit Data Streaming Tools und Frameworks wie Apache Kafka, Beam oder Apache Flink sowie mit dem Aufsatz von relationalen und dokumentenorientierten Datenbanken