Daten aus verschiedenen Quellen in zentrale Data Warehouses und Data Lakes integrieren - unter Einsatz von ETL Tools wie Informatica PowerCenter * Skalierbare Datenpipelines und ETL-Prozesse entwickeln, konstruieren und warten * Sehr gute Kenntnisse in SQL sowie ETL-Prozessen / -tools * Bereitschaft, sich im jeweiligen Kundenkontext durch gezielte Einarbeitung Know-how in verschiedenen ETL-Tools (wie Informatica PowerCenter, Apache Spark oder Qlik/Talend) sowie weiteren Programmiersprachen und Technologien aufzubauen
Daten aus verschiedenen Quellen in zentrale Data Warehouses und Data Lakes integrieren - unter Einsatz von ETL Tools wie Informatica PowerCenter * Skalierbare Datenpipelines und ETL-Prozesse entwickeln, konstruieren und warten * Sehr gute Kenntnisse in SQL sowie ETL-Prozessen / -tools * Bereitschaft, sich im jeweiligen Kundenkontext durch gezielte Einarbeitung Know-how in verschiedenen ETL-Tools (wie Informatica PowerCenter, Apache Spark oder Qlik/Talend) sowie weiteren Programmiersprachen und Technologien aufzubauen
Erfahrung mit einigen der folgenden Methoden und Technologien: Java, Python, Java Skript, UML, C#, Kubernetes, SQL, CI CD, HTML, TOMCAT, Workflow und ETL-Tools
Erfahrung mit einigen der folgenden Methoden und Technologien: Java, Python, Java Skript, UML, C#, Kubernetes, SQL, CI CD, HTML, TOMCAT, Workflow und ETL-Tools
Du bist für die Konzeption, den Aufbau und die Automatisierung von Data-Pipelines (ETL/ELT) verantwortlich * Fundiertes Verständnis von ETL-/ELT-Konzepten und Build moderner Data-Pipelines
Du bist für die Konzeption, den Aufbau und die Automatisierung von Data-Pipelines (ETL/ELT) verantwortlich * Fundiertes Verständnis von ETL-/ELT-Konzepten und Build moderner Data-Pipelines
Datenverarbeitung & Architektur: Konzeption und Entwicklung von ETL/ELT-Pipelines (z. B. auf Databricks, Fabric, Snowflake) sowie Implementierung skalierbarer Datenarchitekturen in Cloud-Umgebungen (Azure, AWS).
Datenverarbeitung & Architektur: Konzeption und Entwicklung von ETL/ELT-Pipelines (z. B. auf Databricks, Fabric, Snowflake) sowie Implementierung skalierbarer Datenarchitekturen in Cloud-Umgebungen (Azure, AWS).
Sie entwerfen und implementieren robuste ETL-Pipelines für Migration, Transformation und Analytics. * Neben Ihrem Interesse an klassischem Data Engineering (ETL) möchten Sie Ihre Fähigkeiten in der Low-Code-/No-Code-Entwicklung auf SaaS-Plattformen sowie in der Visualisierung von Ergebnissen mit Power BI weiterentwickeln.
Sie entwerfen und implementieren robuste ETL-Pipelines für Migration, Transformation und Analytics. * Neben Ihrem Interesse an klassischem Data Engineering (ETL) möchten Sie Ihre Fähigkeiten in der Low-Code-/No-Code-Entwicklung auf SaaS-Plattformen sowie in der Visualisierung von Ergebnissen mit Power BI weiterentwickeln.
Ihre Erfahrung und technische Expertise bringen Sie dabei aktiv in die Gestaltung von ETL-Prozessen und Weiterentwicklung unseres BI-Setups ein. * Aufbereitung und Integration von ERP-Daten (z. B. Microsoft Business Central) unter Einsatz von ETL-Prozessen zur Erstellung Finance-relevanter Kennzahlen * Erfahrung in der Gestaltung, Automatisierung und Optimierung von ETL-Prozessen unter Einsatz von SQL und Python sowie in der Schnittstellenintegration (z. B. REST-APIs, Power Query, SSIS)
Ihre Erfahrung und technische Expertise bringen Sie dabei aktiv in die Gestaltung von ETL-Prozessen und Weiterentwicklung unseres BI-Setups ein. * Aufbereitung und Integration von ERP-Daten (z. B. Microsoft Business Central) unter Einsatz von ETL-Prozessen zur Erstellung Finance-relevanter Kennzahlen * Erfahrung in der Gestaltung, Automatisierung und Optimierung von ETL-Prozessen unter Einsatz von SQL und Python sowie in der Schnittstellenintegration (z. B. REST-APIs, Power Query, SSIS)
Frankfurt am Main, Berlin, Hamburg, Düsseldorf, München, Stuttgart
Teilweise Home-Office
Du besitzt Kenntnisse in der Entwicklung von Pipelines und Datenintegrationsstrecken (ELT/ETL, Azure Data Factory, DBT, Stored Procedures oder ähnliche Tools)
Du besitzt Kenntnisse in der Entwicklung von Pipelines und Datenintegrationsstrecken (ELT/ETL, Azure Data Factory, DBT, Stored Procedures oder ähnliche Tools)
* C8V-Consulting Volker Kraus * Ismaning bei München * Feste Anstellung * Vollzeit * Realisieren von Datentransformationsprozessen zur Überführung der Daten von Kunden unseres Klienten in eine komplexe relationale Datenbank (PIM). Diese Datenbank ist als Vorstufe zum Zielsystem unseres Klienten zu sehen. Hierfür wird ein Produkt von IBM zur Transformation der Daten eingesetzt. Dieses wird unter UNIX/AIX betrieben. * Abgeschlossenes Studium der Informatik/Wirtschaftsinformatik * Praktische Erfahrung in der objektorientierten Programmierung (C++ oder Java) * Erfahrungen mit UNIX * Umfangreiche Kenntnisse im Umgang mit relationalen Datenbanken in Verbindung mit SQL und Datenmodellierung * Erfahrung auf Host-Systemen (BS2000, z/OS) sind wünschenswert * Reisebereitschaft an die Standorte unseres Klienten
* C8V-Consulting Volker Kraus * Ismaning bei München * Feste Anstellung * Vollzeit * Realisieren von Datentransformationsprozessen zur Überführung der Daten von Kunden unseres Klienten in eine komplexe relationale Datenbank (PIM). Diese Datenbank ist als Vorstufe zum Zielsystem unseres Klienten zu sehen. Hierfür wird ein Produkt von IBM zur Transformation der Daten eingesetzt. Dieses wird unter UNIX/AIX betrieben. * Abgeschlossenes Studium der Informatik/Wirtschaftsinformatik * Praktische Erfahrung in der objektorientierten Programmierung (C++ oder Java) * Erfahrungen mit UNIX * Umfangreiche Kenntnisse im Umgang mit relationalen Datenbanken in Verbindung mit SQL und Datenmodellierung * Erfahrung auf Host-Systemen (BS2000, z/OS) sind wünschenswert * Reisebereitschaft an die Standorte unseres Klienten
Datenintegration: Du übernimmst Verantwortung für die Gestaltung und Betreuung von ETL-Strecken und integrierst Datenquellen in unsere Prüfungsplattformen (Azure, Databricks).
Datenintegration: Du übernimmst Verantwortung für die Gestaltung und Betreuung von ETL-Strecken und integrierst Datenquellen in unsere Prüfungsplattformen (Azure, Databricks).
Design und Umsetzung von Datenmodellen sowie geeigneter ETL-Prozesse auf Basis von SAP BW Extraktoren, SAP HANA Views und CDS-Views sowie Umsetzung des Berichtswesens und Reportings mittels SAC
Design und Umsetzung von Datenmodellen sowie geeigneter ETL-Prozesse auf Basis von SAP BW Extraktoren, SAP HANA Views und CDS-Views sowie Umsetzung des Berichtswesens und Reportings mittels SAC
Berlin, Düsseldorf, Frankfurt am Main, Hamburg, Leipzig, München, Stuttgart, Walldorf
Teilweise Home-Office
Anschreiben nicht erforderlich
Du konntest bereits erste praktische Erfahrungen im Bereich Data Analytics, Data Warehousing, ETL Prozessen (SQL), Datenmodellierung und ggf. GenAI sammeln
Du konntest bereits erste praktische Erfahrungen im Bereich Data Analytics, Data Warehousing, ETL Prozessen (SQL), Datenmodellierung und ggf. GenAI sammeln
Du bist Expert:in für die Ende-zu-Ende-Integration von Daten- / ETL-Pipelines und das Deployment von Machine-Learning-Modellen bis hin zur Bereitstellung der Ergebnisse innerhalb bestehender IT-Systeme.
Du bist Expert:in für die Ende-zu-Ende-Integration von Daten- / ETL-Pipelines und das Deployment von Machine-Learning-Modellen bis hin zur Bereitstellung der Ergebnisse innerhalb bestehender IT-Systeme.
Du bist Expert:in für die Ende-zu-Ende-Integration von Daten-/ETL-Pipelines und das Deployment von Machine-Learning-Modellen bis hin zur Bereitstellung der Ergebnisse innerhalb bestehender IT-Systeme.
Du bist Expert:in für die Ende-zu-Ende-Integration von Daten-/ETL-Pipelines und das Deployment von Machine-Learning-Modellen bis hin zur Bereitstellung der Ergebnisse innerhalb bestehender IT-Systeme.