Düsseldorf, Köln, Essen, Paderborn, Hamburg, Münster, weitere Standorte in DE
Anschreiben nicht erforderlich
ETL/ELT-Methodik: Du entwickelst robuste Batch- und Streaming-Datenpipelines mit hoher Datenqualität, kennst dich mit Integrations-Tools wie dbt, Fivetran, Matillion, Talend oder Informatica aus und verfügst über Programmierkenntnisse in SQL, Python, Java, Scala oder Spark.
ETL/ELT-Methodik: Du entwickelst robuste Batch- und Streaming-Datenpipelines mit hoher Datenqualität, kennst dich mit Integrations-Tools wie dbt, Fivetran, Matillion, Talend oder Informatica aus und verfügst über Programmierkenntnisse in SQL, Python, Java, Scala oder Spark.
Düsseldorf, Köln, Essen, Paderborn, Hamburg, Münster, weitere Standorte in DE
Anschreiben nicht erforderlich
Programmiererfahrung: Programmiererfahrung sowie fortgeschrittene Kenntnisse in SQL, idealerweise auch in Python, und (Grund-)Kenntnisse in SAP sind wünschenswert.
Programmiererfahrung: Programmiererfahrung sowie fortgeschrittene Kenntnisse in SQL, idealerweise auch in Python, und (Grund-)Kenntnisse in SAP sind wünschenswert.
Düsseldorf, Köln, Essen, Paderborn, Münster, Hamburg, weitere Standorte in DE
Anschreiben nicht erforderlich
Analysiere Daten: Du kümmerst dich um Datenbankabfragen mit Tools wie SQL, SAS, Algo oder MS-Access. * Technologisches Know-how: In der in der Erstellung und Analyse von Datenbankabfragen (z.B. SQL, SAS, Algo, MS-Access) kennst du dich gut aus.
Analysiere Daten: Du kümmerst dich um Datenbankabfragen mit Tools wie SQL, SAS, Algo oder MS-Access. * Technologisches Know-how: In der in der Erstellung und Analyse von Datenbankabfragen (z.B. SQL, SAS, Algo, MS-Access) kennst du dich gut aus.
Düsseldorf, Köln, Essen, Paderborn, Münster, Hamburg, weitere Standorte in DE
Anschreiben nicht erforderlich
Web & Datenbanken: Du hast Webkenntnisse (z. B. HTML5, CSS3, JavaScript, Angular oder React) und hast mit Datenbanktechnologien (SQL / NoSQL / Graph / Time Series) wie MS SQL, PostgreSQL, MongoDB, Neo4J oder InfluxDB gearbeitet.
Web & Datenbanken: Du hast Webkenntnisse (z. B. HTML5, CSS3, JavaScript, Angular oder React) und hast mit Datenbanktechnologien (SQL / NoSQL / Graph / Time Series) wie MS SQL, PostgreSQL, MongoDB, Neo4J oder InfluxDB gearbeitet.
Düsseldorf, Köln, Essen, Paderborn, Münster, Hamburg, weitere Standorte in DE
Anschreiben nicht erforderlich
ETL/ELT- Methodik: Du entwickelst mühelos Batch- und Streaming-Datenpipelines mit einem starken Fokus auf Robustheit und Datenqualität und verfügst zudem über einen umfassenden Marktüberblick gängiger Integrations-Tools wie dbt, Fivetran, Matillion, Talend und Informatica, während du gleichzeitig Kenntnisse in einer dieser Sprachen mitbringst: SQL, Python, Java, Scala oder Spark.
ETL/ELT- Methodik: Du entwickelst mühelos Batch- und Streaming-Datenpipelines mit einem starken Fokus auf Robustheit und Datenqualität und verfügst zudem über einen umfassenden Marktüberblick gängiger Integrations-Tools wie dbt, Fivetran, Matillion, Talend und Informatica, während du gleichzeitig Kenntnisse in einer dieser Sprachen mitbringst: SQL, Python, Java, Scala oder Spark.
Düsseldorf, Köln, Essen, Paderborn, Münster, Hamburg, weitere Standorte in DE
Anschreiben nicht erforderlich
Technologien: Du kennst dich bestens mit Technologien wie React, Vue.js, Java, Docker, SQL, Git und Azure DevOps aus und hast idealerweise Zertifizierungen.
Technologien: Du kennst dich bestens mit Technologien wie React, Vue.js, Java, Docker, SQL, Git und Azure DevOps aus und hast idealerweise Zertifizierungen.
Düsseldorf, Köln, Essen, Paderborn, Münster, Hamburg, weitere Standorte in DE
Anschreiben nicht erforderlich
Agile Methoden & Cloud: Du arbeitest mit Scrum, SAFe, DevOps-Methoden und hast Erfahrung mit Cloud-Services (Azure, AWS, Google Cloud) sowie mit Datenbankkonzepten wie SQL, NoSQL, Graph-Datenbanken oder Zeitseriendatenbanken.
Agile Methoden & Cloud: Du arbeitest mit Scrum, SAFe, DevOps-Methoden und hast Erfahrung mit Cloud-Services (Azure, AWS, Google Cloud) sowie mit Datenbankkonzepten wie SQL, NoSQL, Graph-Datenbanken oder Zeitseriendatenbanken.
Entwickeln: Souverän baust du moderne Data Platforms auf Basis von Spark, dbt oder SQL auf, erweiterst Frameworks zur Standardisierung und Automation und stellst den stabilen Betrieb sicher. * Engineering-Background: fundierte Erfahrung im Data Engineering und Software Engineering mit Python/PySpark, Scala und SQL. * Daten-Expertise: sehr gute SQL-Kenntnisse, tiefes Verständnis für Datenstrukturen und Performance-Optimierung, Kenntnisse in Datenmodellierung und Historisierung.
Entwickeln: Souverän baust du moderne Data Platforms auf Basis von Spark, dbt oder SQL auf, erweiterst Frameworks zur Standardisierung und Automation und stellst den stabilen Betrieb sicher. * Engineering-Background: fundierte Erfahrung im Data Engineering und Software Engineering mit Python/PySpark, Scala und SQL. * Daten-Expertise: sehr gute SQL-Kenntnisse, tiefes Verständnis für Datenstrukturen und Performance-Optimierung, Kenntnisse in Datenmodellierung und Historisierung.