Praktische Erfahrung als Data Engineer mit gängigen ETL-Frameworks wie Talend oder informatica alternativ mit Tools wie ApacheSpark,Apache NiFi oder Databricks und praktische Erfahrung mit Data Streaming Tools und Frameworks wie Apache Kafka, Beam oder Apache Flink sowie mit dem Aufsatz von relationalen und dokumentenorientierten Datenbanken
Praktische Erfahrung als Data Engineer mit gängigen ETL-Frameworks wie Talend oder informatica alternativ mit Tools wie ApacheSpark,Apache NiFi oder Databricks und praktische Erfahrung mit Data Streaming Tools und Frameworks wie Apache Kafka, Beam oder Apache Flink sowie mit dem Aufsatz von relationalen und dokumentenorientierten Datenbanken
München, Frankfurt a. M., Stuttgart, Köln, Hamburg, Ettlingen, Wolfsburg, Erfurt, Rosenheim, Berlin
Teilweise Home-Office
Anschreiben nicht erforderlich
Schnelle Bewerbung
Du hast Erfahrung in der Konzeption und Umsetzung Cloud-basierter Datenplattformen (AWS, Azure, Google Cloud) sowie mit Big Data- und Streaming-Technologien und kennst dich mit modernen Datenarchitekturen (z. B. Data Mesh, Event-Driven Architecture), Architekturframeworks (z. B. TOGAF) und Technologien wie SQL, Python, Spark und Kafka aus.
Du hast Erfahrung in der Konzeption und Umsetzung Cloud-basierter Datenplattformen (AWS, Azure, Google Cloud) sowie mit Big Data- und Streaming-Technologien und kennst dich mit modernen Datenarchitekturen (z. B. Data Mesh, Event-Driven Architecture), Architekturframeworks (z. B. TOGAF) und Technologien wie SQL, Python, Spark und Kafka aus.
Bereitschaft, sich im jeweiligen Kundenkontext durch gezielte Einarbeitung Know-how in verschiedenen ETL-Tools (wie Informatica PowerCenter, ApacheSpark oder Qlik/Talend) sowie weiteren Programmiersprachen und Technologien aufzubauen
Bereitschaft, sich im jeweiligen Kundenkontext durch gezielte Einarbeitung Know-how in verschiedenen ETL-Tools (wie Informatica PowerCenter, ApacheSpark oder Qlik/Talend) sowie weiteren Programmiersprachen und Technologien aufzubauen
Du hast einschlägige Erfahrung im Umgang mit technologierelevanten Tools und Frameworks wie z.B. Tensorflow, Pytorch, Keras, LangChain, LlamaIndex, OpenAI, Spark und Scala.
Du hast einschlägige Erfahrung im Umgang mit technologierelevanten Tools und Frameworks wie z.B. Tensorflow, Pytorch, Keras, LangChain, LlamaIndex, OpenAI, Spark und Scala.
Data-Pipelines umsetzen: Du konzipierst und implementierst robuste Data-Pipelines, Data Ingest und Data-Processing auf Basis von Open-Source-Komponenten wie Apache Airflow, Kafka, Spark oder Trino und sorgst dafür, dass Daten zuverlässig, performant und nachvollziehbar fließen. * Ausbildung & Erfahrung: Du bringst ein abgeschlossenes Studium (oder eine vergleichbare Qualifikation) mit und hast bereits praktisch mit Komponenten wie Spark, Kafka, Airflow o. Ä. gearbeitet - idealerweise in produktionsnahen Projekten.
Data-Pipelines umsetzen: Du konzipierst und implementierst robuste Data-Pipelines, Data Ingest und Data-Processing auf Basis von Open-Source-Komponenten wie Apache Airflow, Kafka, Spark oder Trino und sorgst dafür, dass Daten zuverlässig, performant und nachvollziehbar fließen. * Ausbildung & Erfahrung: Du bringst ein abgeschlossenes Studium (oder eine vergleichbare Qualifikation) mit und hast bereits praktisch mit Komponenten wie Spark, Kafka, Airflow o. Ä. gearbeitet - idealerweise in produktionsnahen Projekten.
bundesweit, Berlin, Frankfurt, Hamburg, Köln, Leipzig, München
Teilweise Home-Office
Anschreiben nicht erforderlich
Fundierte Kenntnisse in modernen Big-Data-Technologien und -Plattformen (z. B. Databricks, Cloudera, Hadoop, Spark, Kafka, Azure Data Services, Fabric)
Fundierte Kenntnisse in modernen Big-Data-Technologien und -Plattformen (z. B. Databricks, Cloudera, Hadoop, Spark, Kafka, Azure Data Services, Fabric)
ETL/ELT-Methodik: Du entwickelst robuste Batch- und Streaming-Datenpipelines mit hoher Datenqualität, kennst dich mit Integrations-Tools wie dbt, Fivetran, Matillion, Talend oder Informatica aus und verfügst über Programmierkenntnisse in SQL, Python, Java, Scala oder Spark.
ETL/ELT-Methodik: Du entwickelst robuste Batch- und Streaming-Datenpipelines mit hoher Datenqualität, kennst dich mit Integrations-Tools wie dbt, Fivetran, Matillion, Talend oder Informatica aus und verfügst über Programmierkenntnisse in SQL, Python, Java, Scala oder Spark.
ETL/ELT- Methodik: Du entwickelst mühelos Batch- und Streaming-Datenpipelines mit einem starken Fokus auf Robustheit und Datenqualität und verfügst zudem über einen umfassenden Marktüberblick gängiger Integrations-Tools wie dbt, Fivetran, Matillion, Talend und Informatica, während du gleichzeitig Kenntnisse in einer dieser Sprachen mitbringst: SQL, Python, Java, Scala oder Spark.
ETL/ELT- Methodik: Du entwickelst mühelos Batch- und Streaming-Datenpipelines mit einem starken Fokus auf Robustheit und Datenqualität und verfügst zudem über einen umfassenden Marktüberblick gängiger Integrations-Tools wie dbt, Fivetran, Matillion, Talend und Informatica, während du gleichzeitig Kenntnisse in einer dieser Sprachen mitbringst: SQL, Python, Java, Scala oder Spark.
Implementierung passgenauer BI-/Analytics-Lösungen unter Verwendung von Spark-Plattformen und relationalen Datenbanken (Synapse, Databricks, SQL), Plattformen und Orchestrierungen (MS Fabric, Azure Data Factory, dbt) und Visualisierungen (Power BI)
Implementierung passgenauer BI-/Analytics-Lösungen unter Verwendung von Spark-Plattformen und relationalen Datenbanken (Synapse, Databricks, SQL), Plattformen und Orchestrierungen (MS Fabric, Azure Data Factory, dbt) und Visualisierungen (Power BI)
Sie sind vertraut mit Monitoring-Tools (Prometheus, Grafana, Geneos) sowie Logging-Lösungen wie dem ELK Stack; auch Apache HTTP Server oder NGINX sind Ihnen geläufig.
Sie sind vertraut mit Monitoring-Tools (Prometheus, Grafana, Geneos) sowie Logging-Lösungen wie dem ELK Stack; auch Apache HTTP Server oder NGINX sind Ihnen geläufig.
Softwareentwicklung: Sehr gute Kenntnisse in mindestens einer modernen Programmiersprache, zum Beispiel Java, sowie Erfahrung mit Frameworks wie Spring, Apache Camel oder Kafka.
Softwareentwicklung: Sehr gute Kenntnisse in mindestens einer modernen Programmiersprache, zum Beispiel Java, sowie Erfahrung mit Frameworks wie Spring, Apache Camel oder Kafka.
Technologie-Expertise: Du konntest praktische Erfahrung in der Verwendung von Enterprise-Search-Technologien (z.B. Apache Solr, Elasticsearch, SINEQUA, iFinder, Mindbreeze, Lucidworks, Google, Azure AI Search, usw.) sammeln.
Technologie-Expertise: Du konntest praktische Erfahrung in der Verwendung von Enterprise-Search-Technologien (z.B. Apache Solr, Elasticsearch, SINEQUA, iFinder, Mindbreeze, Lucidworks, Google, Azure AI Search, usw.) sammeln.
Technologie-Stack: Erfahrungen im Bereich von IT Plattformen und Anwendungsbetrieb sowie im Umgang mit Bash, Batch, PowerShell, Ansible, Windows Servern, einer oder mehreren Linux-Distributionen, (Apache) Webserver und Tomcat hast du bereits gesammelt.
Technologie-Stack: Erfahrungen im Bereich von IT Plattformen und Anwendungsbetrieb sowie im Umgang mit Bash, Batch, PowerShell, Ansible, Windows Servern, einer oder mehreren Linux-Distributionen, (Apache) Webserver und Tomcat hast du bereits gesammelt.