Bereitschaft, sich im jeweiligen Kundenkontext durch gezielte Einarbeitung Know-how in verschiedenen ETL-Tools (wie Informatica PowerCenter, ApacheSpark oder Qlik/Talend) sowie weiteren Programmiersprachen und Technologien aufzubauen
Bereitschaft, sich im jeweiligen Kundenkontext durch gezielte Einarbeitung Know-how in verschiedenen ETL-Tools (wie Informatica PowerCenter, ApacheSpark oder Qlik/Talend) sowie weiteren Programmiersprachen und Technologien aufzubauen
Du hast einschlägige Erfahrung im Umgang mit technologierelevanten Tools und Frameworks wie z.B. Tensorflow, Pytorch, Keras, LangChain, LlamaIndex, OpenAI, Spark und Scala.
Du hast einschlägige Erfahrung im Umgang mit technologierelevanten Tools und Frameworks wie z.B. Tensorflow, Pytorch, Keras, LangChain, LlamaIndex, OpenAI, Spark und Scala.
Data-Pipelines umsetzen: Du konzipierst und implementierst robuste Data-Pipelines, Data Ingest und Data-Processing auf Basis von Open-Source-Komponenten wie Apache Airflow, Kafka, Spark oder Trino und sorgst dafür, dass Daten zuverlässig, performant und nachvollziehbar fließen. * Ausbildung & Erfahrung: Du bringst ein abgeschlossenes Studium (oder eine vergleichbare Qualifikation) mit und hast bereits praktisch mit Komponenten wie Spark, Kafka, Airflow o. Ä. gearbeitet - idealerweise in produktionsnahen Projekten.
Data-Pipelines umsetzen: Du konzipierst und implementierst robuste Data-Pipelines, Data Ingest und Data-Processing auf Basis von Open-Source-Komponenten wie Apache Airflow, Kafka, Spark oder Trino und sorgst dafür, dass Daten zuverlässig, performant und nachvollziehbar fließen. * Ausbildung & Erfahrung: Du bringst ein abgeschlossenes Studium (oder eine vergleichbare Qualifikation) mit und hast bereits praktisch mit Komponenten wie Spark, Kafka, Airflow o. Ä. gearbeitet - idealerweise in produktionsnahen Projekten.
Du besitzt sehr gute Kenntnisse im Bereich Linux, Netzwerk und im Betrieb von Applikationen auf OpenShift, idealerweise hast du auch schon Erfahrung mit Spark und im Umgang mit Public Cloud Providern (z.B. Integration von Databricks, Cloud-Kubernetes-Services) gesammelt
Du besitzt sehr gute Kenntnisse im Bereich Linux, Netzwerk und im Betrieb von Applikationen auf OpenShift, idealerweise hast du auch schon Erfahrung mit Spark und im Umgang mit Public Cloud Providern (z.B. Integration von Databricks, Cloud-Kubernetes-Services) gesammelt
ETL/ELT-Methodik: Du entwickelst robuste Batch- und Streaming-Datenpipelines mit hoher Datenqualität, kennst dich mit Integrations-Tools wie dbt, Fivetran, Matillion, Talend oder Informatica aus und verfügst über Programmierkenntnisse in SQL, Python, Java, Scala oder Spark.
ETL/ELT-Methodik: Du entwickelst robuste Batch- und Streaming-Datenpipelines mit hoher Datenqualität, kennst dich mit Integrations-Tools wie dbt, Fivetran, Matillion, Talend oder Informatica aus und verfügst über Programmierkenntnisse in SQL, Python, Java, Scala oder Spark.
ETL/ELT- Methodik: Du entwickelst mühelos Batch- und Streaming-Datenpipelines mit einem starken Fokus auf Robustheit und Datenqualität und verfügst zudem über einen umfassenden Marktüberblick gängiger Integrations-Tools wie dbt, Fivetran, Matillion, Talend und Informatica, während du gleichzeitig Kenntnisse in einer dieser Sprachen mitbringst: SQL, Python, Java, Scala oder Spark.
ETL/ELT- Methodik: Du entwickelst mühelos Batch- und Streaming-Datenpipelines mit einem starken Fokus auf Robustheit und Datenqualität und verfügst zudem über einen umfassenden Marktüberblick gängiger Integrations-Tools wie dbt, Fivetran, Matillion, Talend und Informatica, während du gleichzeitig Kenntnisse in einer dieser Sprachen mitbringst: SQL, Python, Java, Scala oder Spark.
Kenntnisse über Microsoft Betriebssysteme und deren Administration, in Virtualisierung, Webdesign, vom Betrieb von Apache Tomcat Servern und vom Betrieb einer Firewall sind hilfreich, aber nicht Voraussetzung
Kenntnisse über Microsoft Betriebssysteme und deren Administration, in Virtualisierung, Webdesign, vom Betrieb von Apache Tomcat Servern und vom Betrieb einer Firewall sind hilfreich, aber nicht Voraussetzung
Technologie-Expertise: Du konntest praktische Erfahrung in der Verwendung von Enterprise-Search-Technologien (z.B. Apache Solr, Elasticsearch, SINEQUA, iFinder, Mindbreeze, Lucidworks, Google, Azure AI Search, usw.) sammeln.
Technologie-Expertise: Du konntest praktische Erfahrung in der Verwendung von Enterprise-Search-Technologien (z.B. Apache Solr, Elasticsearch, SINEQUA, iFinder, Mindbreeze, Lucidworks, Google, Azure AI Search, usw.) sammeln.
Design und Betrieb skalierbarer ETL Data Pipelines mit ApacheSpark und Apache Airflow sowie Weiterentwicklung unserer Data Lake Architektur * Praktische Erfahrung mit ApacheSpark und Apache Airflow
Design und Betrieb skalierbarer ETL Data Pipelines mit ApacheSpark und Apache Airflow sowie Weiterentwicklung unserer Data Lake Architektur * Praktische Erfahrung mit ApacheSpark und Apache Airflow
München, Frankfurt a. M., Stuttgart, Köln, Hamburg, Ettlingen, Wolfsburg, Erfurt, Rosenheim, Berlin
Teilweise Home-Office
Anschreiben nicht erforderlich
Schnelle Bewerbung
Du hast Erfahrung in der Konzeption und Umsetzung Cloud-basierter Datenplattformen (AWS, Azure, Google Cloud) sowie mit Big Data- und Streaming-Technologien und kennst dich mit modernen Datenarchitekturen (z. B. Data Mesh, Event-Driven Architecture), Architekturframeworks (z. B. TOGAF) und Technologien wie SQL, Python, Spark und Kafka aus.
Du hast Erfahrung in der Konzeption und Umsetzung Cloud-basierter Datenplattformen (AWS, Azure, Google Cloud) sowie mit Big Data- und Streaming-Technologien und kennst dich mit modernen Datenarchitekturen (z. B. Data Mesh, Event-Driven Architecture), Architekturframeworks (z. B. TOGAF) und Technologien wie SQL, Python, Spark und Kafka aus.
Deep technical expertise in integration architectures across hybrid SAP and non-SAP environments, with strong knowledge of Data Mesh and Data Fabric approaches, Big Data and Data Lake technologies, and OpenSource technologies, including the Apache ecosystem.
Deep technical expertise in integration architectures across hybrid SAP and non-SAP environments, with strong knowledge of Data Mesh and Data Fabric approaches, Big Data and Data Lake technologies, and OpenSource technologies, including the Apache ecosystem.
Deep technical expertise in integration architectures across hybrid SAP and non-SAP environments, with strong knowledge of Data Mesh and Data Fabric approaches, Big Data and Data Lake technologies, and OpenSource technologies, including the Apache ecosystem.
Deep technical expertise in integration architectures across hybrid SAP and non-SAP environments, with strong knowledge of Data Mesh and Data Fabric approaches, Big Data and Data Lake technologies, and OpenSource technologies, including the Apache ecosystem.
Welche Fähigkeiten braucht man für Apache Spark Jobs in Nordbaden??
Für einen Apache Spark Job in Nordbaden sind folgende Fähigkeiten von Vorteil: Deutsch, Englisch, Apache Spark, Amazon Web Services, Cloud-Technologien.
Wie viele offene Teilzeit-Stellen gibt es für Apache Spark Jobs in Nordbaden?
Für Apache Spark Jobs in Nordbaden gibt es aktuell 4 offene Teilzeitstellen.