Wir begeistern unsere Kunden rund um den Globus mit unseren Maschinen und Werkzeugen sowie unseren in einem der weltweit größten und modernsten Perforationsparks hergestellten Produkten.
Wir begeistern unsere Kunden rund um den Globus mit unseren Maschinen und Werkzeugen sowie unseren in einem der weltweit größten und modernsten Perforationsparks hergestellten Produkten.
Wir begeistern unsere Kunden rund um den Globus mit unseren Maschinen und Werkzeugen sowie unseren in einem der weltweit größten und modernsten Perforationsparks hergestellten Produkten.
Wir begeistern unsere Kunden rund um den Globus mit unseren Maschinen und Werkzeugen sowie unseren in einem der weltweit größten und modernsten Perforationsparks hergestellten Produkten.
München, Frankfurt a. M., Stuttgart, Köln, Hamburg, Ettlingen, Wolfsburg, Erfurt, Rosenheim, Berlin
Teilweise Home-Office
Anschreiben nicht erforderlich
Schnelle Bewerbung
Du hast Erfahrung in der Konzeption und Umsetzung Cloud-basierter Datenplattformen (AWS, Azure, Google Cloud) sowie mit Big Data- und Streaming-Technologien und kennst dich mit modernen Datenarchitekturen (z. B. Data Mesh, Event-Driven Architecture), Architekturframeworks (z. B. TOGAF) und Technologien wie SQL, Python, Spark und Kafka aus.
Du hast Erfahrung in der Konzeption und Umsetzung Cloud-basierter Datenplattformen (AWS, Azure, Google Cloud) sowie mit Big Data- und Streaming-Technologien und kennst dich mit modernen Datenarchitekturen (z. B. Data Mesh, Event-Driven Architecture), Architekturframeworks (z. B. TOGAF) und Technologien wie SQL, Python, Spark und Kafka aus.
Data-Pipelines umsetzen: Du konzipierst und implementierst robuste Data-Pipelines, Data Ingest und Data-Processing auf Basis von Open-Source-Komponenten wie Apache Airflow, Kafka, Spark oder Trino und sorgst dafür, dass Daten zuverlässig, performant und nachvollziehbar fließen. * Ausbildung & Erfahrung: Du bringst ein abgeschlossenes Studium (oder eine vergleichbare Qualifikation) mit und hast bereits praktisch mit Komponenten wie Spark, Kafka, Airflow o. Ä. gearbeitet - idealerweise in produktionsnahen Projekten.
Data-Pipelines umsetzen: Du konzipierst und implementierst robuste Data-Pipelines, Data Ingest und Data-Processing auf Basis von Open-Source-Komponenten wie Apache Airflow, Kafka, Spark oder Trino und sorgst dafür, dass Daten zuverlässig, performant und nachvollziehbar fließen. * Ausbildung & Erfahrung: Du bringst ein abgeschlossenes Studium (oder eine vergleichbare Qualifikation) mit und hast bereits praktisch mit Komponenten wie Spark, Kafka, Airflow o. Ä. gearbeitet - idealerweise in produktionsnahen Projekten.
Du hast einschlägige Erfahrung im Umgang mit technologierelevanten Tools und Frameworks wie z.B. Tensorflow, Pytorch, Keras, LangChain, LlamaIndex, OpenAI, Spark und Scala.
Du hast einschlägige Erfahrung im Umgang mit technologierelevanten Tools und Frameworks wie z.B. Tensorflow, Pytorch, Keras, LangChain, LlamaIndex, OpenAI, Spark und Scala.
Kenntnis und Erfahrung mit Technologien wie Databricks, Lakehouse-Architektur, Unity Catalog, PySpark, Spark SQL, ETL-Pipelines, Datenmodellierung, Medallion-Architektur und Git
Kenntnis und Erfahrung mit Technologien wie Databricks, Lakehouse-Architektur, Unity Catalog, PySpark, Spark SQL, ETL-Pipelines, Datenmodellierung, Medallion-Architektur und Git
ETL/ELT-Methodik: Du entwickelst robuste Batch- und Streaming-Datenpipelines mit hoher Datenqualität, kennst dich mit Integrations-Tools wie dbt, Fivetran, Matillion, Talend oder Informatica aus und verfügst über Programmierkenntnisse in SQL, Python, Java, Scala oder Spark.
ETL/ELT-Methodik: Du entwickelst robuste Batch- und Streaming-Datenpipelines mit hoher Datenqualität, kennst dich mit Integrations-Tools wie dbt, Fivetran, Matillion, Talend oder Informatica aus und verfügst über Programmierkenntnisse in SQL, Python, Java, Scala oder Spark.
ETL/ELT- Methodik: Du entwickelst mühelos Batch- und Streaming-Datenpipelines mit einem starken Fokus auf Robustheit und Datenqualität und verfügst zudem über einen umfassenden Marktüberblick gängiger Integrations-Tools wie dbt, Fivetran, Matillion, Talend und Informatica, während du gleichzeitig Kenntnisse in einer dieser Sprachen mitbringst: SQL, Python, Java, Scala oder Spark.
ETL/ELT- Methodik: Du entwickelst mühelos Batch- und Streaming-Datenpipelines mit einem starken Fokus auf Robustheit und Datenqualität und verfügst zudem über einen umfassenden Marktüberblick gängiger Integrations-Tools wie dbt, Fivetran, Matillion, Talend und Informatica, während du gleichzeitig Kenntnisse in einer dieser Sprachen mitbringst: SQL, Python, Java, Scala oder Spark.
Implementierung passgenauer BI-/Analytics-Lösungen unter Verwendung von Spark-Plattformen und relationalen Datenbanken (Synapse, Databricks, SQL), Plattformen und Orchestrierungen (MS Fabric, Azure Data Factory, dbt) und Visualisierungen (Power BI)
Implementierung passgenauer BI-/Analytics-Lösungen unter Verwendung von Spark-Plattformen und relationalen Datenbanken (Synapse, Databricks, SQL), Plattformen und Orchestrierungen (MS Fabric, Azure Data Factory, dbt) und Visualisierungen (Power BI)
Deep technical expertise in integration architectures across hybrid SAP and non-SAP environments, with strong knowledge of Data Mesh and Data Fabric approaches, Big Data and Data Lake technologies, and OpenSource technologies, including the Apache ecosystem.
Deep technical expertise in integration architectures across hybrid SAP and non-SAP environments, with strong knowledge of Data Mesh and Data Fabric approaches, Big Data and Data Lake technologies, and OpenSource technologies, including the Apache ecosystem.
Deep technical expertise in integration architectures across hybrid SAP and non-SAP environments, with strong knowledge of Data Mesh and Data Fabric approaches, Big Data and Data Lake technologies, and OpenSource technologies, including the Apache ecosystem.
Deep technical expertise in integration architectures across hybrid SAP and non-SAP environments, with strong knowledge of Data Mesh and Data Fabric approaches, Big Data and Data Lake technologies, and OpenSource technologies, including the Apache ecosystem.
Technologie-Stack: Erfahrungen im Bereich von IT Plattformen und Anwendungsbetrieb sowie im Umgang mit Bash, Batch, PowerShell, Ansible, Windows Servern, einer oder mehreren Linux-Distributionen, (Apache) Webserver und Tomcat hast du bereits gesammelt.
Technologie-Stack: Erfahrungen im Bereich von IT Plattformen und Anwendungsbetrieb sowie im Umgang mit Bash, Batch, PowerShell, Ansible, Windows Servern, einer oder mehreren Linux-Distributionen, (Apache) Webserver und Tomcat hast du bereits gesammelt.
Technologie-Expertise: Du konntest praktische Erfahrung in der Verwendung von Enterprise-Search-Technologien (z.B. Apache Solr, Elasticsearch, SINEQUA, iFinder, Mindbreeze, Lucidworks, Google, Azure AI Search, usw.) sammeln.
Technologie-Expertise: Du konntest praktische Erfahrung in der Verwendung von Enterprise-Search-Technologien (z.B. Apache Solr, Elasticsearch, SINEQUA, iFinder, Mindbreeze, Lucidworks, Google, Azure AI Search, usw.) sammeln.
Design und Betrieb skalierbarer ETL Data Pipelines mit ApacheSpark und Apache Airflow sowie Weiterentwicklung unserer Data Lake Architektur * Praktische Erfahrung mit ApacheSpark und Apache Airflow
Design und Betrieb skalierbarer ETL Data Pipelines mit ApacheSpark und Apache Airflow sowie Weiterentwicklung unserer Data Lake Architektur * Praktische Erfahrung mit ApacheSpark und Apache Airflow