München, Frankfurt a. M., Stuttgart, Köln, Hamburg, Ettlingen, Wolfsburg, Erfurt, Rosenheim, Berlin
Teilweise Home-Office
Anschreiben nicht erforderlich
Schnelle Bewerbung
Du hast Erfahrung in der Konzeption und Umsetzung Cloud-basierter Datenplattformen (AWS, Azure, Google Cloud) sowie mit Big Data- und Streaming-Technologien und kennst dich mit modernen Datenarchitekturen (z. B. Data Mesh, Event-Driven Architecture), Architekturframeworks (z. B. TOGAF) und Technologien wie SQL, Python, Spark und Kafka aus.
Du hast Erfahrung in der Konzeption und Umsetzung Cloud-basierter Datenplattformen (AWS, Azure, Google Cloud) sowie mit Big Data- und Streaming-Technologien und kennst dich mit modernen Datenarchitekturen (z. B. Data Mesh, Event-Driven Architecture), Architekturframeworks (z. B. TOGAF) und Technologien wie SQL, Python, Spark und Kafka aus.
Bereitschaft, sich im jeweiligen Kundenkontext durch gezielte Einarbeitung Know-how in verschiedenen ETL-Tools (wie Informatica PowerCenter, ApacheSpark oder Qlik/Talend) sowie weiteren Programmiersprachen und Technologien aufzubauen
Bereitschaft, sich im jeweiligen Kundenkontext durch gezielte Einarbeitung Know-how in verschiedenen ETL-Tools (wie Informatica PowerCenter, ApacheSpark oder Qlik/Talend) sowie weiteren Programmiersprachen und Technologien aufzubauen
Du hast einschlägige Erfahrung im Umgang mit technologierelevanten Tools und Frameworks wie z.B. Tensorflow, Pytorch, Keras, LangChain, LlamaIndex, OpenAI, Spark und Scala.
Du hast einschlägige Erfahrung im Umgang mit technologierelevanten Tools und Frameworks wie z.B. Tensorflow, Pytorch, Keras, LangChain, LlamaIndex, OpenAI, Spark und Scala.
Data-Pipelines umsetzen: Du konzipierst und implementierst robuste Data-Pipelines, Data Ingest und Data-Processing auf Basis von Open-Source-Komponenten wie Apache Airflow, Kafka, Spark oder Trino und sorgst dafür, dass Daten zuverlässig, performant und nachvollziehbar fließen. * Ausbildung & Erfahrung: Du bringst ein abgeschlossenes Studium (oder eine vergleichbare Qualifikation) mit und hast bereits praktisch mit Komponenten wie Spark, Kafka, Airflow o. Ä. gearbeitet - idealerweise in produktionsnahen Projekten.
Data-Pipelines umsetzen: Du konzipierst und implementierst robuste Data-Pipelines, Data Ingest und Data-Processing auf Basis von Open-Source-Komponenten wie Apache Airflow, Kafka, Spark oder Trino und sorgst dafür, dass Daten zuverlässig, performant und nachvollziehbar fließen. * Ausbildung & Erfahrung: Du bringst ein abgeschlossenes Studium (oder eine vergleichbare Qualifikation) mit und hast bereits praktisch mit Komponenten wie Spark, Kafka, Airflow o. Ä. gearbeitet - idealerweise in produktionsnahen Projekten.
bundesweit, Berlin, Frankfurt, Hamburg, Köln, Leipzig, München
Teilweise Home-Office
Anschreiben nicht erforderlich
Fundierte Kenntnisse in modernen Big-Data-Technologien und -Plattformen (z. B. Databricks, Cloudera, Hadoop, Spark, Kafka, Azure Data Services, Fabric)
Fundierte Kenntnisse in modernen Big-Data-Technologien und -Plattformen (z. B. Databricks, Cloudera, Hadoop, Spark, Kafka, Azure Data Services, Fabric)
ETL/ELT-Methodik: Du entwickelst robuste Batch- und Streaming-Datenpipelines mit hoher Datenqualität, kennst dich mit Integrations-Tools wie dbt, Fivetran, Matillion, Talend oder Informatica aus und verfügst über Programmierkenntnisse in SQL, Python, Java, Scala oder Spark.
ETL/ELT-Methodik: Du entwickelst robuste Batch- und Streaming-Datenpipelines mit hoher Datenqualität, kennst dich mit Integrations-Tools wie dbt, Fivetran, Matillion, Talend oder Informatica aus und verfügst über Programmierkenntnisse in SQL, Python, Java, Scala oder Spark.
ETL/ELT- Methodik: Du entwickelst mühelos Batch- und Streaming-Datenpipelines mit einem starken Fokus auf Robustheit und Datenqualität und verfügst zudem über einen umfassenden Marktüberblick gängiger Integrations-Tools wie dbt, Fivetran, Matillion, Talend und Informatica, während du gleichzeitig Kenntnisse in einer dieser Sprachen mitbringst: SQL, Python, Java, Scala oder Spark.
ETL/ELT- Methodik: Du entwickelst mühelos Batch- und Streaming-Datenpipelines mit einem starken Fokus auf Robustheit und Datenqualität und verfügst zudem über einen umfassenden Marktüberblick gängiger Integrations-Tools wie dbt, Fivetran, Matillion, Talend und Informatica, während du gleichzeitig Kenntnisse in einer dieser Sprachen mitbringst: SQL, Python, Java, Scala oder Spark.
Erste Erfahrungen im Aufbau von Data Pipelines auf Basis eines Hadoop-Clusters (Spark, Kafka, NiFi) sind vorteilhaft - Kenntnisse über Data-Orchestrierung-Frameworks (wie Apache Airflow) sind vorteilhaft - Streaming-Plattformen und Technologien wie Kafka und Spark
Erste Erfahrungen im Aufbau von Data Pipelines auf Basis eines Hadoop-Clusters (Spark, Kafka, NiFi) sind vorteilhaft - Kenntnisse über Data-Orchestrierung-Frameworks (wie Apache Airflow) sind vorteilhaft - Streaming-Plattformen und Technologien wie Kafka und Spark
Implementierung passgenauer BI-/Analytics-Lösungen unter Verwendung von Spark-Plattformen und relationalen Datenbanken (Synapse, Databricks, SQL), Plattformen und Orchestrierungen (MS Fabric, Azure Data Factory, dbt) und Visualisierungen (Power BI)
Implementierung passgenauer BI-/Analytics-Lösungen unter Verwendung von Spark-Plattformen und relationalen Datenbanken (Synapse, Databricks, SQL), Plattformen und Orchestrierungen (MS Fabric, Azure Data Factory, dbt) und Visualisierungen (Power BI)
Sie sind vertraut mit Monitoring-Tools (Prometheus, Grafana, Geneos) sowie Logging-Lösungen wie dem ELK Stack; auch Apache HTTP Server oder NGINX sind Ihnen geläufig.
Sie sind vertraut mit Monitoring-Tools (Prometheus, Grafana, Geneos) sowie Logging-Lösungen wie dem ELK Stack; auch Apache HTTP Server oder NGINX sind Ihnen geläufig.
Technologie-Expertise: Du konntest praktische Erfahrung in der Verwendung von Enterprise-Search-Technologien (z.B. Apache Solr, Elasticsearch, SINEQUA, iFinder, Mindbreeze, Lucidworks, Google, Azure AI Search, usw.) sammeln.
Technologie-Expertise: Du konntest praktische Erfahrung in der Verwendung von Enterprise-Search-Technologien (z.B. Apache Solr, Elasticsearch, SINEQUA, iFinder, Mindbreeze, Lucidworks, Google, Azure AI Search, usw.) sammeln.
Softwareentwicklung: Sehr gute Kenntnisse in mindestens einer modernen Programmiersprache, zum Beispiel Java, sowie Erfahrung mit Frameworks wie Spring, Apache Camel oder Kafka.
Softwareentwicklung: Sehr gute Kenntnisse in mindestens einer modernen Programmiersprache, zum Beispiel Java, sowie Erfahrung mit Frameworks wie Spring, Apache Camel oder Kafka.
Technologie-Stack: Erfahrungen im Bereich von IT Plattformen und Anwendungsbetrieb sowie im Umgang mit Bash, Batch, PowerShell, Ansible, Windows Servern, einer oder mehreren Linux-Distributionen, (Apache) Webserver und Tomcat hast du bereits gesammelt.
Technologie-Stack: Erfahrungen im Bereich von IT Plattformen und Anwendungsbetrieb sowie im Umgang mit Bash, Batch, PowerShell, Ansible, Windows Servern, einer oder mehreren Linux-Distributionen, (Apache) Webserver und Tomcat hast du bereits gesammelt.