Schnelle Bewerbung
13
Erscheinungsdatum
Home-Office-Optionen
Pendelzeit
Bewerbungsart
Sprache
Fähigkeiten
Berufsfeld
Branche
Region
Städte
Berufserfahrung
Anstellungsart
Arbeitszeit

Filter

SortierungRelevanz
Erscheinungsdatum
    Home-Office-Optionen
      Gehalt
      Pendelzeit
      Bewerbungsart
        Sprache
          Fähigkeiten
            Berufsfeld
              Branche
                Region
                  Städte
                    Berufserfahrung
                      Anstellungsart
                        Arbeitszeit

                          Beliebte Jobs

                          • Data Engineer
                          • Business Intelligence
                          • Cobol
                          • Angular
                          • HubSpot
                          • Git
                          • Pytorch
                          • Intelligence
                          • Informatik
                          • IT Junior
                          • DevOps
                          • Data Engineering
                          • Business Intelligence Analyst
                          • ASP
                          • Data Analytics
                          • Nlp

                          mehr

                          Erscheinungsdatum

                          Neuer als 24h
                          10


                          Gehalt

                          Leg fest, wie viel du mindestens verdienen willst.

                          Pendelzeit

                          Fähigkeiten








                          Berufsfeld

                          IT
                          39






                          Apache Spark: 47 Jobs & Stellenangebote in Südwestdeutschland

                          Senior Data Architect (w/m/x)

                          NTT DATA
                          München, Frankfurt a. M., Stuttgart, Köln, Hamburg, Ettlingen, Wolfsburg, Erfurt, Rosenheim, Berlin
                          Teilweise Home-Office
                          Anschreiben nicht erforderlich
                          Schnelle Bewerbung
                          Du hast Erfahrung in der Konzeption und Umsetzung Cloud-basierter Datenplattformen (AWS, Azure, Google Cloud) sowie mit Big Data- und Streaming-Technologien und kennst dich mit modernen Datenarchitekturen (z. B. Data Mesh, Event-Driven Architecture), Architekturframeworks (z. B. TOGAF) und Technologien wie SQL, Python, Spark und Kafka aus.
                          Du hast Erfahrung in der Konzeption und Umsetzung Cloud-basierter Datenplattformen (AWS, Azure, Google Cloud) sowie mit Big Data- und Streaming-Technologien und kennst dich mit modernen Datenarchitekturen (z. B. Data Mesh, Event-Driven Architecture), Architekturframeworks (z. B. TOGAF) und Technologien wie SQL, Python, Spark und Kafka aus.
                          mehr
                          NEU

                          Senior Data Engineer* / Machine Learning Engineer*

                          inovex GmbH
                          Karlsruhe, Köln, München, Hamburg, Stuttgart, Pforzheim, Berlin, Erlangen
                          Teilweise Home-Office
                          Databricks, Spark, Kafka, Airflow, dbt, BigQuery oder Snowflake
                          Databricks, Spark, Kafka, Airflow, dbt, BigQuery oder Snowflake
                          NEU

                          AI Engineer (w|m|d)

                          BridgingIT GmbH
                          München, Frankfurt a.M., Mannheim, Stuttgart
                          Teilweise Home-Office
                          Anschreiben nicht erforderlich
                          Schnelle Bewerbung
                          Du hast einschlägige Erfahrung im Umgang mit technologierelevanten Tools und Frameworks wie z.B. Tensorflow, Pytorch, Keras, LangChain, LlamaIndex, OpenAI, Spark und Scala.
                          Du hast einschlägige Erfahrung im Umgang mit technologierelevanten Tools und Frameworks wie z.B. Tensorflow, Pytorch, Keras, LangChain, LlamaIndex, OpenAI, Spark und Scala.
                          mehr
                          NEU

                          Snowflake Data Architect (all genders)

                          adesso SE
                          Augsburg, Karlsruhe, Koblenz, München, Nürnberg, Saarbrücken, Stuttgart, Ulm, Walldorf
                          Anschreiben nicht erforderlich
                          ETL/ELT-Methodik: Du entwickelst robuste Batch- und Streaming-Datenpipelines mit hoher Datenqualität, kennst dich mit Integrations-Tools wie dbt, Fivetran, Matillion, Talend oder Informatica aus und verfügst über Programmierkenntnisse in SQL, Python, Java, Scala oder Spark.
                          ETL/ELT-Methodik: Du entwickelst robuste Batch- und Streaming-Datenpipelines mit hoher Datenqualität, kennst dich mit Integrations-Tools wie dbt, Fivetran, Matillion, Talend oder Informatica aus und verfügst über Programmierkenntnisse in SQL, Python, Java, Scala oder Spark.
                          mehr
                          Kenntnis und Erfahrung mit Technologien wie Databricks, Lakehouse-Architektur, Unity Catalog, PySpark, Spark SQL, ETL-Pipelines, Datenmodellierung, Medallion-Architektur und Git
                          Kenntnis und Erfahrung mit Technologien wie Databricks, Lakehouse-Architektur, Unity Catalog, PySpark, Spark SQL, ETL-Pipelines, Datenmodellierung, Medallion-Architektur und Git
                          mehr
                          Anschreiben nicht erforderlich
                          Du besitzt sehr gute Kenntnisse im Bereich Linux, Netzwerk und im Betrieb von Applikationen auf OpenShift, idealerweise hast du auch schon Erfahrung mit Spark und im Umgang mit Public Cloud Providern (z.B. Integration von Databricks, Cloud-Kubernetes-Services) gesammelt
                          Du besitzt sehr gute Kenntnisse im Bereich Linux, Netzwerk und im Betrieb von Applikationen auf OpenShift, idealerweise hast du auch schon Erfahrung mit Spark und im Umgang mit Public Cloud Providern (z.B. Integration von Databricks, Cloud-Kubernetes-Services) gesammelt
                          mehr

                          Data Engineer (m/w/d) – Informatica / ETL

                          PTA GmbH
                          Berlin, Dresden, Düsseldorf, Frankfurt, Hamburg, Karlsruhe, Kassel, Köln, Mannheim, München, u.a.
                          Teilweise Home-Office
                          Bereitschaft, sich im jeweiligen Kundenkontext durch gezielte Einarbeitung Know-how in verschiedenen ETL-Tools (wie Informatica PowerCenter, Apache Spark oder Qlik/Talend) sowie weiteren Programmiersprachen und Technologien aufzubauen
                          Bereitschaft, sich im jeweiligen Kundenkontext durch gezielte Einarbeitung Know-how in verschiedenen ETL-Tools (wie Informatica PowerCenter, Apache Spark oder Qlik/Talend) sowie weiteren Programmiersprachen und Technologien aufzubauen
                          mehr

                          Search Platform Engineer Senior (m/w/d)

                          Würth IT GmbH
                          Bad Mergentheim bei Würzburg, Waldzimmern-Niedernhall bei Heilbronn, Schorndorf bei Stuttgart
                          Teilweise Home-Office
                          Anschreiben nicht erforderlich
                          hast fundierte Kenntnisse in AWS sowie Erfahrung im Aufbau robuster Datenpipelines, idealerweise mit Spark oder Databricks.
                          hast fundierte Kenntnisse in AWS sowie Erfahrung im Aufbau robuster Datenpipelines, idealerweise mit Spark oder Databricks.
                          mehr

                          Cloud Data Engineer AWS / Google Cloud (all genders)

                          adesso SE
                          Augsburg, Karlsruhe, Koblenz, München, Nürnberg, Saarbrücken, Stuttgart, Ulm, Walldorf
                          Anschreiben nicht erforderlich
                          Cloud-Erfahrung: Du hast bereits praktische Erfahrungen mit den Datenservices von AWS, GCP, Kafka, Spark oder Databricks gesammelt.
                          Cloud-Erfahrung: Du hast bereits praktische Erfahrungen mit den Datenservices von AWS, GCP, Kafka, Spark oder Databricks gesammelt.
                          mehr

                          Snowflake Data Engineer (all genders)

                          adesso SE
                          Augsburg, Karlsruhe, Koblenz, München, Nürnberg, Saarbrücken, Stuttgart, Ulm, Walldorf
                          Anschreiben nicht erforderlich
                          ETL/ELT- Methodik: Du entwickelst mühelos Batch- und Streaming-Datenpipelines mit einem starken Fokus auf Robustheit und Datenqualität und verfügst zudem über einen umfassenden Marktüberblick gängiger Integrations-Tools wie dbt, Fivetran, Matillion, Talend und Informatica, während du gleichzeitig Kenntnisse in einer dieser Sprachen mitbringst: SQL, Python, Java, Scala oder Spark.
                          ETL/ELT- Methodik: Du entwickelst mühelos Batch- und Streaming-Datenpipelines mit einem starken Fokus auf Robustheit und Datenqualität und verfügst zudem über einen umfassenden Marktüberblick gängiger Integrations-Tools wie dbt, Fivetran, Matillion, Talend und Informatica, während du gleichzeitig Kenntnisse in einer dieser Sprachen mitbringst: SQL, Python, Java, Scala oder Spark.
                          mehr

                          Cloud Native Data Engineer (all genders)

                          adesso SE
                          Aachen, Frankfurt, Koblenz, Saarbrücken, Nürnberg
                          Anschreiben nicht erforderlich
                          Data-Pipelines umsetzen: Du konzipierst und implementierst robuste Data-Pipelines, Data Ingest und Data-Processing auf Basis von Open-Source-Komponenten wie Apache Airflow, Kafka, Spark oder Trino und sorgst dafür, dass Daten zuverlässig, performant und nachvollziehbar fließen. * Ausbildung & Erfahrung: Du bringst ein abgeschlossenes Studium (oder eine vergleichbare Qualifikation) mit und hast bereits praktisch mit Komponenten wie Spark, Kafka, Airflow o. Ä. gearbeitet - idealerweise in produktionsnahen Projekten.
                          Data-Pipelines umsetzen: Du konzipierst und implementierst robuste Data-Pipelines, Data Ingest und Data-Processing auf Basis von Open-Source-Komponenten wie Apache Airflow, Kafka, Spark oder Trino und sorgst dafür, dass Daten zuverlässig, performant und nachvollziehbar fließen. * Ausbildung & Erfahrung: Du bringst ein abgeschlossenes Studium (oder eine vergleichbare Qualifikation) mit und hast bereits praktisch mit Komponenten wie Spark, Kafka, Airflow o. Ä. gearbeitet - idealerweise in produktionsnahen Projekten.
                          mehr

                          Cloud Native Data Engineer (all genders)

                          adesso SE
                          Augsburg, Karlsruhe, München, Stuttgart, Ulm, Walldorf
                          Teilweise Home-Office
                          Anschreiben nicht erforderlich
                          Data-Pipelines umsetzen: Du konzipierst und implementierst robuste Data-Pipelines, Data Ingest und Data-Processing auf Basis von Open-Source-Komponenten wie Apache Airflow, Kafka, Spark oder Trino und sorgst dafür, dass Daten zuverlässig, performant und nachvollziehbar fließen. * Ausbildung & Erfahrung: Du bringst ein abgeschlossenes Studium (oder eine vergleichbare Qualifikation) mit und hast bereits praktisch mit Komponenten wie Spark, Kafka, Airflow o. Ä. gearbeitet - idealerweise in produktionsnahen Projekten.
                          Data-Pipelines umsetzen: Du konzipierst und implementierst robuste Data-Pipelines, Data Ingest und Data-Processing auf Basis von Open-Source-Komponenten wie Apache Airflow, Kafka, Spark oder Trino und sorgst dafür, dass Daten zuverlässig, performant und nachvollziehbar fließen. * Ausbildung & Erfahrung: Du bringst ein abgeschlossenes Studium (oder eine vergleichbare Qualifikation) mit und hast bereits praktisch mit Komponenten wie Spark, Kafka, Airflow o. Ä. gearbeitet - idealerweise in produktionsnahen Projekten.
                          mehr

                          Noch nichts dabei? Es gibt 25 weitere Jobs, die zu deiner Suche passen könnten

                          Schnelle Bewerbung
                          Du unterstützt unsere Kund*innen bei der Entwicklung und Betreuung der betrieblichen Infrastruktur (Git, GitOps, Kubernetes, Linux, Apache, Java-Webanwendungen) sowie beim Applikationsbetrieb auf einer Cloud-Plattform.
                          Du unterstützt unsere Kund*innen bei der Entwicklung und Betreuung der betrieblichen Infrastruktur (Git, GitOps, Kubernetes, Linux, Apache, Java-Webanwendungen) sowie beim Applikationsbetrieb auf einer Cloud-Plattform.
                          mehr

                          Senior Specialist Application Development (m/w/d)

                          MS Motorservice International GmbH
                          Neuenstadt a.K. bei Heilbronn
                          Teilweise Home-Office
                          Erfahrung in der Administration und Konfiguration von Apache HTTP und Apache Tomcat sowie von Repository-Managern wie Nexus oder Artifactory
                          Erfahrung in der Administration und Konfiguration von Apache HTTP und Apache Tomcat sowie von Repository-Managern wie Nexus oder Artifactory
                          mehr

                          Beliebte Jobs


                          mehr

                          Häufig gestellte Fragen

                          Wie viele offene Stellenangebote gibt es für Apache Spark Jobs in Südwestdeutschland?
                          Aktuell gibt es auf StepStone 47 offene Stellenanzeigen für Apache Spark Jobs in Südwestdeutschland.

                          Welche anderen Orte sind auch beliebt für Leute, die in Südwestdeutschland einen Apache Spark Job suchen?
                          Folgende Orte sind auch interessant für Leute, die in Südwestdeutschland einen Apache Spark Job suchen: Stuttgart, Karlsruhe, Mannheim.

                          Welche anderen Jobs sind beliebt bei Kandidaten, die nach Apache Spark Jobs in Südwestdeutschland suchen?
                          Wer nach Apache Spark Jobs in Südwestdeutschland sucht, sucht häufig auch nach Data Engineer, Business Intelligence, Cobol.

                          Welche Fähigkeiten braucht man für Apache Spark Jobs in Südwestdeutschland??
                          Für einen Apache Spark Job in Südwestdeutschland sind folgende Fähigkeiten von Vorteil: Deutsch, Englisch, Apache Spark, Python, Cloud-Technologien.

                          Wie viele offene Teilzeit-Stellen gibt es für Apache Spark Jobs in Südwestdeutschland?
                          Für Apache Spark Jobs in Südwestdeutschland gibt es aktuell 9 offene Teilzeitstellen.