Schnelle Bewerbung
22
Erscheinungsdatum
Home-Office-Optionen
Pendelzeit
Bewerbungsart
Sprache
Fähigkeiten
Berufsfeld
Branche
Region
Städte
Berufserfahrung
Anstellungsart
Arbeitszeit

Filter

SortierungRelevanz
Erscheinungsdatum
    Home-Office-Optionen
      Gehalt
      Pendelzeit
      Bewerbungsart
        Sprache
          Fähigkeiten
            Berufsfeld
              Branche
                Region
                  Städte
                    Berufserfahrung
                      Anstellungsart
                        Arbeitszeit

                          Beliebte Jobs

                          • Data Engineer
                          • Business Intelligence
                          • CISSP
                          • Angular
                          • DNA
                          • IOT
                          • Cobol
                          • Junior Software Engineer
                          • Data Analyst
                          • Data Science
                          • Informatik
                          • IT Junior
                          • Business Intelligence Analyst
                          • Spark
                          • Data Engineering
                          • Qlik

                          mehr

                          Erscheinungsdatum

                          Neuer als 24h
                          2


                          Gehalt

                          Leg fest, wie viel du mindestens verdienen willst.

                          Pendelzeit

                          Fähigkeiten








                          Berufsfeld

                          IT
                          58






                          73 Treffer für Apache Spark Jobs in Süddeutschland im Umkreis von 30 km

                          Big Data Engineer / AI Software Engineer (m/w/d)

                          Solve42 GmbH
                          Mannheim
                          Teilweise Home-Office
                          Schnelle Bewerbung
                          >= 3 Jahre Erfahrung im Bereich Big Data mit Apache Spark oder Databricks
                          >= 3 Jahre Erfahrung im Bereich Big Data mit Apache Spark oder Databricks

                          Senior Data Architect (w/m/x)

                          NTT DATA
                          München, Frankfurt a. M., Stuttgart, Köln, Hamburg, Ettlingen, Wolfsburg, Erfurt, Rosenheim, Berlin
                          Teilweise Home-Office
                          Anschreiben nicht erforderlich
                          Schnelle Bewerbung
                          Du hast Erfahrung in der Konzeption und Umsetzung Cloud-basierter Datenplattformen (AWS, Azure, Google Cloud) sowie mit Big Data- und Streaming-Technologien und kennst dich mit modernen Datenarchitekturen (z. B. Data Mesh, Event-Driven Architecture), Architekturframeworks (z. B. TOGAF) und Technologien wie SQL, Python, Spark und Kafka aus.
                          Du hast Erfahrung in der Konzeption und Umsetzung Cloud-basierter Datenplattformen (AWS, Azure, Google Cloud) sowie mit Big Data- und Streaming-Technologien und kennst dich mit modernen Datenarchitekturen (z. B. Data Mesh, Event-Driven Architecture), Architekturframeworks (z. B. TOGAF) und Technologien wie SQL, Python, Spark und Kafka aus.
                          mehr

                          Senior Data Engineer* / Machine Learning Engineer*

                          inovex GmbH
                          Karlsruhe, Köln, München, Hamburg, Stuttgart, Pforzheim, Berlin, Erlangen
                          Teilweise Home-Office
                          Databricks, Spark, Kafka, Airflow, dbt, BigQuery oder Snowflake
                          Databricks, Spark, Kafka, Airflow, dbt, BigQuery oder Snowflake

                          Data Engineer (m/w/d) – Informatica / ETL

                          PTA GmbH
                          Berlin, Dresden, Düsseldorf, Frankfurt, Hamburg, Karlsruhe, Kassel, Köln, Mannheim, München, u.a.
                          Teilweise Home-Office
                          Bereitschaft, sich im jeweiligen Kundenkontext durch gezielte Einarbeitung Know-how in verschiedenen ETL-Tools (wie Informatica PowerCenter, Apache Spark oder Qlik/Talend) sowie weiteren Programmiersprachen und Technologien aufzubauen
                          Bereitschaft, sich im jeweiligen Kundenkontext durch gezielte Einarbeitung Know-how in verschiedenen ETL-Tools (wie Informatica PowerCenter, Apache Spark oder Qlik/Talend) sowie weiteren Programmiersprachen und Technologien aufzubauen
                          mehr

                          Search Platform Engineer Senior (m/w/d)

                          Würth IT GmbH
                          Bad Mergentheim bei Würzburg, Waldzimmern-Niedernhall bei Heilbronn, Schorndorf bei Stuttgart
                          Teilweise Home-Office
                          Anschreiben nicht erforderlich
                          hast fundierte Kenntnisse in AWS sowie Erfahrung im Aufbau robuster Datenpipelines, idealerweise mit Spark oder Databricks.
                          hast fundierte Kenntnisse in AWS sowie Erfahrung im Aufbau robuster Datenpipelines, idealerweise mit Spark oder Databricks.
                          mehr

                          AI Engineer (w|m|d)

                          BridgingIT GmbH
                          München, Frankfurt a.M., Mannheim, Stuttgart
                          Teilweise Home-Office
                          Anschreiben nicht erforderlich
                          Schnelle Bewerbung
                          Du hast einschlägige Erfahrung im Umgang mit technologierelevanten Tools und Frameworks wie z.B. Tensorflow, Pytorch, Keras, LangChain, LlamaIndex, OpenAI, Spark und Scala.
                          Du hast einschlägige Erfahrung im Umgang mit technologierelevanten Tools und Frameworks wie z.B. Tensorflow, Pytorch, Keras, LangChain, LlamaIndex, OpenAI, Spark und Scala.
                          mehr

                          Senior Big Data Architect Public Sector (m/w/d)

                          Sopra Steria
                          bundesweit, Berlin, Frankfurt, Hamburg, Köln, Leipzig, München
                          Teilweise Home-Office
                          Anschreiben nicht erforderlich
                          Fundierte Kenntnisse in modernen Big-Data-Technologien und -Plattformen (z. B. Databricks, Cloudera, Hadoop, Spark, Kafka, Azure Data Services, Fabric)
                          Fundierte Kenntnisse in modernen Big-Data-Technologien und -Plattformen (z. B. Databricks, Cloudera, Hadoop, Spark, Kafka, Azure Data Services, Fabric)
                          mehr

                          Cloud Native Data Engineer (all genders)

                          adesso SE
                          Aachen, Frankfurt, Koblenz, Saarbrücken, Nürnberg
                          Anschreiben nicht erforderlich
                          Data-Pipelines umsetzen: Du konzipierst und implementierst robuste Data-Pipelines, Data Ingest und Data-Processing auf Basis von Open-Source-Komponenten wie Apache Airflow, Kafka, Spark oder Trino und sorgst dafür, dass Daten zuverlässig, performant und nachvollziehbar fließen. * Ausbildung & Erfahrung: Du bringst ein abgeschlossenes Studium (oder eine vergleichbare Qualifikation) mit und hast bereits praktisch mit Komponenten wie Spark, Kafka, Airflow o. Ä. gearbeitet - idealerweise in produktionsnahen Projekten.
                          Data-Pipelines umsetzen: Du konzipierst und implementierst robuste Data-Pipelines, Data Ingest und Data-Processing auf Basis von Open-Source-Komponenten wie Apache Airflow, Kafka, Spark oder Trino und sorgst dafür, dass Daten zuverlässig, performant und nachvollziehbar fließen. * Ausbildung & Erfahrung: Du bringst ein abgeschlossenes Studium (oder eine vergleichbare Qualifikation) mit und hast bereits praktisch mit Komponenten wie Spark, Kafka, Airflow o. Ä. gearbeitet - idealerweise in produktionsnahen Projekten.
                          mehr

                          Cloud Native Data Engineer (all genders)

                          adesso SE
                          Augsburg, Karlsruhe, München, Stuttgart, Ulm, Walldorf
                          Teilweise Home-Office
                          Anschreiben nicht erforderlich
                          Data-Pipelines umsetzen: Du konzipierst und implementierst robuste Data-Pipelines, Data Ingest und Data-Processing auf Basis von Open-Source-Komponenten wie Apache Airflow, Kafka, Spark oder Trino und sorgst dafür, dass Daten zuverlässig, performant und nachvollziehbar fließen. * Ausbildung & Erfahrung: Du bringst ein abgeschlossenes Studium (oder eine vergleichbare Qualifikation) mit und hast bereits praktisch mit Komponenten wie Spark, Kafka, Airflow o. Ä. gearbeitet - idealerweise in produktionsnahen Projekten.
                          Data-Pipelines umsetzen: Du konzipierst und implementierst robuste Data-Pipelines, Data Ingest und Data-Processing auf Basis von Open-Source-Komponenten wie Apache Airflow, Kafka, Spark oder Trino und sorgst dafür, dass Daten zuverlässig, performant und nachvollziehbar fließen. * Ausbildung & Erfahrung: Du bringst ein abgeschlossenes Studium (oder eine vergleichbare Qualifikation) mit und hast bereits praktisch mit Komponenten wie Spark, Kafka, Airflow o. Ä. gearbeitet - idealerweise in produktionsnahen Projekten.
                          mehr
                          Du hast kein Problem damit, dich in neue Technologien einzuarbeiten und bringst Interesse mit an Big Data (Hadoop, Spark, Kafka), Cloud-Umgebungen (AWS, Azure), Containerisierung (Docker/Kubernetes), MLOps-Tools (MLflow, Kubeflow, Seldon) oder semantische Technologien (Ontologien, Knowledge Graphs, SPARQL/Cypher) – alles kein Muss, aber gern gesehen.
                          Du hast kein Problem damit, dich in neue Technologien einzuarbeiten und bringst Interesse mit an Big Data (Hadoop, Spark, Kafka), Cloud-Umgebungen (AWS, Azure), Containerisierung (Docker/Kubernetes), MLOps-Tools (MLflow, Kubeflow, Seldon) oder semantische Technologien (Ontologien, Knowledge Graphs, SPARQL/Cypher) – alles kein Muss, aber gern gesehen.
                          mehr
                          Kenntnis und Erfahrung mit Technologien wie Databricks, Lakehouse-Architektur, Unity Catalog, PySpark, Spark SQL, ETL-Pipelines, Datenmodellierung, Medallion-Architektur und Git
                          Kenntnis und Erfahrung mit Technologien wie Databricks, Lakehouse-Architektur, Unity Catalog, PySpark, Spark SQL, ETL-Pipelines, Datenmodellierung, Medallion-Architektur und Git
                          mehr
                          Anschreiben nicht erforderlich
                          Du besitzt sehr gute Kenntnisse im Bereich Linux, Netzwerk und im Betrieb von Applikationen auf OpenShift, idealerweise hast du auch schon Erfahrung mit Spark und im Umgang mit Public Cloud Providern (z.B. Integration von Databricks, Cloud-Kubernetes-Services) gesammelt
                          Du besitzt sehr gute Kenntnisse im Bereich Linux, Netzwerk und im Betrieb von Applikationen auf OpenShift, idealerweise hast du auch schon Erfahrung mit Spark und im Umgang mit Public Cloud Providern (z.B. Integration von Databricks, Cloud-Kubernetes-Services) gesammelt
                          mehr
                          Proficiency in at least one of the following technologies: SQL, Python, Java, or Scala, as well as experience with data processing frameworks (e.g., Spark)
                          Proficiency in at least one of the following technologies: SQL, Python, Java, or Scala, as well as experience with data processing frameworks (e.g., Spark)
                          mehr

                          Snowflake Data Architect (all genders)

                          adesso SE
                          Augsburg, Karlsruhe, Koblenz, München, Nürnberg, Saarbrücken, Stuttgart, Ulm, Walldorf
                          Anschreiben nicht erforderlich
                          ETL/ELT-Methodik: Du entwickelst robuste Batch- und Streaming-Datenpipelines mit hoher Datenqualität, kennst dich mit Integrations-Tools wie dbt, Fivetran, Matillion, Talend oder Informatica aus und verfügst über Programmierkenntnisse in SQL, Python, Java, Scala oder Spark.
                          ETL/ELT-Methodik: Du entwickelst robuste Batch- und Streaming-Datenpipelines mit hoher Datenqualität, kennst dich mit Integrations-Tools wie dbt, Fivetran, Matillion, Talend oder Informatica aus und verfügst über Programmierkenntnisse in SQL, Python, Java, Scala oder Spark.
                          mehr

                          Cloud Data Engineer AWS / Google Cloud (all genders)

                          adesso SE
                          Augsburg, Karlsruhe, Koblenz, München, Nürnberg, Saarbrücken, Stuttgart, Ulm, Walldorf
                          Anschreiben nicht erforderlich
                          Cloud-Erfahrung: Du hast bereits praktische Erfahrungen mit den Datenservices von AWS, GCP, Kafka, Spark oder Databricks gesammelt.
                          Cloud-Erfahrung: Du hast bereits praktische Erfahrungen mit den Datenservices von AWS, GCP, Kafka, Spark oder Databricks gesammelt.
                          mehr

                          Snowflake Data Engineer (all genders)

                          adesso SE
                          Augsburg, Karlsruhe, Koblenz, München, Nürnberg, Saarbrücken, Stuttgart, Ulm, Walldorf
                          Anschreiben nicht erforderlich
                          ETL/ELT- Methodik: Du entwickelst mühelos Batch- und Streaming-Datenpipelines mit einem starken Fokus auf Robustheit und Datenqualität und verfügst zudem über einen umfassenden Marktüberblick gängiger Integrations-Tools wie dbt, Fivetran, Matillion, Talend und Informatica, während du gleichzeitig Kenntnisse in einer dieser Sprachen mitbringst: SQL, Python, Java, Scala oder Spark.
                          ETL/ELT- Methodik: Du entwickelst mühelos Batch- und Streaming-Datenpipelines mit einem starken Fokus auf Robustheit und Datenqualität und verfügst zudem über einen umfassenden Marktüberblick gängiger Integrations-Tools wie dbt, Fivetran, Matillion, Talend und Informatica, während du gleichzeitig Kenntnisse in einer dieser Sprachen mitbringst: SQL, Python, Java, Scala oder Spark.
                          mehr

                          Data Scientist (m/f/d)

                          Finmatics Deutschland GmbH
                          Munich
                          Teilweise Home-Office
                          Familiarity with big data technologies like Spark or Hadoop or any other commercial Data Warehouse and/or Data Lake technologies
                          Familiarity with big data technologies like Spark or Hadoop or any other commercial Data Warehouse and/or Data Lake technologies
                          mehr
                          NEU

                          Beliebte Jobs


                          mehr

                          Häufig gestellte Fragen

                          Wie viele offene Stellenangebote gibt es für Apache Spark Jobs in Süddeutschland?
                          Aktuell gibt es auf StepStone 73 offene Stellenanzeigen für Apache Spark Jobs in Süddeutschland.

                          Welche anderen Orte sind auch beliebt für Leute, die in Süddeutschland einen Apache Spark Job suchen?
                          Folgende Orte sind auch interessant für Leute, die in Süddeutschland einen Apache Spark Job suchen: München, Stuttgart, Nürnberg.

                          Welche anderen Jobs sind beliebt bei Kandidaten, die nach Apache Spark Jobs in Süddeutschland suchen?
                          Wer nach Apache Spark Jobs in Süddeutschland sucht, sucht häufig auch nach Data Engineer, Business Intelligence, CISSP.

                          Welche Fähigkeiten braucht man für Apache Spark Jobs in Süddeutschland??
                          Für einen Apache Spark Job in Süddeutschland sind folgende Fähigkeiten von Vorteil: Deutsch, Englisch, Kommunikation, Python, Apache Spark.

                          Wie viele offene Teilzeit-Stellen gibt es für Apache Spark Jobs in Süddeutschland?
                          Für Apache Spark Jobs in Süddeutschland gibt es aktuell 12 offene Teilzeitstellen.