Schnelle Bewerbung
6
Erscheinungsdatum
Home-Office-Optionen
Pendelzeit
Bewerbungsart
Sprache
Fähigkeiten
Berufsfeld
Branche
Region
Städte
Berufserfahrung
Anstellungsart
Arbeitszeit

Filter

SortierungRelevanz
Erscheinungsdatum
    Home-Office-Optionen
      Gehalt
      Pendelzeit
      Bewerbungsart
        Sprache
          Fähigkeiten
            Berufsfeld
              Branche
                Region
                  Städte
                    Berufserfahrung
                      Anstellungsart
                        Arbeitszeit

                          Beliebte Jobs

                          • Data Engineer
                          • CISSP
                          • Angular
                          • IBM
                          • Apache Spark
                          • IOT
                          • Tableau
                          • GPU
                          • DevOps
                          • Spanien
                          • IOS
                          • Data Engineering
                          • ARAG
                          • NATO
                          • Qlik
                          • Intune

                          mehr

                          Erscheinungsdatum

                          Neuer als 24h
                          2


                          Gehalt

                          Leg fest, wie viel du mindestens verdienen willst.

                          Pendelzeit

                          Fähigkeiten








                          Berufsfeld

                          IT
                          27






                          Spark: 34 Jobs & Stellenangebote in Bayern

                          Data Engineer (w/m/d)

                          TÜV SÜD
                          München
                          Teilweise Home-Office
                          Proficiency in at least one of the following technologies: SQL, Python, Java, or Scala, as well as experience with data processing frameworks (e.g., Spark)
                          Proficiency in at least one of the following technologies: SQL, Python, Java, or Scala, as well as experience with data processing frameworks (e.g., Spark)
                          mehr

                          Werkstudent:in* im Bereich Data & AI

                          inovex GmbH
                          Karlsruhe, Köln, München, Hamburg, Stuttgart, Berlin, Pforzheim, Erlangen
                          Teilweise Home-Office
                          Databricks, Spark, Airflow oder Snowflake
                          Databricks, Spark, Airflow oder Snowflake
                          NEU

                          Senior Data Architect (w/m/x)

                          NTT DATA
                          München, Frankfurt a. M., Stuttgart, Köln, Hamburg, Ettlingen, Wolfsburg, Erfurt, Rosenheim, Berlin
                          Teilweise Home-Office
                          Anschreiben nicht erforderlich
                          Schnelle Bewerbung
                          Du hast Erfahrung in der Konzeption und Umsetzung Cloud-basierter Datenplattformen (AWS, Azure, Google Cloud) sowie mit Big Data- und Streaming-Technologien und kennst dich mit modernen Datenarchitekturen (z. B. Data Mesh, Event-Driven Architecture), Architekturframeworks (z. B. TOGAF) und Technologien wie SQL, Python, Spark und Kafka aus.
                          Du hast Erfahrung in der Konzeption und Umsetzung Cloud-basierter Datenplattformen (AWS, Azure, Google Cloud) sowie mit Big Data- und Streaming-Technologien und kennst dich mit modernen Datenarchitekturen (z. B. Data Mesh, Event-Driven Architecture), Architekturframeworks (z. B. TOGAF) und Technologien wie SQL, Python, Spark und Kafka aus.
                          mehr

                          Search Platform Engineer Senior (m/w/d)

                          Würth IT GmbH
                          Bad Mergentheim bei Würzburg, Waldzimmern-Niedernhall bei Heilbronn, Schorndorf bei Stuttgart
                          Teilweise Home-Office
                          Anschreiben nicht erforderlich
                          hast fundierte Kenntnisse in AWS sowie Erfahrung im Aufbau robuster Datenpipelines, idealerweise mit Spark oder Databricks.
                          hast fundierte Kenntnisse in AWS sowie Erfahrung im Aufbau robuster Datenpipelines, idealerweise mit Spark oder Databricks.
                          mehr

                          AI Engineer (w|m|d)

                          BridgingIT GmbH
                          München, Frankfurt a.M., Mannheim, Stuttgart
                          Teilweise Home-Office
                          Anschreiben nicht erforderlich
                          Schnelle Bewerbung
                          Du hast einschlägige Erfahrung im Umgang mit technologierelevanten Tools und Frameworks wie z.B. Tensorflow, Pytorch, Keras, LangChain, LlamaIndex, OpenAI, Spark und Scala.
                          Du hast einschlägige Erfahrung im Umgang mit technologierelevanten Tools und Frameworks wie z.B. Tensorflow, Pytorch, Keras, LangChain, LlamaIndex, OpenAI, Spark und Scala.
                          mehr

                          Senior Big Data Architect Public Sector (m/w/d)

                          Sopra Steria
                          bundesweit, Berlin, Frankfurt, Hamburg, Köln, Leipzig, München
                          Teilweise Home-Office
                          Anschreiben nicht erforderlich
                          Fundierte Kenntnisse in modernen Big-Data-Technologien und -Plattformen (z. B. Databricks, Cloudera, Hadoop, Spark, Kafka, Azure Data Services, Fabric)
                          Fundierte Kenntnisse in modernen Big-Data-Technologien und -Plattformen (z. B. Databricks, Cloudera, Hadoop, Spark, Kafka, Azure Data Services, Fabric)
                          mehr

                          Data Engineer (m/w/d) – Informatica / ETL

                          PTA GmbH
                          Berlin, Dresden, Düsseldorf, Frankfurt, Hamburg, Karlsruhe, Kassel, Köln, Mannheim, München, u.a.
                          Teilweise Home-Office
                          Bereitschaft, sich im jeweiligen Kundenkontext durch gezielte Einarbeitung Know-how in verschiedenen ETL-Tools (wie Informatica PowerCenter, Apache Spark oder Qlik/Talend) sowie weiteren Programmiersprachen und Technologien aufzubauen
                          Bereitschaft, sich im jeweiligen Kundenkontext durch gezielte Einarbeitung Know-how in verschiedenen ETL-Tools (wie Informatica PowerCenter, Apache Spark oder Qlik/Talend) sowie weiteren Programmiersprachen und Technologien aufzubauen
                          mehr
                          Du hast kein Problem damit, dich in neue Technologien einzuarbeiten und bringst Interesse mit an Big Data (Hadoop, Spark, Kafka), Cloud-Umgebungen (AWS, Azure), Containerisierung (Docker/Kubernetes), MLOps-Tools (MLflow, Kubeflow, Seldon) oder semantische Technologien (Ontologien, Knowledge Graphs, SPARQL/Cypher) – alles kein Muss, aber gern gesehen.
                          Du hast kein Problem damit, dich in neue Technologien einzuarbeiten und bringst Interesse mit an Big Data (Hadoop, Spark, Kafka), Cloud-Umgebungen (AWS, Azure), Containerisierung (Docker/Kubernetes), MLOps-Tools (MLflow, Kubeflow, Seldon) oder semantische Technologien (Ontologien, Knowledge Graphs, SPARQL/Cypher) – alles kein Muss, aber gern gesehen.
                          mehr

                          Snowflake Data Architect (all genders)

                          adesso SE
                          Augsburg, Karlsruhe, Koblenz, München, Nürnberg, Saarbrücken, Stuttgart, Ulm, Walldorf
                          Anschreiben nicht erforderlich
                          ETL/ELT-Methodik: Du entwickelst robuste Batch- und Streaming-Datenpipelines mit hoher Datenqualität, kennst dich mit Integrations-Tools wie dbt, Fivetran, Matillion, Talend oder Informatica aus und verfügst über Programmierkenntnisse in SQL, Python, Java, Scala oder Spark.
                          ETL/ELT-Methodik: Du entwickelst robuste Batch- und Streaming-Datenpipelines mit hoher Datenqualität, kennst dich mit Integrations-Tools wie dbt, Fivetran, Matillion, Talend oder Informatica aus und verfügst über Programmierkenntnisse in SQL, Python, Java, Scala oder Spark.
                          mehr

                          Cloud Native Data Engineer (all genders)

                          adesso SE
                          Augsburg, Karlsruhe, München, Stuttgart, Ulm, Walldorf
                          Teilweise Home-Office
                          Anschreiben nicht erforderlich
                          Data-Pipelines umsetzen: Du konzipierst und implementierst robuste Data-Pipelines, Data Ingest und Data-Processing auf Basis von Open-Source-Komponenten wie Apache Airflow, Kafka, Spark oder Trino und sorgst dafür, dass Daten zuverlässig, performant und nachvollziehbar fließen. * Ausbildung & Erfahrung: Du bringst ein abgeschlossenes Studium (oder eine vergleichbare Qualifikation) mit und hast bereits praktisch mit Komponenten wie Spark, Kafka, Airflow o. Ä. gearbeitet - idealerweise in produktionsnahen Projekten.
                          Data-Pipelines umsetzen: Du konzipierst und implementierst robuste Data-Pipelines, Data Ingest und Data-Processing auf Basis von Open-Source-Komponenten wie Apache Airflow, Kafka, Spark oder Trino und sorgst dafür, dass Daten zuverlässig, performant und nachvollziehbar fließen. * Ausbildung & Erfahrung: Du bringst ein abgeschlossenes Studium (oder eine vergleichbare Qualifikation) mit und hast bereits praktisch mit Komponenten wie Spark, Kafka, Airflow o. Ä. gearbeitet - idealerweise in produktionsnahen Projekten.
                          mehr

                          Cloud Native Data Engineer (all genders)

                          adesso SE
                          Aachen, Frankfurt, Koblenz, Saarbrücken, Nürnberg
                          Anschreiben nicht erforderlich
                          Data-Pipelines umsetzen: Du konzipierst und implementierst robuste Data-Pipelines, Data Ingest und Data-Processing auf Basis von Open-Source-Komponenten wie Apache Airflow, Kafka, Spark oder Trino und sorgst dafür, dass Daten zuverlässig, performant und nachvollziehbar fließen. * Ausbildung & Erfahrung: Du bringst ein abgeschlossenes Studium (oder eine vergleichbare Qualifikation) mit und hast bereits praktisch mit Komponenten wie Spark, Kafka, Airflow o. Ä. gearbeitet - idealerweise in produktionsnahen Projekten.
                          Data-Pipelines umsetzen: Du konzipierst und implementierst robuste Data-Pipelines, Data Ingest und Data-Processing auf Basis von Open-Source-Komponenten wie Apache Airflow, Kafka, Spark oder Trino und sorgst dafür, dass Daten zuverlässig, performant und nachvollziehbar fließen. * Ausbildung & Erfahrung: Du bringst ein abgeschlossenes Studium (oder eine vergleichbare Qualifikation) mit und hast bereits praktisch mit Komponenten wie Spark, Kafka, Airflow o. Ä. gearbeitet - idealerweise in produktionsnahen Projekten.
                          mehr
                          Senskten 15 x 7,67 EUR Ticket Restaurant Schecks, die du in Liebesparks, Cafés, Restaurants und Bäckereien feuerweite weit wave ventil sk.
                          Senskten 15 x 7,67 EUR Ticket Restaurant Schecks, die du in Liebesparks, Cafés, Restaurants und Bäckereien feuerweite weit wave ventil sk.
                          mehr

                          Cloud Data Engineer AWS / Google Cloud (all genders)

                          adesso SE
                          Augsburg, Karlsruhe, Koblenz, München, Nürnberg, Saarbrücken, Stuttgart, Ulm, Walldorf
                          Anschreiben nicht erforderlich
                          Cloud-Erfahrung: Du hast bereits praktische Erfahrungen mit den Datenservices von AWS, GCP, Kafka, Spark oder Databricks gesammelt.
                          Cloud-Erfahrung: Du hast bereits praktische Erfahrungen mit den Datenservices von AWS, GCP, Kafka, Spark oder Databricks gesammelt.
                          mehr

                          Snowflake Data Engineer (all genders)

                          adesso SE
                          Augsburg, Karlsruhe, Koblenz, München, Nürnberg, Saarbrücken, Stuttgart, Ulm, Walldorf
                          Anschreiben nicht erforderlich
                          ETL/ELT- Methodik: Du entwickelst mühelos Batch- und Streaming-Datenpipelines mit einem starken Fokus auf Robustheit und Datenqualität und verfügst zudem über einen umfassenden Marktüberblick gängiger Integrations-Tools wie dbt, Fivetran, Matillion, Talend und Informatica, während du gleichzeitig Kenntnisse in einer dieser Sprachen mitbringst: SQL, Python, Java, Scala oder Spark.
                          ETL/ELT- Methodik: Du entwickelst mühelos Batch- und Streaming-Datenpipelines mit einem starken Fokus auf Robustheit und Datenqualität und verfügst zudem über einen umfassenden Marktüberblick gängiger Integrations-Tools wie dbt, Fivetran, Matillion, Talend und Informatica, während du gleichzeitig Kenntnisse in einer dieser Sprachen mitbringst: SQL, Python, Java, Scala oder Spark.
                          mehr
                          Implementierung passgenauer BI-/Analytics-Lösungen unter Verwendung von Spark-Plattformen und relationalen Datenbanken (Synapse, Databricks, SQL), Plattformen und Orchestrierungen (MS Fabric, Azure Data Factory, dbt) und Visualisierungen (Power BI)
                          Implementierung passgenauer BI-/Analytics-Lösungen unter Verwendung von Spark-Plattformen und relationalen Datenbanken (Synapse, Databricks, SQL), Plattformen und Orchestrierungen (MS Fabric, Azure Data Factory, dbt) und Visualisierungen (Power BI)
                          mehr

                          Data Scientist (m/f/d)

                          Finmatics Deutschland GmbH
                          Munich
                          Teilweise Home-Office
                          Familiarity with big data technologies like Spark or Hadoop or any other commercial Data Warehouse and/or Data Lake technologies
                          Familiarity with big data technologies like Spark or Hadoop or any other commercial Data Warehouse and/or Data Lake technologies
                          mehr

                          Beliebte Jobs

                          • Data Engineer
                          • CISSP
                          • Angular
                          • IBM
                          • Apache Spark
                          • IOT
                          • Tableau
                          • GPU
                          • DevOps
                          • Spanien
                          • IOS
                          • Data Engineering
                          • ARAG
                          • NATO
                          • Qlik
                          • Intune

                          mehr

                          Häufig gestellte Fragen

                          Wie viele offene Stellenangebote gibt es für Spark Jobs in Bayern?
                          Aktuell gibt es auf StepStone 34 offene Stellenanzeigen für Spark Jobs in Bayern.

                          Welche anderen Orte sind auch beliebt für Leute, die in Bayern einen Spark Job suchen?
                          Folgende Orte sind auch interessant für Leute, die in Bayern einen Spark Job suchen: München, Nürnberg, Augsburg.

                          Welche anderen Jobs sind beliebt bei Kandidaten, die nach Spark Jobs in Bayern suchen?
                          Wer nach Spark Jobs in Bayern sucht, sucht häufig auch nach Data Engineer, CISSP, Angular.

                          Welche Fähigkeiten braucht man für Spark Jobs in Bayern??
                          Für einen Spark Job in Bayern sind folgende Fähigkeiten von Vorteil: Apache Spark, Python, Deutsch, Kommunikation, Englisch.

                          Wie viele offene Teilzeit-Stellen gibt es für Spark Jobs in Bayern?
                          Für Spark Jobs in Bayern gibt es aktuell 6 offene Teilzeitstellen.