Schnelle Bewerbung
12
Erscheinungsdatum
Home-Office-Optionen
Pendelzeit
Bewerbungsart
Sprache
Fähigkeiten
Berufsfeld
Branche
Region
Städte
Berufserfahrung
Anstellungsart
Arbeitszeit

Filter

SortierungRelevanz
Erscheinungsdatum
    Home-Office-Optionen
      Gehalt
      Pendelzeit
      Bewerbungsart
        Sprache
          Fähigkeiten
            Berufsfeld
              Branche
                Region
                  Städte
                    Berufserfahrung
                      Anstellungsart
                        Arbeitszeit

                          Beliebte Jobs

                          • Data Engineer
                          • Business Intelligence
                          • Technologie
                          • CISSP
                          • Angular
                          • SAP EWM
                          • DNA
                          • IOT
                          • DevOps
                          • IOS
                          • Data Engineering
                          • Qlik
                          • Spark
                          • GitHub
                          • Apache
                          • Scala

                          mehr

                          Erscheinungsdatum

                          Neuer als 24h
                          3


                          Gehalt

                          Leg fest, wie viel du mindestens verdienen willst.

                          Pendelzeit

                          Fähigkeiten








                          Berufsfeld

                          IT
                          32






                          33 Treffer für Apache Spark Jobs in Hessen im Umkreis von 30 km

                          Senior Data Architect (w/m/x)

                          NTT DATA
                          München, Frankfurt a. M., Stuttgart, Köln, Hamburg, Ettlingen, Wolfsburg, Erfurt, Rosenheim, Berlin
                          Teilweise Home-Office
                          Anschreiben nicht erforderlich
                          Schnelle Bewerbung
                          Du hast Erfahrung in der Konzeption und Umsetzung Cloud-basierter Datenplattformen (AWS, Azure, Google Cloud) sowie mit Big Data- und Streaming-Technologien und kennst dich mit modernen Datenarchitekturen (z. B. Data Mesh, Event-Driven Architecture), Architekturframeworks (z. B. TOGAF) und Technologien wie SQL, Python, Spark und Kafka aus.
                          Du hast Erfahrung in der Konzeption und Umsetzung Cloud-basierter Datenplattformen (AWS, Azure, Google Cloud) sowie mit Big Data- und Streaming-Technologien und kennst dich mit modernen Datenarchitekturen (z. B. Data Mesh, Event-Driven Architecture), Architekturframeworks (z. B. TOGAF) und Technologien wie SQL, Python, Spark und Kafka aus.
                          mehr

                          Data Engineer (m/w/d) – Informatica / ETL

                          PTA GmbH
                          Berlin, Dresden, Düsseldorf, Frankfurt, Hamburg, Karlsruhe, Kassel, Köln, Mannheim, München, u.a.
                          Teilweise Home-Office
                          Bereitschaft, sich im jeweiligen Kundenkontext durch gezielte Einarbeitung Know-how in verschiedenen ETL-Tools (wie Informatica PowerCenter, Apache Spark oder Qlik/Talend) sowie weiteren Programmiersprachen und Technologien aufzubauen
                          Bereitschaft, sich im jeweiligen Kundenkontext durch gezielte Einarbeitung Know-how in verschiedenen ETL-Tools (wie Informatica PowerCenter, Apache Spark oder Qlik/Talend) sowie weiteren Programmiersprachen und Technologien aufzubauen
                          mehr

                          AI Engineer (w|m|d)

                          BridgingIT GmbH
                          München, Frankfurt a.M., Mannheim, Stuttgart
                          Teilweise Home-Office
                          Anschreiben nicht erforderlich
                          Schnelle Bewerbung
                          Du hast einschlägige Erfahrung im Umgang mit technologierelevanten Tools und Frameworks wie z.B. Tensorflow, Pytorch, Keras, LangChain, LlamaIndex, OpenAI, Spark und Scala.
                          Du hast einschlägige Erfahrung im Umgang mit technologierelevanten Tools und Frameworks wie z.B. Tensorflow, Pytorch, Keras, LangChain, LlamaIndex, OpenAI, Spark und Scala.
                          mehr

                          Cloud Native Data Engineer (all genders)

                          adesso SE
                          Aachen, Frankfurt, Koblenz, Saarbrücken, Nürnberg
                          Anschreiben nicht erforderlich
                          Data-Pipelines umsetzen: Du konzipierst und implementierst robuste Data-Pipelines, Data Ingest und Data-Processing auf Basis von Open-Source-Komponenten wie Apache Airflow, Kafka, Spark oder Trino und sorgst dafür, dass Daten zuverlässig, performant und nachvollziehbar fließen. * Ausbildung & Erfahrung: Du bringst ein abgeschlossenes Studium (oder eine vergleichbare Qualifikation) mit und hast bereits praktisch mit Komponenten wie Spark, Kafka, Airflow o. Ä. gearbeitet - idealerweise in produktionsnahen Projekten.
                          Data-Pipelines umsetzen: Du konzipierst und implementierst robuste Data-Pipelines, Data Ingest und Data-Processing auf Basis von Open-Source-Komponenten wie Apache Airflow, Kafka, Spark oder Trino und sorgst dafür, dass Daten zuverlässig, performant und nachvollziehbar fließen. * Ausbildung & Erfahrung: Du bringst ein abgeschlossenes Studium (oder eine vergleichbare Qualifikation) mit und hast bereits praktisch mit Komponenten wie Spark, Kafka, Airflow o. Ä. gearbeitet - idealerweise in produktionsnahen Projekten.
                          mehr

                          Senior Big Data Architect Public Sector (m/w/d)

                          Sopra Steria
                          bundesweit, Berlin, Frankfurt, Hamburg, Köln, Leipzig, München
                          Teilweise Home-Office
                          Anschreiben nicht erforderlich
                          Fundierte Kenntnisse in modernen Big-Data-Technologien und -Plattformen (z. B. Databricks, Cloudera, Hadoop, Spark, Kafka, Azure Data Services, Fabric)
                          Fundierte Kenntnisse in modernen Big-Data-Technologien und -Plattformen (z. B. Databricks, Cloudera, Hadoop, Spark, Kafka, Azure Data Services, Fabric)
                          mehr

                          Snowflake Data Architect (all genders)

                          adesso SE
                          Aachen, Bonn, Dortmund, Düsseldorf, Essen, Frankfurt, Hannover, Köln, Münster, Paderborn, Siegen
                          Anschreiben nicht erforderlich
                          ETL/ELT-Methodik: Du entwickelst robuste Batch- und Streaming-Datenpipelines mit hoher Datenqualität, kennst dich mit Integrations-Tools wie dbt, Fivetran, Matillion, Talend oder Informatica aus und verfügst über Programmierkenntnisse in SQL, Python, Java, Scala oder Spark.
                          ETL/ELT-Methodik: Du entwickelst robuste Batch- und Streaming-Datenpipelines mit hoher Datenqualität, kennst dich mit Integrations-Tools wie dbt, Fivetran, Matillion, Talend oder Informatica aus und verfügst über Programmierkenntnisse in SQL, Python, Java, Scala oder Spark.
                          mehr

                          Snowflake Data Engineer (all genders)

                          adesso SE
                          Aachen, Bonn, Dortmund, Düsseldorf, Essen, Frankfurt, Hannover, Köln, Münster, Paderborn, Siegen
                          Teilweise Home-Office
                          Anschreiben nicht erforderlich
                          ETL/ELT- Methodik: Du entwickelst mühelos Batch- und Streaming-Datenpipelines mit einem starken Fokus auf Robustheit und Datenqualität und verfügst zudem über einen umfassenden Marktüberblick gängiger Integrations-Tools wie dbt, Fivetran, Matillion, Talend und Informatica, während du gleichzeitig Kenntnisse in einer dieser Sprachen mitbringst: SQL, Python, Java, Scala oder Spark.
                          ETL/ELT- Methodik: Du entwickelst mühelos Batch- und Streaming-Datenpipelines mit einem starken Fokus auf Robustheit und Datenqualität und verfügst zudem über einen umfassenden Marktüberblick gängiger Integrations-Tools wie dbt, Fivetran, Matillion, Talend und Informatica, während du gleichzeitig Kenntnisse in einer dieser Sprachen mitbringst: SQL, Python, Java, Scala oder Spark.
                          mehr

                          Cloud Data Engineer - Databricks (all genders)

                          adesso SE
                          Aachen, Bonn, Dortmund, Düsseldorf, Essen, Frankfurt, Hannover, Köln, Münster, Paderborn, Siegen
                          Teilweise Home-Office
                          Anschreiben nicht erforderlich
                          Technologie-Know-how: Du beherrschst Databricks sowie Spark, PySpark, Delta Lake und Unity Catalog sicher.
                          Technologie-Know-how: Du beherrschst Databricks sowie Spark, PySpark, Delta Lake und Unity Catalog sicher.
                          mehr
                          Schnelle Bewerbung
                          Erste Erfahrungen im Aufbau von Data Pipelines auf Basis eines Hadoop-Clusters (Spark, Kafka, NiFi) sind vorteilhaft - Kenntnisse über Data-Orchestrierung-Frameworks (wie Apache Airflow) sind vorteilhaft - Streaming-Plattformen und Technologien wie Kafka und Spark
                          Erste Erfahrungen im Aufbau von Data Pipelines auf Basis eines Hadoop-Clusters (Spark, Kafka, NiFi) sind vorteilhaft - Kenntnisse über Data-Orchestrierung-Frameworks (wie Apache Airflow) sind vorteilhaft - Streaming-Plattformen und Technologien wie Kafka und Spark
                          mehr

                          JAVA / Spring Softwareentwickler (mwd)

                          Vesterling AG
                          Karlsruhe, Berlin, Hamburg, München, Köln, Frankfurt am Main, Mannheim, Stuttgart, Deutschland
                          Kenntnisse in Spark, Kafka, Redis, SQL und der Entwicklung von REST APIs sind hilfreich
                          Kenntnisse in Spark, Kafka, Redis, SQL und der Entwicklung von REST APIs sind hilfreich
                          NEU

                          Noch nichts dabei? Es gibt 20 weitere Jobs, die zu deiner Suche passen könnten

                          Implementierung passgenauer BI-/Analytics-Lösungen unter Verwendung von Spark-Plattformen und relationalen Datenbanken (Synapse, Databricks, SQL), Plattformen und Orchestrierungen (MS Fabric, Azure Data Factory, dbt) und Visualisierungen (Power BI)
                          Implementierung passgenauer BI-/Analytics-Lösungen unter Verwendung von Spark-Plattformen und relationalen Datenbanken (Synapse, Databricks, SQL), Plattformen und Orchestrierungen (MS Fabric, Azure Data Factory, dbt) und Visualisierungen (Power BI)
                          mehr
                          Sie sind vertraut mit Monitoring-Tools (Prometheus, Grafana, Geneos) sowie Logging-Lösungen wie dem ELK Stack; auch Apache HTTP Server oder NGINX sind Ihnen geläufig.
                          Sie sind vertraut mit Monitoring-Tools (Prometheus, Grafana, Geneos) sowie Logging-Lösungen wie dem ELK Stack; auch Apache HTTP Server oder NGINX sind Ihnen geläufig.
                          mehr

                          Software Engineer Enterprise Search (all genders)

                          adesso SE
                          Aachen, Bonn, Dortmund, Düsseldorf, Essen, Frankfurt, Hannover, Köln, Münster, Paderborn, Siegen
                          Teilweise Home-Office
                          Anschreiben nicht erforderlich
                          Technologie-Expertise: Du konntest praktische Erfahrung in der Verwendung von Enterprise-Search-Technologien (z.B. Apache Solr, Elasticsearch, SINEQUA, iFinder, Mindbreeze, Lucidworks, Google, Azure AI Search, usw.) sammeln.
                          Technologie-Expertise: Du konntest praktische Erfahrung in der Verwendung von Enterprise-Search-Technologien (z.B. Apache Solr, Elasticsearch, SINEQUA, iFinder, Mindbreeze, Lucidworks, Google, Azure AI Search, usw.) sammeln.
                          mehr

                          Senior Business Architect & Team Lead – IT-Systemintegration (m/w/d) im Team Technology Consulting

                          x1F GmbH
                          bundesweit, Düsseldorf, Frankfurt, Hamburg, Köln, München, Home-Office
                          Teilweise Home-Office
                          Softwareentwicklung: Sehr gute Kenntnisse in mindestens einer modernen Programmiersprache, zum Beispiel Java, sowie Erfahrung mit Frameworks wie Spring, Apache Camel oder Kafka.
                          Softwareentwicklung: Sehr gute Kenntnisse in mindestens einer modernen Programmiersprache, zum Beispiel Java, sowie Erfahrung mit Frameworks wie Spring, Apache Camel oder Kafka.
                          mehr

                          DevOps Engineer (all genders)

                          adesso insurance solutions GmbH
                          Berlin, Bonn, Dortmund, Düsseldorf, Frankfurt, Hamburg, Köln, Leipzig, München, Nürnberg, Stuttgart
                          Teilweise Home-Office
                          Technologie-Stack: Erfahrungen im Bereich von IT Plattformen und Anwendungsbetrieb sowie im Umgang mit Bash, Batch, PowerShell, Ansible, Windows Servern, einer oder mehreren Linux-Distributionen, (Apache) Webserver und Tomcat hast du bereits gesammelt.
                          Technologie-Stack: Erfahrungen im Bereich von IT Plattformen und Anwendungsbetrieb sowie im Umgang mit Bash, Batch, PowerShell, Ansible, Windows Servern, einer oder mehreren Linux-Distributionen, (Apache) Webserver und Tomcat hast du bereits gesammelt.
                          mehr

                          Cloud Engineer (m/w/d)

                          Sopra Steria
                          bundesweit, Berlin, Frankfurt, Hamburg, Köln, Leipzig, München
                          Teilweise Home-Office
                          Anschreiben nicht erforderlich
                          Verschiedene Message-Queue-Technologien wie RabbitMQ, Apache Kafka, AWS SQS oder ActiveMQ hast du bereits produktiv eingesetzt
                          Verschiedene Message-Queue-Technologien wie RabbitMQ, Apache Kafka, AWS SQS oder ActiveMQ hast du bereits produktiv eingesetzt
                          mehr

                          Beliebte Jobs


                          mehr

                          Häufig gestellte Fragen

                          Wie viele offene Stellenangebote gibt es für Apache Spark Jobs in Hessen?
                          Aktuell gibt es auf StepStone 33 offene Stellenanzeigen für Apache Spark Jobs in Hessen.

                          Welche anderen Orte sind auch beliebt für Leute, die in Hessen einen Apache Spark Job suchen?
                          Folgende Orte sind auch interessant für Leute, die in Hessen einen Apache Spark Job suchen: Frankfurt am Main, Kassel, Wiesbaden.

                          Welche anderen Jobs sind beliebt bei Kandidaten, die nach Apache Spark Jobs in Hessen suchen?
                          Wer nach Apache Spark Jobs in Hessen sucht, sucht häufig auch nach Data Engineer, Business Intelligence, Technologie.

                          Welche Fähigkeiten braucht man für Apache Spark Jobs in Hessen??
                          Für einen Apache Spark Job in Hessen sind folgende Fähigkeiten von Vorteil: Deutsch, Englisch, Python, Apache Spark, Kommunikation.

                          Wie viele offene Teilzeit-Stellen gibt es für Apache Spark Jobs in Hessen?
                          Für Apache Spark Jobs in Hessen gibt es aktuell 5 offene Teilzeitstellen.