Schnelle Bewerbung
7
Erscheinungsdatum
Home-Office-Optionen
Pendelzeit
Bewerbungsart
Sprache
Fähigkeiten
Berufsfeld
Branche
Region
Städte
Berufserfahrung
Anstellungsart
Arbeitszeit

Filter

SortierungRelevanz
Erscheinungsdatum
    Home-Office-Optionen
      Gehalt
      Pendelzeit
      Bewerbungsart
        Sprache
          Fähigkeiten
            Berufsfeld
              Branche
                Region
                  Städte
                    Berufserfahrung
                      Anstellungsart
                        Arbeitszeit

                          Beliebte Jobs

                          • Google
                          • PTA
                          • Angular
                          • Java
                          • Scania
                          • PPC
                          • Apache Spark
                          • Splunk
                          • ARAG
                          • DevOps
                          • Spanien
                          • SAP GRC
                          • Junior Data Engineer
                          • API
                          • IT Junior
                          • IT Internship

                          mehr

                          Erscheinungsdatum

                          Neuer als 24h
                          4


                          Gehalt

                          Leg fest, wie viel du mindestens verdienen willst.

                          Pendelzeit

                          Fähigkeiten








                          Berufsfeld

                          IT
                          30






                          54 Treffer für Spark Jobs in Westdeutschland im Umkreis von 30 km

                          Senior Cloud Data Engineer (m/w/d) Azure und Databricks

                          INFOMOTION GmbH
                          Köln, Hamburg, Berlin, Dresden, Saarbrücken, München, Stuttgart
                          Teilweise Home-Office
                          Du arbeitest mit modernen Technologien wie Python, SQL, Spark, Hadoop und lernst deren Einsatz in der Praxis.
                          Du arbeitest mit modernen Technologien wie Python, SQL, Spark, Hadoop und lernst deren Einsatz in der Praxis.
                          mehr
                          Sehr gute Kenntnisse und Berufserfahrung in der Entwicklung moderner Softwarelösungen (z. B. mit Microsoft .NET, SQL, Scala, Python, Spark, Databricks)
                          Sehr gute Kenntnisse und Berufserfahrung in der Entwicklung moderner Softwarelösungen (z. B. mit Microsoft .NET, SQL, Scala, Python, Spark, Databricks)
                          mehr
                          NEU

                          Cloud Data Architect AWS / Google Cloud (all genders)

                          adesso SE
                          Berlin, Dortmund, Düsseldorf, Frankfurt, Hamburg, Köln, München
                          Teilweise Home-Office
                          Anschreiben nicht erforderlich
                          Aufgrund deiner mind. fünfjährigen Erfahrung blickst du auf einen reichen Erfahrungsschatz und ein tiefes Verständnis im Bereich (Cloud) Datenplattformen und des Big Data Ökosystems (Kafka, Spark, Databricks, Delta Lake, Iceberg, etc.) und Cloud Analytics Services (AWS, GCP) zurück, im Optimalfall belegt durch Herstellerzertifizierungen (Professional/ Specialist Level) und/oder nachgewiesene Projekterfahrung. * Du bist fit in gängigen Data Platform Architektur-Konzepten: Data Lake, DWH und Datenmodellierung, Data Mesh und Delta Lake sind für dich ebenso wenig Fremdwörter, wie Databricks oder (py)Spark.
                          Aufgrund deiner mind. fünfjährigen Erfahrung blickst du auf einen reichen Erfahrungsschatz und ein tiefes Verständnis im Bereich (Cloud) Datenplattformen und des Big Data Ökosystems (Kafka, Spark, Databricks, Delta Lake, Iceberg, etc.) und Cloud Analytics Services (AWS, GCP) zurück, im Optimalfall belegt durch Herstellerzertifizierungen (Professional/ Specialist Level) und/oder nachgewiesene Projekterfahrung. * Du bist fit in gängigen Data Platform Architektur-Konzepten: Data Lake, DWH und Datenmodellierung, Data Mesh und Delta Lake sind für dich ebenso wenig Fremdwörter, wie Databricks oder (py)Spark.
                          mehr
                          Anschreiben nicht erforderlich
                          Sehr gute Kenntnisse in Python oder R, sowie im Umgang mit Spark, SQL und Cloud-Technologien wie Microsoft Azure, AWS, Databricks oder vergleichbaren Plattformen.
                          Sehr gute Kenntnisse in Python oder R, sowie im Umgang mit Spark, SQL und Cloud-Technologien wie Microsoft Azure, AWS, Databricks oder vergleichbaren Plattformen.
                          mehr
                          Anschreiben nicht erforderlich
                          Sehr gute Kenntnisse in Python oder R, sowie im Umgang mit Spark, SQL und Cloud-Technologien wie Microsoft Azure oder AWS, Databricks oder vergleichbaren Plattformen
                          Sehr gute Kenntnisse in Python oder R, sowie im Umgang mit Spark, SQL und Cloud-Technologien wie Microsoft Azure oder AWS, Databricks oder vergleichbaren Plattformen
                          mehr

                          Senior Data Scientist mit Schwerpunkt E-Commerce (m/w/d)

                          Ernsting’s family
                          Coesfeld-Lette bei Münster
                          Teilweise Home-Office
                          Anschreiben nicht erforderlich
                          Sehr gute Kenntnisse in Python oder R, sowie im Umgang mit Spark, SQL und Cloud-Technologien wie Microsoft Azure, AWS, Databricks oder vergleichbaren Plattformen.
                          Sehr gute Kenntnisse in Python oder R, sowie im Umgang mit Spark, SQL und Cloud-Technologien wie Microsoft Azure, AWS, Databricks oder vergleichbaren Plattformen.
                          mehr

                          (Senior) Data Engineer (w/m/d)

                          Cofinpro AG
                          Frankfurt am Main
                          Teilweise Home-Office
                          Schnelle Bewerbung
                          Praktische Erfahrung als Data Engineer mit gängigen ETL-Frameworks wie Talend oder informatica alternativ mit Tools wie Apache Spark, Apache NiFi oder Databricks und praktische Erfahrung mit Data Streaming Tools und Frameworks wie Apache Kafka, Beam oder Apache Flink sowie mit dem Aufsatz von relationalen und dokumentenorientierten Datenbanken
                          Praktische Erfahrung als Data Engineer mit gängigen ETL-Frameworks wie Talend oder informatica alternativ mit Tools wie Apache Spark, Apache NiFi oder Databricks und praktische Erfahrung mit Data Streaming Tools und Frameworks wie Apache Kafka, Beam oder Apache Flink sowie mit dem Aufsatz von relationalen und dokumentenorientierten Datenbanken
                          mehr

                          DATA ENGINEER (m/w/d)

                          hygi.de GmbH & Co. KG
                          Telgte
                          Teilweise Home-Office
                          Delta Lake: Apache Spark & delta.io Framework; On-Premise auf Hadoop/YARN * Analytics-Plattform: Spark-SQL, KSQL, PostgreSQL, GraphQL, OpenSearch, * Sehr gute Kenntnisse in Apache Spark (Scala/Python) sowie SQL für effiziente Datenverarbeitung und -analyse.
                          Delta Lake: Apache Spark & delta.io Framework; On-Premise auf Hadoop/YARN * Analytics-Plattform: Spark-SQL, KSQL, PostgreSQL, GraphQL, OpenSearch, * Sehr gute Kenntnisse in Apache Spark (Scala/Python) sowie SQL für effiziente Datenverarbeitung und -analyse.
                          mehr

                          MLOps Engineer (m/w/d) CI / CD & Inference Services

                          Finanz Informatik GmbH & Co. KG
                          Münster, Hannover
                          Teilweise Home-Office
                          Betrieb von Spark-Anwendungen in Kubernetes mittels Spark Operator – idealerweise mit Fokus auf verteilte Inferenz oder Preprocessing großer Datenmengen.
                          Betrieb von Spark-Anwendungen in Kubernetes mittels Spark Operator – idealerweise mit Fokus auf verteilte Inferenz oder Preprocessing großer Datenmengen.
                          mehr
                          Anschreiben nicht erforderlich
                          Schnelle Bewerbung
                          Das große Ganze stets im Blick: Du übernimmst das Datenmanagement von strukturierten und unstrukturierten Daten in verschiedenen Datenbanksystemen (z.B. GCP/BigQuery, Snowflake) sowie Analyse-Frameworks (z.B. Hadoop/Spark). Du bist mit den gängigen Data-Science-Libraries & Tools wie scikit-learn, pandas, Matplotlib und jupyter bestens vertraut und besitzt Erfahrung mit Big-Data-Frameworks wie Apache Spark.
                          Das große Ganze stets im Blick: Du übernimmst das Datenmanagement von strukturierten und unstrukturierten Daten in verschiedenen Datenbanksystemen (z.B. GCP/BigQuery, Snowflake) sowie Analyse-Frameworks (z.B. Hadoop/Spark). Du bist mit den gängigen Data-Science-Libraries & Tools wie scikit-learn, pandas, Matplotlib und jupyter bestens vertraut und besitzt Erfahrung mit Big-Data-Frameworks wie Apache Spark.
                          mehr

                          (Senior) Data Engineer (gn)

                          Services by Handelsblatt Media Group GmbH
                          Düsseldorf
                          Teilweise Home-Office
                          Du entwickelst skalierbare Lösungen mit Technologien wie Python, Spark, SQL und modernen Data-Stack-Tools - Schwerpunkt Databricks & SQL Server
                          Du entwickelst skalierbare Lösungen mit Technologien wie Python, Spark, SQL und modernen Data-Stack-Tools - Schwerpunkt Databricks & SQL Server
                          mehr

                          AI Engineer (w|m|d)

                          BridgingIT GmbH
                          Frankfurt am Main, Mannheim, München, Stuttgart
                          Teilweise Home-Office
                          Anschreiben nicht erforderlich
                          Du hast einschlägige Erfahrung im Umgang mit technologierelevanten Tools und Frameworks wie z.B. Tensorflow, Pytorch, Keras, LangChain, LlamaIndex, OpenAI, Spark und Scala.
                          Du hast einschlägige Erfahrung im Umgang mit technologierelevanten Tools und Frameworks wie z.B. Tensorflow, Pytorch, Keras, LangChain, LlamaIndex, OpenAI, Spark und Scala.
                          mehr
                          Bonus: Data engineering experience with Spark / Databricks (PySpark / SQL), ETL / ELT, Delta Lake / Lakehouse, analytics modeling (star scheme; Power BI), orchestration
                          Bonus: Data engineering experience with Spark / Databricks (PySpark / SQL), ETL / ELT, Delta Lake / Lakehouse, analytics modeling (star scheme; Power BI), orchestration
                          mehr

                          Cloud Data Engineer AWS / Google Cloud (all genders)

                          adesso SE
                          Augsburg, Karlsruhe, Koblenz, München, Nürnberg, Saarbrücken, Stuttgart, Ulm, Walldorf
                          Anschreiben nicht erforderlich
                          Cloud-Erfahrung: Du hast bereits praktische Erfahrungen mit den Datenservices von AWS, GCP, Kafka, Spark oder Databricks gesammelt.
                          Cloud-Erfahrung: Du hast bereits praktische Erfahrungen mit den Datenservices von AWS, GCP, Kafka, Spark oder Databricks gesammelt.
                          mehr

                          Manager Data Platforms (m/w/d)

                          conet Deutschland GmbH
                          Bonn
                          Teilweise Home-Office
                          Anschreiben nicht erforderlich
                          Erfahrung und großes Interesse an Big-Data-, Backend- und / oder DevOps-Themen – relevante Technologien sind für uns zum Beispiel Apache Spark / Databricks / Data Fabric, Apache Kafka, Apache Airflow, relationale und nichtrelationale Datenbanken, Pandas / Polars, FastAPI, MLFlow, Docker, Kubernetes, Prometheus, Grafana, AWS, GCP und Azure
                          Erfahrung und großes Interesse an Big-Data-, Backend- und / oder DevOps-Themen – relevante Technologien sind für uns zum Beispiel Apache Spark / Databricks / Data Fabric, Apache Kafka, Apache Airflow, relationale und nichtrelationale Datenbanken, Pandas / Polars, FastAPI, MLFlow, Docker, Kubernetes, Prometheus, Grafana, AWS, GCP und Azure
                          mehr

                          Beliebte Jobs


                          mehr

                          Häufig gestellte Fragen

                          Wie viele offene Stellenangebote gibt es für Spark Jobs in Westdeutschland?
                          Aktuell gibt es auf StepStone 54 offene Stellenanzeigen für Spark Jobs in Westdeutschland.

                          Welche anderen Orte sind auch beliebt für Leute, die in Westdeutschland einen Spark Job suchen?
                          Folgende Orte sind auch interessant für Leute, die in Westdeutschland einen Spark Job suchen: Frankfurt am Main, Köln, Düsseldorf.

                          Welche anderen Jobs sind beliebt bei Kandidaten, die nach Spark Jobs in Westdeutschland suchen?
                          Wer nach Spark Jobs in Westdeutschland sucht, sucht häufig auch nach Google, PTA, Angular.

                          Welche Fähigkeiten braucht man für Spark Jobs in Westdeutschland??
                          Für einen Spark Job in Westdeutschland sind folgende Fähigkeiten von Vorteil: Deutsch, Apache Spark, Englisch, Python, Kommunikation.

                          Wie viele offene Teilzeit-Stellen gibt es für Spark Jobs in Westdeutschland?
                          Für Spark Jobs in Westdeutschland gibt es aktuell 7 offene Teilzeitstellen.