Schnelle Bewerbung
8
Erscheinungsdatum
Home-Office-Optionen
Pendelzeit
Bewerbungsart
Sprache
Fähigkeiten
Berufsfeld
Branche
Region
Städte
Berufserfahrung
Anstellungsart
Arbeitszeit

Filter

SortierungRelevanz
Erscheinungsdatum
    Home-Office-Optionen
      Gehalt
      Pendelzeit
      Bewerbungsart
        Sprache
          Fähigkeiten
            Berufsfeld
              Branche
                Region
                  Städte
                    Berufserfahrung
                      Anstellungsart
                        Arbeitszeit

                          Beliebte Jobs

                          • Angular
                          • IOT
                          • Git
                          • SAP HANA
                          • Information Technology
                          • IT Ler
                          • Erzieher
                          • Quereinstieg
                          • Informatik
                          • GitHub
                          • GitLab
                          • Data Analytics
                          • API
                          • Analytics
                          • IT Enthusiast
                          • Node

                          mehr

                          Erscheinungsdatum

                          Neuer als 24h
                          1


                          Gehalt

                          Leg fest, wie viel du mindestens verdienen willst.

                          Pendelzeit

                          Fähigkeiten








                          Berufsfeld

                          IT
                          36






                          10 Treffer für Apache Spark Jobs in Dortmund im Umkreis von 30 km

                          Data Scientist Marketing (m/w/d)

                          Dr. Ausbüttel GmbH & Co. KG
                          Dortmund
                          Interesse an Cloud-Technologien und Tools im Umfeld „Data', z.B. Microsoft Azure Cloud, Databricks, Airflow, Spark, u.a.
                          Interesse an Cloud-Technologien und Tools im Umfeld „Data', z.B. Microsoft Azure Cloud, Databricks, Airflow, Spark, u.a.
                          mehr

                          Snowflake Data Architect (all genders)

                          adesso SE
                          Aachen, Bonn, Dortmund, Düsseldorf, Essen, Frankfurt, Hannover, Köln, Münster, Paderborn, Siegen
                          Anschreiben nicht erforderlich
                          ETL/ELT-Methodik: Du entwickelst robuste Batch- und Streaming-Datenpipelines mit hoher Datenqualität, kennst dich mit Integrations-Tools wie dbt, Fivetran, Matillion, Talend oder Informatica aus und verfügst über Programmierkenntnisse in SQL, Python, Java, Scala oder Spark.
                          ETL/ELT-Methodik: Du entwickelst robuste Batch- und Streaming-Datenpipelines mit hoher Datenqualität, kennst dich mit Integrations-Tools wie dbt, Fivetran, Matillion, Talend oder Informatica aus und verfügst über Programmierkenntnisse in SQL, Python, Java, Scala oder Spark.
                          mehr

                          Cloud Data Engineer AWS / Google Cloud (all genders)

                          adesso SE
                          Aachen, Bonn, Dortmund, Düsseldorf, Essen, Frankf, Hannover, Köln, Münster, Paderborn, Siegen
                          Anschreiben nicht erforderlich
                          Cloud-Erfahrung: Du hast bereits praktische Erfahrungen mit den Datenservices von AWS, GCP, Kafka, Spark oder Databricks gesammelt.
                          Cloud-Erfahrung: Du hast bereits praktische Erfahrungen mit den Datenservices von AWS, GCP, Kafka, Spark oder Databricks gesammelt.
                          mehr

                          Snowflake Data Engineer (all genders)

                          adesso SE
                          Aachen, Bonn, Dortmund, Düsseldorf, Essen, Frankfurt, Hannover, Köln, Münster, Paderborn, Siegen
                          Teilweise Home-Office
                          Anschreiben nicht erforderlich
                          ETL/ELT- Methodik: Du entwickelst mühelos Batch- und Streaming-Datenpipelines mit einem starken Fokus auf Robustheit und Datenqualität und verfügst zudem über einen umfassenden Marktüberblick gängiger Integrations-Tools wie dbt, Fivetran, Matillion, Talend und Informatica, während du gleichzeitig Kenntnisse in einer dieser Sprachen mitbringst: SQL, Python, Java, Scala oder Spark.
                          ETL/ELT- Methodik: Du entwickelst mühelos Batch- und Streaming-Datenpipelines mit einem starken Fokus auf Robustheit und Datenqualität und verfügst zudem über einen umfassenden Marktüberblick gängiger Integrations-Tools wie dbt, Fivetran, Matillion, Talend und Informatica, während du gleichzeitig Kenntnisse in einer dieser Sprachen mitbringst: SQL, Python, Java, Scala oder Spark.
                          mehr

                          Cloud Data Engineer - Databricks (all genders)

                          adesso SE
                          Aachen, Bonn, Dortmund, Düsseldorf, Essen, Frankfurt, Hannover, Köln, Münster, Paderborn, Siegen
                          Teilweise Home-Office
                          Anschreiben nicht erforderlich
                          Technologie-Know-how: Du beherrschst Databricks sowie Spark, PySpark, Delta Lake und Unity Catalog sicher.
                          Technologie-Know-how: Du beherrschst Databricks sowie Spark, PySpark, Delta Lake und Unity Catalog sicher.
                          mehr

                          Noch nichts dabei? Es gibt 5 weitere Jobs, die zu deiner Suche passen könnten

                          Software Engineer Enterprise Search (all genders)

                          adesso SE
                          Aachen, Bonn, Dortmund, Düsseldorf, Essen, Frankfurt, Hannover, Köln, Münster, Paderborn, Siegen
                          Teilweise Home-Office
                          Anschreiben nicht erforderlich
                          Technologie-Expertise: Du konntest praktische Erfahrung in der Verwendung von Enterprise-Search-Technologien (z.B. Apache Solr, Elasticsearch, SINEQUA, iFinder, Mindbreeze, Lucidworks, Google, Azure AI Search, usw.) sammeln.
                          Technologie-Expertise: Du konntest praktische Erfahrung in der Verwendung von Enterprise-Search-Technologien (z.B. Apache Solr, Elasticsearch, SINEQUA, iFinder, Mindbreeze, Lucidworks, Google, Azure AI Search, usw.) sammeln.
                          mehr

                          DevOps Engineer (all genders)

                          adesso insurance solutions GmbH
                          Berlin, Bonn, Dortmund, Düsseldorf, Frankfurt, Hamburg, Köln, Leipzig, München, Nürnberg, Stuttgart
                          Teilweise Home-Office
                          Technologie-Stack: Erfahrungen im Bereich von IT Plattformen und Anwendungsbetrieb sowie im Umgang mit Bash, Batch, PowerShell, Ansible, Windows Servern, einer oder mehreren Linux-Distributionen, (Apache) Webserver und Tomcat hast du bereits gesammelt.
                          Technologie-Stack: Erfahrungen im Bereich von IT Plattformen und Anwendungsbetrieb sowie im Umgang mit Bash, Batch, PowerShell, Ansible, Windows Servern, einer oder mehreren Linux-Distributionen, (Apache) Webserver und Tomcat hast du bereits gesammelt.
                          mehr

                          37 passende Jobs liegen außerhalb deiner Region

                          Anschreiben nicht erforderlich
                          Umfassende praktische Erfahrung mit Python, Apache Airflow, Apache Spark und dbt sind von Vorteil.
                          Umfassende praktische Erfahrung mit Python, Apache Airflow, Apache Spark und dbt sind von Vorteil.
                          mehr
                          NEU

                          Data Engineer (m/w/d) – Informatica / ETL

                          PTA GmbH
                          Berlin, Dresden, Düsseldorf, Frankfurt, Hamburg, Karlsruhe, Kassel, Köln, Mannheim, München, u.a.
                          Teilweise Home-Office
                          Bereitschaft, sich im jeweiligen Kundenkontext durch gezielte Einarbeitung Know-how in verschiedenen ETL-Tools (wie Informatica PowerCenter, Apache Spark oder Qlik/Talend) sowie weiteren Programmiersprachen und Technologien aufzubauen
                          Bereitschaft, sich im jeweiligen Kundenkontext durch gezielte Einarbeitung Know-how in verschiedenen ETL-Tools (wie Informatica PowerCenter, Apache Spark oder Qlik/Talend) sowie weiteren Programmiersprachen und Technologien aufzubauen
                          mehr
                          Anschreiben nicht erforderlich
                          Du entwickelst, betreibst und optimierst Datenpipelines auf Microsoft Azure, insbesondere mit Azure Databricks (Spark) * Sehr gute Kenntnisse in Azure Databricks, Spark sowie Python oder Scala
                          Du entwickelst, betreibst und optimierst Datenpipelines auf Microsoft Azure, insbesondere mit Azure Databricks (Spark) * Sehr gute Kenntnisse in Azure Databricks, Spark sowie Python oder Scala
                          mehr
                          Anschreiben nicht erforderlich
                          Kenntnisse in Azure Databricks / Spark und Programmierung mit Python oder Scala (um Modellkonzepte technisch sauber umzusetzen und mitzuentwickeln)
                          Kenntnisse in Azure Databricks / Spark und Programmierung mit Python oder Scala (um Modellkonzepte technisch sauber umzusetzen und mitzuentwickeln)
                          mehr
                          Du konzipierst und entwickelst Datentransformationsprozessen (z. B. mit Databricks, Spark oder Azure Data Factory) und erstellst robuste Datenmodelle * Du verfügst über fundierte Kenntnisse in der Entwicklung von ETL-Pipelines idealerweise mit Python, SQL und Spark; wünschenswert sind Kenntnisse in Terraform und Git
                          Du konzipierst und entwickelst Datentransformationsprozessen (z. B. mit Databricks, Spark oder Azure Data Factory) und erstellst robuste Datenmodelle * Du verfügst über fundierte Kenntnisse in der Entwicklung von ETL-Pipelines idealerweise mit Python, SQL und Spark; wünschenswert sind Kenntnisse in Terraform und Git
                          mehr
                          Du konzipierst und entwickelst Datentransformationsprozessen (z. B. mit Databricks, Spark oder Azure Data Factory) und erstellst Datenmodelle * Du verfügst über fundierte Kenntnisse in der Entwicklung von ETL-Pipelines idealerweise mit Python, SQL und Spark; wünschenswert sind Kenntnisse in Terraform und Git
                          Du konzipierst und entwickelst Datentransformationsprozessen (z. B. mit Databricks, Spark oder Azure Data Factory) und erstellst Datenmodelle * Du verfügst über fundierte Kenntnisse in der Entwicklung von ETL-Pipelines idealerweise mit Python, SQL und Spark; wünschenswert sind Kenntnisse in Terraform und Git
                          mehr

                          Senior Professional System-Engineer (w/m/d) – Schwerpunkt Backend-Technologie

                          IT-Systemhaus der Bundesagentur für Arbeit
                          Nürnberg, Fürth, Berlin, Chemnitz, Hannover, Mainz, Lübeck, Düsseldorf, Krefeld
                          Teilweise Home-Office
                          Kenntnisse/ Erfahrungen mit Apache KAFKA und Scheduling- und Automatisierungstools sind wünschenswert
                          Kenntnisse/ Erfahrungen mit Apache KAFKA und Scheduling- und Automatisierungstools sind wünschenswert

                          Beliebte Jobs


                          mehr

                          Häufig gestellte Fragen

                          Wie viele offene Stellenangebote gibt es für Apache Spark Jobs in Dortmund?
                          Aktuell gibt es auf StepStone 10 offene Stellenanzeigen für Apache Spark Jobs in Dortmund.

                          Welche anderen Orte sind auch beliebt für Leute, die in Dortmund einen Apache Spark Job suchen?
                          Folgende Orte sind auch interessant für Leute, die in Dortmund einen Apache Spark Job suchen: Düsseldorf, Essen, Dortmund.

                          Welche anderen Jobs sind beliebt bei Kandidaten, die nach Apache Spark Jobs in Dortmund suchen?
                          Wer nach Apache Spark Jobs in Dortmund sucht, sucht häufig auch nach Angular, IOT, Git.

                          Welche Fähigkeiten braucht man für Apache Spark Jobs in Dortmund??
                          Für einen Apache Spark Job in Dortmund sind folgende Fähigkeiten von Vorteil: Deutsch, Englisch, Python, Informatik, Kommunikation.

                          Wie viele offene Teilzeit-Stellen gibt es für Apache Spark Jobs in Dortmund?
                          Für Apache Spark Jobs in Dortmund gibt es aktuell 9 offene Teilzeitstellen.