Schnelle Bewerbung
5
Erscheinungsdatum
Home-Office-Optionen
Pendelzeit
Bewerbungsart
Sprache
Fähigkeiten
Berufsfeld
Branche
Region
Städte
Berufserfahrung
Anstellungsart
Arbeitszeit

Filter

SortierungRelevanz
Erscheinungsdatum
    Home-Office-Optionen
      Gehalt
      Pendelzeit
      Bewerbungsart
        Sprache
          Fähigkeiten
            Berufsfeld
              Branche
                Region
                  Städte
                    Berufserfahrung
                      Anstellungsart
                        Arbeitszeit

                          Beliebte Jobs

                          • Data Engineer
                          • Business Intelligence
                          • CISSP
                          • Angular
                          • DNA
                          • IOT
                          • Git
                          • Intelligence
                          • Data Analyst
                          • Data Science
                          • Informatik
                          • Spark
                          • Data Engineering
                          • Apache
                          • GitHub
                          • GitLab

                          mehr

                          Erscheinungsdatum

                          Neuer als 24h
                          1


                          Gehalt

                          Leg fest, wie viel du mindestens verdienen willst.

                          Pendelzeit

                          Fähigkeiten








                          Berufsfeld

                          IT
                          27






                          26 Treffer für Apache Spark Jobs in Ruhrgebiet im Umkreis von 30 km

                          Team Lead Data Engineering (m/w/d)

                          Deichmann SE
                          Essen
                          Teilweise Home-Office
                          Anschreiben nicht erforderlich
                          Umfassende praktische Erfahrung mit Python, Apache Airflow, Apache Spark und dbt sind von Vorteil.
                          Umfassende praktische Erfahrung mit Python, Apache Airflow, Apache Spark und dbt sind von Vorteil.
                          mehr
                          NEU

                          Data Scientist Marketing (m/w/d)

                          Dr. Ausbüttel GmbH & Co. KG
                          Dortmund
                          Interesse an Cloud-Technologien und Tools im Umfeld „Data', z.B. Microsoft Azure Cloud, Databricks, Airflow, Spark, u.a.
                          Interesse an Cloud-Technologien und Tools im Umfeld „Data', z.B. Microsoft Azure Cloud, Databricks, Airflow, Spark, u.a.
                          mehr
                          Anschreiben nicht erforderlich
                          Du entwickelst, betreibst und optimierst Datenpipelines auf Microsoft Azure, insbesondere mit Azure Databricks (Spark) * Sehr gute Kenntnisse in Azure Databricks, Spark sowie Python oder Scala
                          Du entwickelst, betreibst und optimierst Datenpipelines auf Microsoft Azure, insbesondere mit Azure Databricks (Spark) * Sehr gute Kenntnisse in Azure Databricks, Spark sowie Python oder Scala
                          mehr
                          Anschreiben nicht erforderlich
                          Kenntnisse in Azure Databricks / Spark und Programmierung mit Python oder Scala (um Modellkonzepte technisch sauber umzusetzen und mitzuentwickeln)
                          Kenntnisse in Azure Databricks / Spark und Programmierung mit Python oder Scala (um Modellkonzepte technisch sauber umzusetzen und mitzuentwickeln)
                          mehr
                          Du konzipierst und entwickelst Datentransformationsprozessen (z. B. mit Databricks, Spark oder Azure Data Factory) und erstellst robuste Datenmodelle * Du verfügst über fundierte Kenntnisse in der Entwicklung von ETL-Pipelines idealerweise mit Python, SQL und Spark; wünschenswert sind Kenntnisse in Terraform und Git
                          Du konzipierst und entwickelst Datentransformationsprozessen (z. B. mit Databricks, Spark oder Azure Data Factory) und erstellst robuste Datenmodelle * Du verfügst über fundierte Kenntnisse in der Entwicklung von ETL-Pipelines idealerweise mit Python, SQL und Spark; wünschenswert sind Kenntnisse in Terraform und Git
                          mehr
                          Du konzipierst und entwickelst Datentransformationsprozessen (z. B. mit Databricks, Spark oder Azure Data Factory) und erstellst Datenmodelle * Du verfügst über fundierte Kenntnisse in der Entwicklung von ETL-Pipelines idealerweise mit Python, SQL und Spark; wünschenswert sind Kenntnisse in Terraform und Git
                          Du konzipierst und entwickelst Datentransformationsprozessen (z. B. mit Databricks, Spark oder Azure Data Factory) und erstellst Datenmodelle * Du verfügst über fundierte Kenntnisse in der Entwicklung von ETL-Pipelines idealerweise mit Python, SQL und Spark; wünschenswert sind Kenntnisse in Terraform und Git
                          mehr

                          Snowflake Data Architect (all genders)

                          adesso SE
                          Aachen, Bonn, Dortmund, Düsseldorf, Essen, Frankfurt, Hannover, Köln, Münster, Paderborn, Siegen
                          Anschreiben nicht erforderlich
                          ETL/ELT-Methodik: Du entwickelst robuste Batch- und Streaming-Datenpipelines mit hoher Datenqualität, kennst dich mit Integrations-Tools wie dbt, Fivetran, Matillion, Talend oder Informatica aus und verfügst über Programmierkenntnisse in SQL, Python, Java, Scala oder Spark.
                          ETL/ELT-Methodik: Du entwickelst robuste Batch- und Streaming-Datenpipelines mit hoher Datenqualität, kennst dich mit Integrations-Tools wie dbt, Fivetran, Matillion, Talend oder Informatica aus und verfügst über Programmierkenntnisse in SQL, Python, Java, Scala oder Spark.
                          mehr

                          Cloud Data Engineer AWS / Google Cloud (all genders)

                          adesso SE
                          Aachen, Bonn, Dortmund, Düsseldorf, Essen, Frankf, Hannover, Köln, Münster, Paderborn, Siegen
                          Anschreiben nicht erforderlich
                          Cloud-Erfahrung: Du hast bereits praktische Erfahrungen mit den Datenservices von AWS, GCP, Kafka, Spark oder Databricks gesammelt.
                          Cloud-Erfahrung: Du hast bereits praktische Erfahrungen mit den Datenservices von AWS, GCP, Kafka, Spark oder Databricks gesammelt.
                          mehr

                          Snowflake Data Engineer (all genders)

                          adesso SE
                          Aachen, Bonn, Dortmund, Düsseldorf, Essen, Frankfurt, Hannover, Köln, Münster, Paderborn, Siegen
                          Teilweise Home-Office
                          Anschreiben nicht erforderlich
                          ETL/ELT- Methodik: Du entwickelst mühelos Batch- und Streaming-Datenpipelines mit einem starken Fokus auf Robustheit und Datenqualität und verfügst zudem über einen umfassenden Marktüberblick gängiger Integrations-Tools wie dbt, Fivetran, Matillion, Talend und Informatica, während du gleichzeitig Kenntnisse in einer dieser Sprachen mitbringst: SQL, Python, Java, Scala oder Spark.
                          ETL/ELT- Methodik: Du entwickelst mühelos Batch- und Streaming-Datenpipelines mit einem starken Fokus auf Robustheit und Datenqualität und verfügst zudem über einen umfassenden Marktüberblick gängiger Integrations-Tools wie dbt, Fivetran, Matillion, Talend und Informatica, während du gleichzeitig Kenntnisse in einer dieser Sprachen mitbringst: SQL, Python, Java, Scala oder Spark.
                          mehr

                          Cloud Data Engineer - Databricks (all genders)

                          adesso SE
                          Aachen, Bonn, Dortmund, Düsseldorf, Essen, Frankfurt, Hannover, Köln, Münster, Paderborn, Siegen
                          Teilweise Home-Office
                          Anschreiben nicht erforderlich
                          Technologie-Know-how: Du beherrschst Databricks sowie Spark, PySpark, Delta Lake und Unity Catalog sicher.
                          Technologie-Know-how: Du beherrschst Databricks sowie Spark, PySpark, Delta Lake und Unity Catalog sicher.
                          mehr

                          Noch nichts dabei? Es gibt 12 weitere Jobs, die zu deiner Suche passen könnten

                          Software Engineer Enterprise Search (all genders)

                          adesso SE
                          Aachen, Bonn, Dortmund, Düsseldorf, Essen, Frankfurt, Hannover, Köln, Münster, Paderborn, Siegen
                          Teilweise Home-Office
                          Anschreiben nicht erforderlich
                          Technologie-Expertise: Du konntest praktische Erfahrung in der Verwendung von Enterprise-Search-Technologien (z.B. Apache Solr, Elasticsearch, SINEQUA, iFinder, Mindbreeze, Lucidworks, Google, Azure AI Search, usw.) sammeln.
                          Technologie-Expertise: Du konntest praktische Erfahrung in der Verwendung von Enterprise-Search-Technologien (z.B. Apache Solr, Elasticsearch, SINEQUA, iFinder, Mindbreeze, Lucidworks, Google, Azure AI Search, usw.) sammeln.
                          mehr

                          DevOps Engineer (all genders)

                          adesso insurance solutions GmbH
                          Berlin, Bonn, Dortmund, Düsseldorf, Frankfurt, Hamburg, Köln, Leipzig, München, Nürnberg, Stuttgart
                          Teilweise Home-Office
                          Technologie-Stack: Erfahrungen im Bereich von IT Plattformen und Anwendungsbetrieb sowie im Umgang mit Bash, Batch, PowerShell, Ansible, Windows Servern, einer oder mehreren Linux-Distributionen, (Apache) Webserver und Tomcat hast du bereits gesammelt.
                          Technologie-Stack: Erfahrungen im Bereich von IT Plattformen und Anwendungsbetrieb sowie im Umgang mit Bash, Batch, PowerShell, Ansible, Windows Servern, einer oder mehreren Linux-Distributionen, (Apache) Webserver und Tomcat hast du bereits gesammelt.
                          mehr
                          Schnelle Bewerbung
                          Server- und Hosting-Management: Du hast Erfahrung mit der Verwaltung von Servern (z.B. Apache, Nginx) und kennst dich mit Hosting-Plattformen und -Tools aus.
                          Server- und Hosting-Management: Du hast Erfahrung mit der Verwaltung von Servern (z.B. Apache, Nginx) und kennst dich mit Hosting-Plattformen und -Tools aus.
                          mehr
                          Schnelle Bewerbung
                          Erweiterte Kenntnisse: Akten, Schriftgut verwalten, Apache OpenOffice, Büro- und Verwaltungsarbeiten, Berichtswesen, Information, Büroorganisation, Büromanagement, Einkauf, Beschaffung, Sachbearbeitung
                          Erweiterte Kenntnisse: Akten, Schriftgut verwalten, Apache OpenOffice, Büro- und Verwaltungsarbeiten, Berichtswesen, Information, Büroorganisation, Büromanagement, Einkauf, Beschaffung, Sachbearbeitung
                          mehr

                          Speditionskaufmann/-frau

                          W. Piepenbrink GmbH & Co. KG
                          Neukirchen-Vluyn
                          Anforderungen an den Bewerber: Grundkenntnisse: Transport- und Speditionsrecht, Schadensfälle bearbeiten, Schäden regulieren, Lebensmittellogistik, Apache OpenOffice, Tourenplanung, Buchführung, Buchhaltung, Disposition (Güterverkehr), Internationaler Speditionsverkehr, Transportlogistik, Logistik, Speditions-, Lieferverkehr, E-Mail-Programm Outlook (MS Office), Tabellenkalkulation Excel (MS Office), Textverarbeitung Word (MS Office)
                          Anforderungen an den Bewerber: Grundkenntnisse: Transport- und Speditionsrecht, Schadensfälle bearbeiten, Schäden regulieren, Lebensmittellogistik, Apache OpenOffice, Tourenplanung, Buchführung, Buchhaltung, Disposition (Güterverkehr), Internationaler Speditionsverkehr, Transportlogistik, Logistik, Speditions-, Lieferverkehr, E-Mail-Programm Outlook (MS Office), Tabellenkalkulation Excel (MS Office), Textverarbeitung Word (MS Office)
                          mehr

                          Beliebte Jobs


                          mehr

                          Häufig gestellte Fragen

                          Wie viele offene Stellenangebote gibt es für Apache Spark Jobs in Ruhrgebiet?
                          Aktuell gibt es auf StepStone 26 offene Stellenanzeigen für Apache Spark Jobs in Ruhrgebiet.

                          Welche anderen Orte sind auch beliebt für Leute, die in Ruhrgebiet einen Apache Spark Job suchen?
                          Folgende Orte sind auch interessant für Leute, die in Ruhrgebiet einen Apache Spark Job suchen: Essen, Dortmund, Duisburg.

                          Welche anderen Jobs sind beliebt bei Kandidaten, die nach Apache Spark Jobs in Ruhrgebiet suchen?
                          Wer nach Apache Spark Jobs in Ruhrgebiet sucht, sucht häufig auch nach Data Engineer, Business Intelligence, CISSP.

                          Welche Fähigkeiten braucht man für Apache Spark Jobs in Ruhrgebiet??
                          Für einen Apache Spark Job in Ruhrgebiet sind folgende Fähigkeiten von Vorteil: Deutsch, Python, Englisch, Apache Spark, Informatik.

                          Wie viele offene Teilzeit-Stellen gibt es für Apache Spark Jobs in Ruhrgebiet?
                          Für Apache Spark Jobs in Ruhrgebiet gibt es aktuell 6 offene Teilzeitstellen.