Filter

SortierungRelevanz
Erscheinungsdatum
    Home-Office-Optionen
      Gehalt
      Pendelzeit
      Bewerbungsart
        Sprache
          Fähigkeiten
            Berufsfeld
              Branche
                Region
                  Städte
                    Berufserfahrung
                      Anstellungsart
                        Arbeitszeit

                          Beliebte Jobs

                          • Erzieher
                          • MFA
                          • Center
                          • Gesundheitsmanagement
                          • Teilzeitkraft
                          • Personal
                          • Einkauf
                          • Projektmanager
                          • Quereinsteiger
                          • Buerokraft
                          • 520 Euro
                          • Sachbearbeiter
                          • Ausbildung
                          • Pflegefachkraft
                          • Vertrieb
                          • Ingenieur

                          mehr

                          4 Treffer für Apache Spark Jobs in Wesel im Umkreis von 30 km

                          Noch nichts dabei? Es gibt 4 weitere Jobs, die zu deiner Suche passen könnten

                          Softwareentwickler (Systemadministrator) - Autobank (w/m/d)

                          TARGOBANK
                          Duisburg
                          Teilweise Home-Office
                          Anschreiben nicht erforderlich
                          Idealerweise Kenntnisse in JBoss, Apache sowie SQL
                          Idealerweise Kenntnisse in JBoss, Apache sowie SQL

                          Web-Entwickler / Cloud-Entwickler (x/m/w) im Innen- und Außendienst

                          LASE PeCo Systemtechnik GmbH
                          Wesel am Rhein
                          Teilweise Home-Office
                          Schnelle Bewerbung
                          Verwaltung und Konfiguration von Linux-Servern (Nginx, Apache)
                          Verwaltung und Konfiguration von Linux-Servern (Nginx, Apache)
                          Schnelle Bewerbung
                          Server- und Hosting-Management: Du hast Erfahrung mit der Verwaltung von Servern (z.B. Apache, Nginx) und kennst dich mit Hosting-Plattformen und -Tools aus.
                          Server- und Hosting-Management: Du hast Erfahrung mit der Verwaltung von Servern (z.B. Apache, Nginx) und kennst dich mit Hosting-Plattformen und -Tools aus.
                          mehr

                          Speditionskaufmann/-frau

                          W. Piepenbrink GmbH & Co. KG
                          Neukirchen-Vluyn
                          Anforderungen an den Bewerber: Grundkenntnisse: Transport- und Speditionsrecht, Schadensfälle bearbeiten, Schäden regulieren, Lebensmittellogistik, Apache OpenOffice, Tourenplanung, Buchführung, Buchhaltung, Disposition (Güterverkehr), Internationaler Speditionsverkehr, Transportlogistik, Logistik, Speditions-, Lieferverkehr, E-Mail-Programm Outlook (MS Office), Tabellenkalkulation Excel (MS Office), Textverarbeitung Word (MS Office)
                          Anforderungen an den Bewerber: Grundkenntnisse: Transport- und Speditionsrecht, Schadensfälle bearbeiten, Schäden regulieren, Lebensmittellogistik, Apache OpenOffice, Tourenplanung, Buchführung, Buchhaltung, Disposition (Güterverkehr), Internationaler Speditionsverkehr, Transportlogistik, Logistik, Speditions-, Lieferverkehr, E-Mail-Programm Outlook (MS Office), Tabellenkalkulation Excel (MS Office), Textverarbeitung Word (MS Office)
                          mehr

                          44 passende Jobs liegen außerhalb deiner Region

                          Data Engineer (m/w/d) – Informatica / ETL

                          PTA GmbH
                          Berlin, Dresden, Düsseldorf, Frankfurt, Hamburg, Karlsruhe, Kassel, Köln, Mannheim, München, u.a.
                          Teilweise Home-Office
                          Bereitschaft, sich im jeweiligen Kundenkontext durch gezielte Einarbeitung Know-how in verschiedenen ETL-Tools (wie Informatica PowerCenter, Apache Spark oder Qlik/Talend) sowie weiteren Programmiersprachen und Technologien aufzubauen
                          Bereitschaft, sich im jeweiligen Kundenkontext durch gezielte Einarbeitung Know-how in verschiedenen ETL-Tools (wie Informatica PowerCenter, Apache Spark oder Qlik/Talend) sowie weiteren Programmiersprachen und Technologien aufzubauen
                          mehr
                          Anschreiben nicht erforderlich
                          Du entwickelst, betreibst und optimierst Datenpipelines auf Microsoft Azure, insbesondere mit Azure Databricks (Spark) * Sehr gute Kenntnisse in Azure Databricks, Spark sowie Python oder Scala
                          Du entwickelst, betreibst und optimierst Datenpipelines auf Microsoft Azure, insbesondere mit Azure Databricks (Spark) * Sehr gute Kenntnisse in Azure Databricks, Spark sowie Python oder Scala
                          mehr
                          Anschreiben nicht erforderlich
                          Kenntnisse in Azure Databricks / Spark und Programmierung mit Python oder Scala (um Modellkonzepte technisch sauber umzusetzen und mitzuentwickeln)
                          Kenntnisse in Azure Databricks / Spark und Programmierung mit Python oder Scala (um Modellkonzepte technisch sauber umzusetzen und mitzuentwickeln)
                          mehr
                          Du konzipierst und entwickelst Datentransformationsprozessen (z. B. mit Databricks, Spark oder Azure Data Factory) und erstellst Datenmodelle * Du verfügst über fundierte Kenntnisse in der Entwicklung von ETL-Pipelines idealerweise mit Python, SQL und Spark; wünschenswert sind Kenntnisse in Terraform und Git
                          Du konzipierst und entwickelst Datentransformationsprozessen (z. B. mit Databricks, Spark oder Azure Data Factory) und erstellst Datenmodelle * Du verfügst über fundierte Kenntnisse in der Entwicklung von ETL-Pipelines idealerweise mit Python, SQL und Spark; wünschenswert sind Kenntnisse in Terraform und Git
                          mehr
                          Du konzipierst und entwickelst Datentransformationsprozessen (z. B. mit Databricks, Spark oder Azure Data Factory) und erstellst robuste Datenmodelle * Du verfügst über fundierte Kenntnisse in der Entwicklung von ETL-Pipelines idealerweise mit Python, SQL und Spark; wünschenswert sind Kenntnisse in Terraform und Git
                          Du konzipierst und entwickelst Datentransformationsprozessen (z. B. mit Databricks, Spark oder Azure Data Factory) und erstellst robuste Datenmodelle * Du verfügst über fundierte Kenntnisse in der Entwicklung von ETL-Pipelines idealerweise mit Python, SQL und Spark; wünschenswert sind Kenntnisse in Terraform und Git
                          mehr

                          Snowflake Data Architect (all genders)

                          adesso SE
                          Aachen, Bonn, Dortmund, Düsseldorf, Essen, Frankfurt, Hannover, Köln, Münster, Paderborn, Siegen
                          Anschreiben nicht erforderlich
                          ETL/ELT-Methodik: Du entwickelst robuste Batch- und Streaming-Datenpipelines mit hoher Datenqualität, kennst dich mit Integrations-Tools wie dbt, Fivetran, Matillion, Talend oder Informatica aus und verfügst über Programmierkenntnisse in SQL, Python, Java, Scala oder Spark.
                          ETL/ELT-Methodik: Du entwickelst robuste Batch- und Streaming-Datenpipelines mit hoher Datenqualität, kennst dich mit Integrations-Tools wie dbt, Fivetran, Matillion, Talend oder Informatica aus und verfügst über Programmierkenntnisse in SQL, Python, Java, Scala oder Spark.
                          mehr

                          Cloud Data Engineer AWS / Google Cloud (all genders)

                          adesso SE
                          Aachen, Bonn, Dortmund, Düsseldorf, Essen, Frankf, Hannover, Köln, Münster, Paderborn, Siegen
                          Anschreiben nicht erforderlich
                          Cloud-Erfahrung: Du hast bereits praktische Erfahrungen mit den Datenservices von AWS, GCP, Kafka, Spark oder Databricks gesammelt.
                          Cloud-Erfahrung: Du hast bereits praktische Erfahrungen mit den Datenservices von AWS, GCP, Kafka, Spark oder Databricks gesammelt.
                          mehr

                          Cloud Data Engineer - Databricks (all genders)

                          adesso SE
                          Aachen, Bonn, Dortmund, Düsseldorf, Essen, Frankfurt, Hannover, Köln, Münster, Paderborn, Siegen
                          Teilweise Home-Office
                          Anschreiben nicht erforderlich
                          Technologie-Know-how: Du beherrschst Databricks sowie Spark, PySpark, Delta Lake und Unity Catalog sicher.
                          Technologie-Know-how: Du beherrschst Databricks sowie Spark, PySpark, Delta Lake und Unity Catalog sicher.
                          mehr

                          Snowflake Data Engineer (all genders)

                          adesso SE
                          Aachen, Bonn, Dortmund, Düsseldorf, Essen, Frankfurt, Hannover, Köln, Münster, Paderborn, Siegen
                          Teilweise Home-Office
                          Anschreiben nicht erforderlich
                          ETL/ELT- Methodik: Du entwickelst mühelos Batch- und Streaming-Datenpipelines mit einem starken Fokus auf Robustheit und Datenqualität und verfügst zudem über einen umfassenden Marktüberblick gängiger Integrations-Tools wie dbt, Fivetran, Matillion, Talend und Informatica, während du gleichzeitig Kenntnisse in einer dieser Sprachen mitbringst: SQL, Python, Java, Scala oder Spark.
                          ETL/ELT- Methodik: Du entwickelst mühelos Batch- und Streaming-Datenpipelines mit einem starken Fokus auf Robustheit und Datenqualität und verfügst zudem über einen umfassenden Marktüberblick gängiger Integrations-Tools wie dbt, Fivetran, Matillion, Talend und Informatica, während du gleichzeitig Kenntnisse in einer dieser Sprachen mitbringst: SQL, Python, Java, Scala oder Spark.
                          mehr

                          Senior Professional System-Engineer (w/m/d) – Schwerpunkt Backend-Technologie

                          IT-Systemhaus der Bundesagentur für Arbeit
                          Nürnberg, Fürth, Berlin, Chemnitz, Hannover, Mainz, Lübeck, Düsseldorf, Krefeld
                          Teilweise Home-Office
                          Kenntnisse/ Erfahrungen mit Apache KAFKA und Scheduling- und Automatisierungstools sind wünschenswert
                          Kenntnisse/ Erfahrungen mit Apache KAFKA und Scheduling- und Automatisierungstools sind wünschenswert

                          Beliebte Jobs


                          mehr

                          Häufig gestellte Fragen

                          Wie viele offene Stellenangebote gibt es für Apache Spark Jobs in Wesel?
                          Aktuell gibt es auf StepStone 4 offene Stellenanzeigen für Apache Spark Jobs in Wesel.

                          Welche anderen Orte sind auch beliebt für Leute, die in Wesel einen Apache Spark Job suchen?
                          Folgende Orte sind auch interessant für Leute, die in Wesel einen Apache Spark Job suchen: Düsseldorf, Essen, Duisburg.

                          Welche anderen Jobs sind beliebt bei Kandidaten, die nach Apache Spark Jobs in Wesel suchen?
                          Wer nach Apache Spark Jobs in Wesel sucht, sucht häufig auch nach Erzieher, MFA, Center.

                          Welche Fähigkeiten braucht man für Apache Spark Jobs in Wesel??
                          Für einen Apache Spark Job in Wesel sind folgende Fähigkeiten von Vorteil: Deutsch, Englisch, Python, Entwicklung, Kommunikation.

                          Wie viele offene Teilzeit-Stellen gibt es für Apache Spark Jobs in Wesel?
                          Für Apache Spark Jobs in Wesel gibt es aktuell 8 offene Teilzeitstellen.