Filter

SortierungRelevanz
Erscheinungsdatum
    Home-Office-Optionen
      Gehalt
      Pendelzeit
      Bewerbungsart
        Sprache
          Fähigkeiten
            Berufsfeld
              Branche
                Region
                  Städte
                    Berufserfahrung
                      Anstellungsart
                        Arbeitszeit

                          Beliebte Jobs

                          • Data Engineer
                          • Angular
                          • Apache Spark
                          • IOT
                          • Git
                          • CAS
                          • IAM
                          • GP
                          • DevOps
                          • Spanien
                          • IOS
                          • Data Engineering
                          • Intune
                          • IAS
                          • Azure
                          • Internship IT

                          mehr

                          Standorte

                          13 Treffer für Spark Jobs in Schwarzwald im Umkreis von 30 km

                          Senior Data Architect (w/m/x)

                          NTT DATA
                          München, Frankfurt a. M., Stuttgart, Köln, Hamburg, Ettlingen, Wolfsburg, Erfurt, Rosenheim, Berlin
                          Teilweise Home-Office
                          Anschreiben nicht erforderlich
                          Schnelle Bewerbung
                          Du hast Erfahrung in der Konzeption und Umsetzung Cloud-basierter Datenplattformen (AWS, Azure, Google Cloud) sowie mit Big Data- und Streaming-Technologien und kennst dich mit modernen Datenarchitekturen (z. B. Data Mesh, Event-Driven Architecture), Architekturframeworks (z. B. TOGAF) und Technologien wie SQL, Python, Spark und Kafka aus.
                          Du hast Erfahrung in der Konzeption und Umsetzung Cloud-basierter Datenplattformen (AWS, Azure, Google Cloud) sowie mit Big Data- und Streaming-Technologien und kennst dich mit modernen Datenarchitekturen (z. B. Data Mesh, Event-Driven Architecture), Architekturframeworks (z. B. TOGAF) und Technologien wie SQL, Python, Spark und Kafka aus.
                          mehr

                          Data Engineer* / Machine Learning Engineer*

                          inovex GmbH
                          Karlsruhe, Köln, München, Hamburg, Stuttgart, Pforzheim, Berlin, Erlangen
                          Teilweise Home-Office
                          Databricks, Spark, Kafka, Airflow, dbt, BigQuery oder Snowflake
                          Databricks, Spark, Kafka, Airflow, dbt, BigQuery oder Snowflake

                          Data Engineer (m/w/d) – Informatica / ETL

                          PTA GmbH
                          Berlin, Dresden, Düsseldorf, Frankfurt, Hamburg, Karlsruhe, Kassel, Köln, Mannheim, München, u.a.
                          Teilweise Home-Office
                          Bereitschaft, sich im jeweiligen Kundenkontext durch gezielte Einarbeitung Know-how in verschiedenen ETL-Tools (wie Informatica PowerCenter, Apache Spark oder Qlik/Talend) sowie weiteren Programmiersprachen und Technologien aufzubauen
                          Bereitschaft, sich im jeweiligen Kundenkontext durch gezielte Einarbeitung Know-how in verschiedenen ETL-Tools (wie Informatica PowerCenter, Apache Spark oder Qlik/Talend) sowie weiteren Programmiersprachen und Technologien aufzubauen
                          mehr

                          Cloud Native Data Engineer (all genders)

                          adesso SE
                          Augsburg, Karlsruhe, München, Stuttgart, Ulm, Walldorf
                          Teilweise Home-Office
                          Anschreiben nicht erforderlich
                          Data-Pipelines umsetzen: Du konzipierst und implementierst robuste Data-Pipelines, Data Ingest und Data-Processing auf Basis von Open-Source-Komponenten wie Apache Airflow, Kafka, Spark oder Trino und sorgst dafür, dass Daten zuverlässig, performant und nachvollziehbar fließen. * Ausbildung & Erfahrung: Du bringst ein abgeschlossenes Studium (oder eine vergleichbare Qualifikation) mit und hast bereits praktisch mit Komponenten wie Spark, Kafka, Airflow o. Ä. gearbeitet - idealerweise in produktionsnahen Projekten.
                          Data-Pipelines umsetzen: Du konzipierst und implementierst robuste Data-Pipelines, Data Ingest und Data-Processing auf Basis von Open-Source-Komponenten wie Apache Airflow, Kafka, Spark oder Trino und sorgst dafür, dass Daten zuverlässig, performant und nachvollziehbar fließen. * Ausbildung & Erfahrung: Du bringst ein abgeschlossenes Studium (oder eine vergleichbare Qualifikation) mit und hast bereits praktisch mit Komponenten wie Spark, Kafka, Airflow o. Ä. gearbeitet - idealerweise in produktionsnahen Projekten.
                          mehr

                          Snowflake Data Architect (all genders)

                          adesso SE
                          Augsburg, Karlsruhe, Koblenz, München, Nürnberg, Saarbrücken, Stuttgart, Ulm, Walldorf
                          Anschreiben nicht erforderlich
                          ETL/ELT-Methodik: Du entwickelst robuste Batch- und Streaming-Datenpipelines mit hoher Datenqualität, kennst dich mit Integrations-Tools wie dbt, Fivetran, Matillion, Talend oder Informatica aus und verfügst über Programmierkenntnisse in SQL, Python, Java, Scala oder Spark.
                          ETL/ELT-Methodik: Du entwickelst robuste Batch- und Streaming-Datenpipelines mit hoher Datenqualität, kennst dich mit Integrations-Tools wie dbt, Fivetran, Matillion, Talend oder Informatica aus und verfügst über Programmierkenntnisse in SQL, Python, Java, Scala oder Spark.
                          mehr
                          Anschreiben nicht erforderlich
                          Du besitzt sehr gute Kenntnisse im Bereich Linux, Netzwerk und im Betrieb von Applikationen auf OpenShift, idealerweise hast du auch schon Erfahrung mit Spark und im Umgang mit Public Cloud Providern (z.B. Integration von Databricks, Cloud-Kubernetes-Services) gesammelt
                          Du besitzt sehr gute Kenntnisse im Bereich Linux, Netzwerk und im Betrieb von Applikationen auf OpenShift, idealerweise hast du auch schon Erfahrung mit Spark und im Umgang mit Public Cloud Providern (z.B. Integration von Databricks, Cloud-Kubernetes-Services) gesammelt
                          mehr

                          Cloud Data Engineer AWS / Google Cloud (all genders)

                          adesso SE
                          Augsburg, Karlsruhe, Koblenz, München, Nürnberg, Saarbrücken, Stuttgart, Ulm, Walldorf
                          Anschreiben nicht erforderlich
                          Cloud-Erfahrung: Du hast bereits praktische Erfahrungen mit den Datenservices von AWS, GCP, Kafka, Spark oder Databricks gesammelt.
                          Cloud-Erfahrung: Du hast bereits praktische Erfahrungen mit den Datenservices von AWS, GCP, Kafka, Spark oder Databricks gesammelt.
                          mehr

                          Snowflake Data Engineer (all genders)

                          adesso SE
                          Augsburg, Karlsruhe, Koblenz, München, Nürnberg, Saarbrücken, Stuttgart, Ulm, Walldorf
                          Anschreiben nicht erforderlich
                          ETL/ELT- Methodik: Du entwickelst mühelos Batch- und Streaming-Datenpipelines mit einem starken Fokus auf Robustheit und Datenqualität und verfügst zudem über einen umfassenden Marktüberblick gängiger Integrations-Tools wie dbt, Fivetran, Matillion, Talend und Informatica, während du gleichzeitig Kenntnisse in einer dieser Sprachen mitbringst: SQL, Python, Java, Scala oder Spark.
                          ETL/ELT- Methodik: Du entwickelst mühelos Batch- und Streaming-Datenpipelines mit einem starken Fokus auf Robustheit und Datenqualität und verfügst zudem über einen umfassenden Marktüberblick gängiger Integrations-Tools wie dbt, Fivetran, Matillion, Talend und Informatica, während du gleichzeitig Kenntnisse in einer dieser Sprachen mitbringst: SQL, Python, Java, Scala oder Spark.
                          mehr

                          Big Data / JAVA / Spring Softwareentwickler (mwd)

                          Vesterling AG
                          Karlsruhe, Berlin, Hamburg, München, Köln, Frankfurt am Main, Mannheim, Stuttgart, bundesweit
                          Kenntnisse in Spark, Kafka, Redis, SQL und der Entwicklung von REST APIs sind hilfreich
                          Kenntnisse in Spark, Kafka, Redis, SQL und der Entwicklung von REST APIs sind hilfreich
                          NEU

                          9 passende Jobs liegen außerhalb deiner Region

                          AI Engineer (w|m|d)

                          BridgingIT GmbH
                          München, Frankfurt a.M., Mannheim, Stuttgart
                          Teilweise Home-Office
                          Anschreiben nicht erforderlich
                          Schnelle Bewerbung
                          Du hast einschlägige Erfahrung im Umgang mit technologierelevanten Tools und Frameworks wie z.B. Tensorflow, Pytorch, Keras, LangChain, LlamaIndex, OpenAI, Spark und Scala.
                          Du hast einschlägige Erfahrung im Umgang mit technologierelevanten Tools und Frameworks wie z.B. Tensorflow, Pytorch, Keras, LangChain, LlamaIndex, OpenAI, Spark und Scala.
                          mehr

                          Data Enablement Engineer (m/w/d)

                          BMS Corporate Solutions GmbH
                          bundesweit, Home-Office
                          Teilweise Home-Office
                          Anschreiben nicht erforderlich
                          Design und Betrieb skalierbarer ETL Data Pipelines mit Apache Spark und Apache Airflow sowie Weiterentwicklung unserer Data Lake Architektur * Praktische Erfahrung mit Apache Spark und Apache Airflow
                          Design und Betrieb skalierbarer ETL Data Pipelines mit Apache Spark und Apache Airflow sowie Weiterentwicklung unserer Data Lake Architektur * Praktische Erfahrung mit Apache Spark und Apache Airflow
                          mehr

                          Python Developer (m/w/d)

                          Materna Information & Communications SE
                          bundesweit, Home-Office
                          Teilweise Home-Office
                          Schnelle Bewerbung
                          entwickelst, testest und betreust du komplexe Softwarelösungen im Umfeld Registermodernisierung und Public Sector, basierend auf modernen Technologien wie Python, Spark und Hadoop. * Mehrjährige Berufserfahrung in der Softwareentwicklung mit Python sowie im Umgang mit Hadoop-Ökosystemen (z. B. Spark, Hive, NiFi, Iceberg)
                          entwickelst, testest und betreust du komplexe Softwarelösungen im Umfeld Registermodernisierung und Public Sector, basierend auf modernen Technologien wie Python, Spark und Hadoop. * Mehrjährige Berufserfahrung in der Softwareentwicklung mit Python sowie im Umgang mit Hadoop-Ökosystemen (z. B. Spark, Hive, NiFi, Iceberg)
                          mehr
                          Kenntnis und Erfahrung mit Technologien wie Databricks, Lakehouse-Architektur, Unity Catalog, PySpark, Spark SQL, ETL-Pipelines, Datenmodellierung, Medallion-Architektur und Git
                          Kenntnis und Erfahrung mit Technologien wie Databricks, Lakehouse-Architektur, Unity Catalog, PySpark, Spark SQL, ETL-Pipelines, Datenmodellierung, Medallion-Architektur und Git
                          mehr
                          Senskten 15 x 7,67 EUR Ticket Restaurant Schecks, die du in Liebesparks, Cafés, Restaurants und Bäckereien feuerweite weit wave ventil sk.
                          Senskten 15 x 7,67 EUR Ticket Restaurant Schecks, die du in Liebesparks, Cafés, Restaurants und Bäckereien feuerweite weit wave ventil sk.
                          mehr
                          NEU

                          Diese Jobs könnten dich auch interessieren

                          Data Engineer (all genders)

                          PRODYNA SE
                          Berlin, Hamburg, Frankfurt am Main, Düsseldorf, München, Stuttgart
                          Teilweise Home-Office
                          Als Data Engineer bei PRODYNA erarbeitest Du im Team komplexe Lösungen in unterschiedlichen Projekten. * Du verfügst über mehrjährige Berufserfahrung in der Softwareentwicklung, insbesondere in datengetriebenen Projekten, im Bereich Data Warehousing oder im Aufbau von Datenplattformen. * Du besitzt Kenntnisse in der Entwicklung von Pipelines und Datenintegrationsstrecken sowohl on-premise als auch in der Cloud (ELT/ETL, Azure Data Factory, DBT, Stored Procedures oder ähnliche Tools). * Du kennst dich mit Datenmodellierung aus und hast je nach Bereich Erfahrung mit Data Vault, Data Mesh, Kimball oder Inmon. * Zusätzliche Kenntnisse in Data Science oder Business Intelligence (Reporting Tools) sind von Vorteil. * PRODYNA SE * Berlin, Hamburg, Frankfurt am Main, Düsseldorf, München, Stuttgart * Feste Anstellung * Homeoffice möglich, Vollzeit - Sei einer der ersten Bewerber - Über uns
                          Als Data Engineer bei PRODYNA erarbeitest Du im Team komplexe Lösungen in unterschiedlichen Projekten. * Du verfügst über mehrjährige Berufserfahrung in der Softwareentwicklung, insbesondere in datengetriebenen Projekten, im Bereich Data Warehousing oder im Aufbau von Datenplattformen. * Du besitzt Kenntnisse in der Entwicklung von Pipelines und Datenintegrationsstrecken sowohl on-premise als auch in der Cloud (ELT/ETL, Azure Data Factory, DBT, Stored Procedures oder ähnliche Tools). * Du kennst dich mit Datenmodellierung aus und hast je nach Bereich Erfahrung mit Data Vault, Data Mesh, Kimball oder Inmon. * Zusätzliche Kenntnisse in Data Science oder Business Intelligence (Reporting Tools) sind von Vorteil. * PRODYNA SE * Berlin, Hamburg, Frankfurt am Main, Düsseldorf, München, Stuttgart * Feste Anstellung * Homeoffice möglich, Vollzeit - Sei einer der ersten Bewerber - Über uns
                          mehr
                          As an AI Data Engineer for the SAP-RPT model family, you will build and scale the technical foundations that power our AI innovations. We are looking for innovators to join us in this journey to develop next-generation models with even higher impact, bridging the gap between cutting-edge AI research and the complex, structured reality of global enterprise data. You will develop high-quality, end-to-end data pipelines, execute complex data extractions, and engineer the high-value datasets essential for our foundation model research and engineering teams. Bridging the technical gap between raw enterprise data and advanced AI research, you will focus on tooling and pipelines for curating and refining data assets to ensure maximum utility and performance. SAP is uniquely positioned to lead the next wave of AI by infusing intelligence directly into the business processes ...
                          As an AI Data Engineer for the SAP-RPT model family, you will build and scale the technical foundations that power our AI innovations. We are looking for innovators to join us in this journey to develop next-generation models with even higher impact, bridging the gap between cutting-edge AI research and the complex, structured reality of global enterprise data. You will develop high-quality, end-to-end data pipelines, execute complex data extractions, and engineer the high-value datasets essential for our foundation model research and engineering teams. Bridging the technical gap between raw enterprise data and advanced AI research, you will focus on tooling and pipelines for curating and refining data assets to ensure maximum utility and performance. SAP is uniquely positioned to lead the next wave of AI by infusing intelligence directly into the business processes ...
                          mehr

                          Senior AI/ML Engineer (m/w/d)

                          S-Payment GmbH - Ein Unternehmen der DSV-Gruppe
                          Stuttgart, Frankfurt am Main
                          Teilweise Home-Office
                          Anschreiben nicht erforderlich
                          Tiefgehende Kenntnisse Python und in AI Frameworks TensorFlow, PyTorch, Scikit-learn, LangChain, Hugging Face oder vergleichbarem und praktische Erfahrung mit Generative AI, LLMs, Prompt Engineering und Model Fine-Tuning. * Kenntnisse in der Integration von ML-Systemen in bestehende IT-Infrastrukturen, inkl. Netzwerksicherheit, Authentifizierung und Datenmanagement. * S-Payment GmbH - Ein Unternehmen der DSV-Gruppe * Stuttgart, Frankfurt am Main * Feste Anstellung * Homeoffice möglich, Vollzeit - Anschreiben nicht erforderlich - Du möchtest das Bezahlen der Zukunft mitgestalten und verändern? Dann werde Teil unseres Teams bei der S-Payment! Die S-Payment gehört zur DSV-Gruppe und ist der Taktgeber für alle Payment-Themen in der Sparkassen-Finanzgruppe. Wir erkennen Trends, setzen neue Impulse und bringen die Sparkassen mit innovativen Payment-Lösungen voran – und damit haben wir direkten Einfluss auf über 45 ...
                          Tiefgehende Kenntnisse Python und in AI Frameworks TensorFlow, PyTorch, Scikit-learn, LangChain, Hugging Face oder vergleichbarem und praktische Erfahrung mit Generative AI, LLMs, Prompt Engineering und Model Fine-Tuning. * Kenntnisse in der Integration von ML-Systemen in bestehende IT-Infrastrukturen, inkl. Netzwerksicherheit, Authentifizierung und Datenmanagement. * S-Payment GmbH - Ein Unternehmen der DSV-Gruppe * Stuttgart, Frankfurt am Main * Feste Anstellung * Homeoffice möglich, Vollzeit - Anschreiben nicht erforderlich - Du möchtest das Bezahlen der Zukunft mitgestalten und verändern? Dann werde Teil unseres Teams bei der S-Payment! Die S-Payment gehört zur DSV-Gruppe und ist der Taktgeber für alle Payment-Themen in der Sparkassen-Finanzgruppe. Wir erkennen Trends, setzen neue Impulse und bringen die Sparkassen mit innovativen Payment-Lösungen voran – und damit haben wir direkten Einfluss auf über 45 ...
                          mehr

                          Beliebte Jobs

                          • Data Engineer
                          • Angular
                          • Apache Spark
                          • IOT
                          • Git
                          • CAS
                          • IAM
                          • GP
                          • DevOps
                          • Spanien
                          • IOS
                          • Data Engineering
                          • Intune
                          • IAS
                          • Azure
                          • Internship IT

                          mehr

                          Häufig gestellte Fragen

                          Wie viele offene Stellenangebote gibt es für Spark Jobs in Schwarzwald?
                          Aktuell gibt es auf StepStone 13 offene Stellenanzeigen für Spark Jobs in Schwarzwald.

                          Welche anderen Orte sind auch beliebt für Leute, die in Schwarzwald einen Spark Job suchen?
                          Folgende Orte sind auch interessant für Leute, die in Schwarzwald einen Spark Job suchen: Karlsruhe, Pforzheim, Ettlingen.

                          Welche anderen Jobs sind beliebt bei Kandidaten, die nach Spark Jobs in Schwarzwald suchen?
                          Wer nach Spark Jobs in Schwarzwald sucht, sucht häufig auch nach Data Engineer, Angular, Apache Spark.

                          Welche Fähigkeiten braucht man für Spark Jobs in Schwarzwald??
                          Für einen Spark Job in Schwarzwald sind folgende Fähigkeiten von Vorteil: Deutsch, Apache Spark, Python, Englisch, Cloud-Technologien.

                          Wie viele offene Teilzeit-Stellen gibt es für Spark Jobs in Schwarzwald?
                          Für Spark Jobs in Schwarzwald gibt es aktuell 6 offene Teilzeitstellen.