Schnelle Bewerbung
9
Erscheinungsdatum
Home-Office-Optionen
Pendelzeit
Bewerbungsart
Sprache
Fähigkeiten
Berufsfeld
Branche
Region
Städte
Berufserfahrung
Anstellungsart
Arbeitszeit

Filter

SortierungRelevanz
Erscheinungsdatum
    Home-Office-Optionen
      Gehalt
      Pendelzeit
      Bewerbungsart
        Sprache
          Fähigkeiten
            Berufsfeld
              Branche
                Region
                  Städte
                    Berufserfahrung
                      Anstellungsart
                        Arbeitszeit

                          Beliebte Jobs

                          • Angular
                          • Git
                          • Information Technology
                          • IT Ler
                          • Erzieher
                          • Quereinstieg
                          • MFA
                          • Marketing
                          • Informatik
                          • GitHub
                          • Data Analytics
                          • Analytics
                          • IT Enthusiast
                          • Computer Science
                          • Dipl Informatiker
                          • AngularJS

                          mehr

                          Standorte

                          Erscheinungsdatum

                          Neuer als 7 Tage
                          16

                          Gehalt

                          Leg fest, wie viel du mindestens verdienen willst.

                          Pendelzeit

                          Fähigkeiten








                          Berufsfeld

                          IT
                          37






                          8 Treffer für Apache Spark Jobs in Augsburg im Umkreis von 30 km

                          Cloud Native Data Engineer (all genders)

                          adesso SE
                          Augsburg, Karlsruhe, München, Stuttgart, Ulm, Walldorf
                          Teilweise Home-Office
                          Anschreiben nicht erforderlich
                          Data-Pipelines umsetzen: Du konzipierst und implementierst robuste Data-Pipelines, Data Ingest und Data-Processing auf Basis von Open-Source-Komponenten wie Apache Airflow, Kafka, Spark oder Trino und sorgst dafür, dass Daten zuverlässig, performant und nachvollziehbar fließen. * Ausbildung & Erfahrung: Du bringst ein abgeschlossenes Studium (oder eine vergleichbare Qualifikation) mit und hast bereits praktisch mit Komponenten wie Spark, Kafka, Airflow o. Ä. gearbeitet - idealerweise in produktionsnahen Projekten.
                          Data-Pipelines umsetzen: Du konzipierst und implementierst robuste Data-Pipelines, Data Ingest und Data-Processing auf Basis von Open-Source-Komponenten wie Apache Airflow, Kafka, Spark oder Trino und sorgst dafür, dass Daten zuverlässig, performant und nachvollziehbar fließen. * Ausbildung & Erfahrung: Du bringst ein abgeschlossenes Studium (oder eine vergleichbare Qualifikation) mit und hast bereits praktisch mit Komponenten wie Spark, Kafka, Airflow o. Ä. gearbeitet - idealerweise in produktionsnahen Projekten.
                          mehr

                          Snowflake Data Architect (all genders)

                          adesso SE
                          Augsburg, Karlsruhe, Koblenz, München, Nürnberg, Saarbrücken, Stuttgart, Ulm, Walldorf
                          Anschreiben nicht erforderlich
                          ETL/ELT-Methodik: Du entwickelst robuste Batch- und Streaming-Datenpipelines mit hoher Datenqualität, kennst dich mit Integrations-Tools wie dbt, Fivetran, Matillion, Talend oder Informatica aus und verfügst über Programmierkenntnisse in SQL, Python, Java, Scala oder Spark.
                          ETL/ELT-Methodik: Du entwickelst robuste Batch- und Streaming-Datenpipelines mit hoher Datenqualität, kennst dich mit Integrations-Tools wie dbt, Fivetran, Matillion, Talend oder Informatica aus und verfügst über Programmierkenntnisse in SQL, Python, Java, Scala oder Spark.
                          mehr

                          Cloud Data Engineer AWS / Google Cloud (all genders)

                          adesso SE
                          Augsburg, Karlsruhe, Koblenz, München, Nürnberg, Saarbrücken, Stuttgart, Ulm, Walldorf
                          Anschreiben nicht erforderlich
                          Cloud-Erfahrung: Du hast bereits praktische Erfahrungen mit den Datenservices von AWS, GCP, Kafka, Spark oder Databricks gesammelt.
                          Cloud-Erfahrung: Du hast bereits praktische Erfahrungen mit den Datenservices von AWS, GCP, Kafka, Spark oder Databricks gesammelt.
                          mehr

                          Snowflake Data Engineer (all genders)

                          adesso SE
                          Augsburg, Karlsruhe, Koblenz, München, Nürnberg, Saarbrücken, Stuttgart, Ulm, Walldorf
                          Anschreiben nicht erforderlich
                          ETL/ELT- Methodik: Du entwickelst mühelos Batch- und Streaming-Datenpipelines mit einem starken Fokus auf Robustheit und Datenqualität und verfügst zudem über einen umfassenden Marktüberblick gängiger Integrations-Tools wie dbt, Fivetran, Matillion, Talend und Informatica, während du gleichzeitig Kenntnisse in einer dieser Sprachen mitbringst: SQL, Python, Java, Scala oder Spark.
                          ETL/ELT- Methodik: Du entwickelst mühelos Batch- und Streaming-Datenpipelines mit einem starken Fokus auf Robustheit und Datenqualität und verfügst zudem über einen umfassenden Marktüberblick gängiger Integrations-Tools wie dbt, Fivetran, Matillion, Talend und Informatica, während du gleichzeitig Kenntnisse in einer dieser Sprachen mitbringst: SQL, Python, Java, Scala oder Spark.
                          mehr

                          Noch nichts dabei? Es gibt 3 weitere Jobs, die zu deiner Suche passen könnten

                          Software Engineer Enterprise Search (all genders)

                          adesso SE
                          Augsburg, Karlsruhe, Koblenz, München, Nürnberg, Saarbrücken, Stuttgart, Ulm, Walldorf
                          Anschreiben nicht erforderlich
                          Technologie-Expertise: Du konntest praktische Erfahrung in der Verwendung von Enterprise-Search-Technologien (z.B. Apache Solr, Elasticsearch, SINEQUA, iFinder, Mindbreeze, Lucidworks, Google, Azure AI Search, usw.) sammeln.
                          Technologie-Expertise: Du konntest praktische Erfahrung in der Verwendung von Enterprise-Search-Technologien (z.B. Apache Solr, Elasticsearch, SINEQUA, iFinder, Mindbreeze, Lucidworks, Google, Azure AI Search, usw.) sammeln.
                          mehr

                          36 passende Jobs liegen außerhalb deiner Region

                          Senior Data Architect (w/m/x)

                          NTT DATA
                          München, Frankfurt a. M., Stuttgart, Köln, Hamburg, Ettlingen, Wolfsburg, Erfurt, Rosenheim, Berlin
                          Teilweise Home-Office
                          Anschreiben nicht erforderlich
                          Schnelle Bewerbung
                          Du hast Erfahrung in der Konzeption und Umsetzung Cloud-basierter Datenplattformen (AWS, Azure, Google Cloud) sowie mit Big Data- und Streaming-Technologien und kennst dich mit modernen Datenarchitekturen (z. B. Data Mesh, Event-Driven Architecture), Architekturframeworks (z. B. TOGAF) und Technologien wie SQL, Python, Spark und Kafka aus.
                          Du hast Erfahrung in der Konzeption und Umsetzung Cloud-basierter Datenplattformen (AWS, Azure, Google Cloud) sowie mit Big Data- und Streaming-Technologien und kennst dich mit modernen Datenarchitekturen (z. B. Data Mesh, Event-Driven Architecture), Architekturframeworks (z. B. TOGAF) und Technologien wie SQL, Python, Spark und Kafka aus.
                          mehr

                          Data Engineer (m/w/d) – Informatica / ETL

                          PTA GmbH
                          Berlin, Dresden, Düsseldorf, Frankfurt, Hamburg, Karlsruhe, Kassel, Köln, Mannheim, München, u.a.
                          Teilweise Home-Office
                          Bereitschaft, sich im jeweiligen Kundenkontext durch gezielte Einarbeitung Know-how in verschiedenen ETL-Tools (wie Informatica PowerCenter, Apache Spark oder Qlik/Talend) sowie weiteren Programmiersprachen und Technologien aufzubauen
                          Bereitschaft, sich im jeweiligen Kundenkontext durch gezielte Einarbeitung Know-how in verschiedenen ETL-Tools (wie Informatica PowerCenter, Apache Spark oder Qlik/Talend) sowie weiteren Programmiersprachen und Technologien aufzubauen
                          mehr

                          AI Engineer (w|m|d)

                          BridgingIT GmbH
                          München, Frankfurt a.M., Mannheim, Stuttgart
                          Teilweise Home-Office
                          Anschreiben nicht erforderlich
                          Schnelle Bewerbung
                          Du hast einschlägige Erfahrung im Umgang mit technologierelevanten Tools und Frameworks wie z.B. Tensorflow, Pytorch, Keras, LangChain, LlamaIndex, OpenAI, Spark und Scala.
                          Du hast einschlägige Erfahrung im Umgang mit technologierelevanten Tools und Frameworks wie z.B. Tensorflow, Pytorch, Keras, LangChain, LlamaIndex, OpenAI, Spark und Scala.
                          mehr

                          Senior Big Data Architect Public Sector (m/w/d)

                          Sopra Steria
                          bundesweit, Berlin, Frankfurt, Hamburg, Köln, Leipzig, München
                          Teilweise Home-Office
                          Anschreiben nicht erforderlich
                          Fundierte Kenntnisse in modernen Big-Data-Technologien und -Plattformen (z. B. Databricks, Cloudera, Hadoop, Spark, Kafka, Azure Data Services, Fabric)
                          Fundierte Kenntnisse in modernen Big-Data-Technologien und -Plattformen (z. B. Databricks, Cloudera, Hadoop, Spark, Kafka, Azure Data Services, Fabric)
                          mehr
                          Du hast kein Problem damit, dich in neue Technologien einzuarbeiten und bringst Interesse mit an Big Data (Hadoop, Spark, Kafka), Cloud-Umgebungen (AWS, Azure), Containerisierung (Docker/Kubernetes), MLOps-Tools (MLflow, Kubeflow, Seldon) oder semantische Technologien (Ontologien, Knowledge Graphs, SPARQL/Cypher) – alles kein Muss, aber gern gesehen.
                          Du hast kein Problem damit, dich in neue Technologien einzuarbeiten und bringst Interesse mit an Big Data (Hadoop, Spark, Kafka), Cloud-Umgebungen (AWS, Azure), Containerisierung (Docker/Kubernetes), MLOps-Tools (MLflow, Kubeflow, Seldon) oder semantische Technologien (Ontologien, Knowledge Graphs, SPARQL/Cypher) – alles kein Muss, aber gern gesehen.
                          mehr
                          Proficiency in at least one of the following technologies: SQL, Python, Java, or Scala, as well as experience with data processing frameworks (e.g., Spark)
                          Proficiency in at least one of the following technologies: SQL, Python, Java, or Scala, as well as experience with data processing frameworks (e.g., Spark)
                          mehr
                          Gemeinsam mit unserem internationalen Team arbeitest du an der Entwicklung von modernen Open Source Frameworks und Tools wie J2E, Microservices, Docker, SQL, Kubernetes (Openshift ist ein Pluspunkt), Maven und Reverse Proxy Technologien (z.B. Apache, Nginx)
                          Gemeinsam mit unserem internationalen Team arbeitest du an der Entwicklung von modernen Open Source Frameworks und Tools wie J2E, Microservices, Docker, SQL, Kubernetes (Openshift ist ein Pluspunkt), Maven und Reverse Proxy Technologien (z.B. Apache, Nginx)
                          mehr
                          Konfiguration von Diensten wie MySQL, HAProxy, Apache, NGINX und Asterisk * Erfahrung im Betrieb von geschäftskritischer Infrastruktur und Diensten wie MySQL, Apache, NGINX, HAProxy
                          Konfiguration von Diensten wie MySQL, HAProxy, Apache, NGINX und Asterisk * Erfahrung im Betrieb von geschäftskritischer Infrastruktur und Diensten wie MySQL, Apache, NGINX, HAProxy
                          mehr

                          Linux Systemadministrator für Cloud Infrastruktur & Virtualisierung (m/w/d)

                          mgm technology partners GmbH
                          Berlin, Hamburg, Leipzig, München-Nord, Nürnberg
                          Teilweise Home-Office
                          Schnelle Bewerbung
                          Du setzt neue Cloud- und Virtualisierungstechnologien (z. B. Apache CloudStack, Proxmox, KVM) selbstständig produktiv auf
                          Du setzt neue Cloud- und Virtualisierungstechnologien (z. B. Apache CloudStack, Proxmox, KVM) selbstständig produktiv auf
                          mehr
                          Implementierung passgenauer BI-/Analytics-Lösungen unter Verwendung von Spark-Plattformen und relationalen Datenbanken (Synapse, Databricks, SQL), Plattformen und Orchestrierungen (MS Fabric, Azure Data Factory, dbt) und Visualisierungen (Power BI)
                          Implementierung passgenauer BI-/Analytics-Lösungen unter Verwendung von Spark-Plattformen und relationalen Datenbanken (Synapse, Databricks, SQL), Plattformen und Orchestrierungen (MS Fabric, Azure Data Factory, dbt) und Visualisierungen (Power BI)
                          mehr

                          Cloud Engineer (m/w/d)

                          Sopra Steria
                          bundesweit, Berlin, Frankfurt, Hamburg, Köln, Leipzig, München
                          Teilweise Home-Office
                          Anschreiben nicht erforderlich
                          Verschiedene Message-Queue-Technologien wie RabbitMQ, Apache Kafka, AWS SQS oder ActiveMQ hast du bereits produktiv eingesetzt
                          Verschiedene Message-Queue-Technologien wie RabbitMQ, Apache Kafka, AWS SQS oder ActiveMQ hast du bereits produktiv eingesetzt
                          mehr
                          Fachkenntnisse: Kenntnisse des typischen Technologiestacks, der modernen IT-Lösungen zugrunde liegt, wie z. B. im Zusammenspiel von Datenbanken (Oracle), Application Server (JBOSS), Middleware (Apache Tomcat, Openshift) und Fat- / Web-Client, Linuxserver und damit verbundene Skriptsprachen (Bash)
                          Fachkenntnisse: Kenntnisse des typischen Technologiestacks, der modernen IT-Lösungen zugrunde liegt, wie z. B. im Zusammenspiel von Datenbanken (Oracle), Application Server (JBOSS), Middleware (Apache Tomcat, Openshift) und Fat- / Web-Client, Linuxserver und damit verbundene Skriptsprachen (Bash)
                          mehr

                          DevOps Engineer (all genders)

                          adesso insurance solutions GmbH
                          Berlin, Bonn, Dortmund, Düsseldorf, Frankfurt, Hamburg, Köln, Leipzig, München, Nürnberg, Stuttgart
                          Teilweise Home-Office
                          Technologie-Stack: Erfahrungen im Bereich von IT Plattformen und Anwendungsbetrieb sowie im Umgang mit Bash, Batch, PowerShell, Ansible, Windows Servern, einer oder mehreren Linux-Distributionen, (Apache) Webserver und Tomcat hast du bereits gesammelt.
                          Technologie-Stack: Erfahrungen im Bereich von IT Plattformen und Anwendungsbetrieb sowie im Umgang mit Bash, Batch, PowerShell, Ansible, Windows Servern, einer oder mehreren Linux-Distributionen, (Apache) Webserver und Tomcat hast du bereits gesammelt.
                          mehr

                          Beliebte Jobs


                          mehr

                          Häufig gestellte Fragen

                          Wie viele offene Stellenangebote gibt es für Apache Spark Jobs in Augsburg?
                          Aktuell gibt es auf StepStone 8 offene Stellenanzeigen für Apache Spark Jobs in Augsburg.

                          Welche anderen Orte sind auch beliebt für Leute, die in Augsburg einen Apache Spark Job suchen?
                          Folgende Orte sind auch interessant für Leute, die in Augsburg einen Apache Spark Job suchen: München, Augsburg, Europa.

                          Welche anderen Jobs sind beliebt bei Kandidaten, die nach Apache Spark Jobs in Augsburg suchen?
                          Wer nach Apache Spark Jobs in Augsburg sucht, sucht häufig auch nach Angular, Git, Information Technology.

                          Welche Fähigkeiten braucht man für Apache Spark Jobs in Augsburg??
                          Für einen Apache Spark Job in Augsburg sind folgende Fähigkeiten von Vorteil: Deutsch, Apache Spark, Python, Englisch, Kommunikation.

                          Wie viele offene Teilzeit-Stellen gibt es für Apache Spark Jobs in Augsburg?
                          Für Apache Spark Jobs in Augsburg gibt es aktuell 7 offene Teilzeitstellen.