Schnelle Bewerbung
25
Erscheinungsdatum
Home-Office-Optionen
Pendelzeit
Bewerbungsart
Sprache
Fähigkeiten
Berufsfeld
Branche
Region
Städte
Berufserfahrung
Anstellungsart
Arbeitszeit

Filter

SortierungRelevanz
Erscheinungsdatum
    Home-Office-Optionen
      Gehalt
      Pendelzeit
      Bewerbungsart
        Sprache
          Fähigkeiten
            Berufsfeld
              Branche
                Region
                  Städte
                    Berufserfahrung
                      Anstellungsart
                        Arbeitszeit

                          Beliebte Jobs

                          • Praktikum Informatik
                          • Informatik
                          • DevOps
                          • IT Bereich
                          • Kotlin
                          • Ai Software Developer
                          • Fachinformatiker Anwendungsentwicklung
                          • Data Analytics
                          • Java
                          • Junior IT
                          • Python
                          • IT Intern
                          • Microsoft BI
                          • IT Internship
                          • IT Software Tester
                          • AI Specialist

                          mehr

                          Erscheinungsdatum

                          Neuer als 24h
                          4


                          Gehalt

                          Leg fest, wie viel du mindestens verdienen willst.

                          Pendelzeit

                          Fähigkeiten








                          Berufsfeld

                          IT
                          71






                          73 Treffer für Apache Kafka Jobs in Süddeutschland im Umkreis von 30 km

                          Cloud Engineer (m/w/d)

                          Sopra Steria
                          bundesweit, Berlin, Frankfurt, Hamburg, Köln, Leipzig, München
                          Teilweise Home-Office
                          Anschreiben nicht erforderlich
                          Verschiedene Message-Queue-Technologien wie RabbitMQ, Apache Kafka, AWS SQS oder ActiveMQ hast du bereits produktiv eingesetzt * Der sichere Umgang mit Linux, VMware und Kubernetes sowie der Betrieb skalierbarer Kafka-Cluster und Zookeeper-Ensembles ist für dich selbstverständlich
                          Verschiedene Message-Queue-Technologien wie RabbitMQ, Apache Kafka, AWS SQS oder ActiveMQ hast du bereits produktiv eingesetzt * Der sichere Umgang mit Linux, VMware und Kubernetes sowie der Betrieb skalierbarer Kafka-Cluster und Zookeeper-Ensembles ist für dich selbstverständlich
                          mehr

                          Software Entwickler (m/w/d)

                          BlueMetering GmbH
                          München
                          Teilweise Home-Office
                          Fundierte Erfahrung in Apache Kafka.
                          Fundierte Erfahrung in Apache Kafka.

                          Team Lead Integration Technology Solutions (m/w/d)

                          Liebherr-IT Services GmbH
                          Kirchdorf an der Iller
                          Teilweise Home-Office
                          Steuerung, Koordination und Priorisierung von Projekt- und Implementierungsaktivitäten zur Implementierung leistungsfähiger Integrationslösungen - unter Einsatz von Technologien wie Lobster, SAP BTP Integration Suite, BizTalk, Tyk.io, ThingWorx und Apache Kafka
                          Steuerung, Koordination und Priorisierung von Projekt- und Implementierungsaktivitäten zur Implementierung leistungsfähiger Integrationslösungen - unter Einsatz von Technologien wie Lobster, SAP BTP Integration Suite, BizTalk, Tyk.io, ThingWorx und Apache Kafka
                          mehr

                          Cloud Native Data Engineer (all genders)

                          adesso SE
                          Aachen, Frankfurt, Koblenz, Saarbrücken, Nürnberg
                          Teilweise Home-Office
                          Anschreiben nicht erforderlich
                          Data-Pipelines umsetzen: Du konzipierst und implementierst robuste Data-Pipelines, Data Ingest und Data-Processing auf Basis von Open-Source-Komponenten wie Apache Airflow, Kafka, Spark oder Trino und sorgst dafür, dass Daten zuverlässig, performant und nachvollziehbar fließen. * Ausbildung & Erfahrung: Du bringst ein abgeschlossenes Studium (oder eine vergleichbare Qualifikation) mit und hast bereits praktisch mit Komponenten wie Spark, Kafka, Airflow o. Ä. gearbeitet - idealerweise in produktionsnahen Projekten.
                          Data-Pipelines umsetzen: Du konzipierst und implementierst robuste Data-Pipelines, Data Ingest und Data-Processing auf Basis von Open-Source-Komponenten wie Apache Airflow, Kafka, Spark oder Trino und sorgst dafür, dass Daten zuverlässig, performant und nachvollziehbar fließen. * Ausbildung & Erfahrung: Du bringst ein abgeschlossenes Studium (oder eine vergleichbare Qualifikation) mit und hast bereits praktisch mit Komponenten wie Spark, Kafka, Airflow o. Ä. gearbeitet - idealerweise in produktionsnahen Projekten.
                          mehr
                          NEU

                          Cloud Native Data Engineer (all genders)

                          adesso SE
                          Stuttgart, Frankfurt, Nürnberg, Ulm, Karlsruhe, Walldorf
                          Teilweise Home-Office
                          Anschreiben nicht erforderlich
                          Data-Pipelines umsetzen: Du konzipierst und implementierst robuste Data-Pipelines, Data Ingest und Data-Processing auf Basis von Open-Source-Komponenten wie Apache Airflow, Kafka, Spark oder Trino und sorgst dafür, dass Daten zuverlässig, performant und nachvollziehbar fließen. * Ausbildung & Erfahrung: Du bringst ein abgeschlossenes Studium (oder eine vergleichbare Qualifikation) mit und hast bereits praktisch mit Komponenten wie Spark, Kafka, Airflow o. Ä. gearbeitet – idealerweise in produktionsnahen Projekten.
                          Data-Pipelines umsetzen: Du konzipierst und implementierst robuste Data-Pipelines, Data Ingest und Data-Processing auf Basis von Open-Source-Komponenten wie Apache Airflow, Kafka, Spark oder Trino und sorgst dafür, dass Daten zuverlässig, performant und nachvollziehbar fließen. * Ausbildung & Erfahrung: Du bringst ein abgeschlossenes Studium (oder eine vergleichbare Qualifikation) mit und hast bereits praktisch mit Komponenten wie Spark, Kafka, Airflow o. Ä. gearbeitet – idealerweise in produktionsnahen Projekten.
                          mehr

                          Senior Business Architect & Team Lead – IT-Systemintegration (m/w/d) im Team Technology Consulting

                          x1F GmbH
                          bundesweit, Düsseldorf, Frankfurt, Hamburg, Köln, München, Home-Office
                          Teilweise Home-Office
                          Schnelle Bewerbung
                          Softwareentwicklung: Sehr gute Kenntnisse in mindestens einer modernen Programmiersprache, zum Beispiel Java, sowie Erfahrung mit Frameworks wie Spring, Apache Camel oder Kafka.
                          Softwareentwicklung: Sehr gute Kenntnisse in mindestens einer modernen Programmiersprache, zum Beispiel Java, sowie Erfahrung mit Frameworks wie Spring, Apache Camel oder Kafka.
                          mehr
                          IDnow GmbH

                          Senior Software Engineer – Java (f/m/d)

                          IDnow GmbH
                          Berlin, Berlin, Germany; München, Bavaria, Germany
                          Teilweise Home-Office
                          Knowledge of message brokers (Kafka, RabbitMQ) or event-driven systems.
                          Knowledge of message brokers (Kafka, RabbitMQ) or event-driven systems.
                          Steadforce GmbH

                          Data Engineer (m/w/d) Azure & Databricks | Cloud & Streaming

                          Steadforce GmbH
                          München
                          Schnelle Bewerbung
                          Sehr gute Kenntnisse in Apache Spark, Kafka und Flink * Entwicklung und Optimierung von Datenpipelines für Batch- und Echtzeitverarbeitung (Databricks, Spark, Kafka)
                          Sehr gute Kenntnisse in Apache Spark, Kafka und Flink * Entwicklung und Optimierung von Datenpipelines für Batch- und Echtzeitverarbeitung (Databricks, Spark, Kafka)
                          mehr

                          Noch nichts dabei? Es gibt 64 weitere Jobs, die zu deiner Suche passen könnten

                          Senior Big Data Engineer (m/w/d)

                          Sopra Steria
                          bundesweit, Berlin, Frankfurt, Hamburg, Köln, Leipzig, München
                          Teilweise Home-Office
                          Anschreiben nicht erforderlich
                          Du verfügst über Kenntnisse des Technologie-Stacks für Datenmanagement, Dateneingabe, -erfassung, -verarbeitung und -kuratierung wie beispielsweise Kafka, Postgres, Oracle oder Spark * Idealerweise hast du erste Erfahrungen in Big Data Projekten gesammelt und verfügst über Erfahrungen in der Workflow Orchestrierung wie beispielsweise Apache Airflow, Luigi oder Prefect
                          Du verfügst über Kenntnisse des Technologie-Stacks für Datenmanagement, Dateneingabe, -erfassung, -verarbeitung und -kuratierung wie beispielsweise Kafka, Postgres, Oracle oder Spark * Idealerweise hast du erste Erfahrungen in Big Data Projekten gesammelt und verfügst über Erfahrungen in der Workflow Orchestrierung wie beispielsweise Apache Airflow, Luigi oder Prefect
                          mehr

                          Lead Integration Engineer (m/w/d) im Team Technology Consulting

                          x1F GmbH
                          bundesweit, Düsseldorf, Frankfurt, Hamburg, Hannover, München
                          Teilweise Home-Office
                          Schnelle Bewerbung
                          Implementieren: Routiniert setzt du Integrationslösungen um, konfigurierst Schnittstellen und optimierst die Kommunikation über REST, SOAP sowie Event- und Messaging-Systeme wie Kafka oder RabbitMQ. * Fachwissen: sehr gute Kenntnisse in REST, SOAP, Event- und Messaging-Systemen wie Kafka oder RabbitMQ sowie in Integrationsmustern und API-Design * Zusatzkenntnisse: Kenntnisse in JavaScript für Testautomatisierung sowie Erfahrung mit Spring Boot, Apache Camel oder Guidewire sind von Vorteil
                          Implementieren: Routiniert setzt du Integrationslösungen um, konfigurierst Schnittstellen und optimierst die Kommunikation über REST, SOAP sowie Event- und Messaging-Systeme wie Kafka oder RabbitMQ. * Fachwissen: sehr gute Kenntnisse in REST, SOAP, Event- und Messaging-Systemen wie Kafka oder RabbitMQ sowie in Integrationsmustern und API-Design * Zusatzkenntnisse: Kenntnisse in JavaScript für Testautomatisierung sowie Erfahrung mit Spring Boot, Apache Camel oder Guidewire sind von Vorteil
                          mehr
                          Anschreiben nicht erforderlich
                          Du entwickelst und betreibst Daten‑Ingestion‑Pipelines und Event‑Streaming‑Infrastrukturen auf Basis moderner Open‑Source‑Technologien – zum Beispiel aus dem Kafka‑Ökosystem (Kafka Connect, Schema Registry, Kafka Streams / KSQL). * Erfahrung mit dem Aufbau und Betrieb von Daten‑ und Streaming‑Plattformen, idealerweise auf Basis des Kafka‑Ökosystems (Kafka Connect, Schema Registry, Kafka Streams / KSQL).
                          Du entwickelst und betreibst Daten‑Ingestion‑Pipelines und Event‑Streaming‑Infrastrukturen auf Basis moderner Open‑Source‑Technologien – zum Beispiel aus dem Kafka‑Ökosystem (Kafka Connect, Schema Registry, Kafka Streams / KSQL). * Erfahrung mit dem Aufbau und Betrieb von Daten‑ und Streaming‑Plattformen, idealerweise auf Basis des Kafka‑Ökosystems (Kafka Connect, Schema Registry, Kafka Streams / KSQL).
                          mehr

                          Senior Specialist Application Development (m/w/d)

                          MS Motorservice International GmbH
                          Neuenstadt a.K. bei Heilbronn
                          Teilweise Home-Office
                          Erfahrung in der Administration und Konfiguration von Apache HTTP und Apache Tomcat sowie von Repository-Managern wie Nexus oder Artifactory
                          Erfahrung in der Administration und Konfiguration von Apache HTTP und Apache Tomcat sowie von Repository-Managern wie Nexus oder Artifactory
                          mehr
                          Kenntnisse im Umgang mit Datenbanken sowie idealerweise mit modernen Datenplattformen (z. B. Databricks, Snowflake) und Big-Data-Technologien (z. B. Spark, Kafka)
                          Kenntnisse im Umgang mit Datenbanken sowie idealerweise mit modernen Datenplattformen (z. B. Databricks, Snowflake) und Big-Data-Technologien (z. B. Spark, Kafka)
                          mehr
                          In der Welt von Java, Groovy, JavaScript und RESTful APIs fühlst du dich zu Hause und du begegnest modernen Technologien und Konzepten, Tools und Frameworks mit Experimentierfreude und Neugier (z.B. Apache Camel, IntelliJ, Bitbucket, Bamboo, Docker, Kubernetes)
                          In der Welt von Java, Groovy, JavaScript und RESTful APIs fühlst du dich zu Hause und du begegnest modernen Technologien und Konzepten, Tools und Frameworks mit Experimentierfreude und Neugier (z.B. Apache Camel, IntelliJ, Bitbucket, Bamboo, Docker, Kubernetes)
                          mehr

                          Cloud Data Architect (all genders)

                          adesso SE
                          Berlin, Hamburg, München, Köln, Frankfurt, Stuttgart, Dormund
                          Teilweise Home-Office
                          Anschreiben nicht erforderlich
                          Erfahrung im Big-Data-Umfeld: Du verfügst über umfassende Kenntnisse in Big-Data-Technologien (z.B. Kafka, Spark, Hive, etc.) oder Cloud-Analytics-Services (AWS, GCP).
                          Erfahrung im Big-Data-Umfeld: Du verfügst über umfassende Kenntnisse in Big-Data-Technologien (z.B. Kafka, Spark, Hive, etc.) oder Cloud-Analytics-Services (AWS, GCP).
                          mehr
                          Anschreiben nicht erforderlich
                          Mit asynchronen Kopplungsmustern und Message‑Log‑Brokern/Event‑Streaming (z. B. Kafka oder MQTT) bist du bereits vertraut oder bereit, dich intensiv einzuarbeiten.
                          Mit asynchronen Kopplungsmustern und Message‑Log‑Brokern/Event‑Streaming (z. B. Kafka oder MQTT) bist du bereits vertraut oder bereit, dich intensiv einzuarbeiten.
                          mehr
                          Anschreiben nicht erforderlich
                          Zu deinen Aufgaben gehört die Entwicklung im JVM-Umfeld und eigenständige Auswahl der optimalen Lösung für Business-Anforderungen aus einem bestehenden Werkzeugkasten zu z.B. Java, Scala, Groovy, Docker, Microservices, REST, JSON, Redis, Kafka, Elasticsearch, uvm.
                          Zu deinen Aufgaben gehört die Entwicklung im JVM-Umfeld und eigenständige Auswahl der optimalen Lösung für Business-Anforderungen aus einem bestehenden Werkzeugkasten zu z.B. Java, Scala, Groovy, Docker, Microservices, REST, JSON, Redis, Kafka, Elasticsearch, uvm.
                          mehr
                          Anschreiben nicht erforderlich
                          Zu deinen Aufgaben gehört die Entwicklung im JVM-Umfeld und eigenständige Auswahl der optimalen Lösung für Business-Anforderungen aus einem bestehenden Werkzeugkasten zu z.B. Java, Scala, Groovy, Docker, Microservices, REST, JSON, Redis, Kafka, Elasticsearch, uvm.
                          Zu deinen Aufgaben gehört die Entwicklung im JVM-Umfeld und eigenständige Auswahl der optimalen Lösung für Business-Anforderungen aus einem bestehenden Werkzeugkasten zu z.B. Java, Scala, Groovy, Docker, Microservices, REST, JSON, Redis, Kafka, Elasticsearch, uvm.
                          mehr

                          Beliebte Jobs


                          mehr

                          Häufig gestellte Fragen

                          Wie viele offene Stellenangebote gibt es für Apache Kafka Jobs in Süddeutschland?
                          Aktuell gibt es auf StepStone 73 offene Stellenanzeigen für Apache Kafka Jobs in Süddeutschland.

                          Welche anderen Orte sind auch beliebt für Leute, die in Süddeutschland einen Apache Kafka Job suchen?
                          Folgende Orte sind auch interessant für Leute, die in Süddeutschland einen Apache Kafka Job suchen: München, Stuttgart, Nürnberg.

                          Welche anderen Jobs sind beliebt bei Kandidaten, die nach Apache Kafka Jobs in Süddeutschland suchen?
                          Wer nach Apache Kafka Jobs in Süddeutschland sucht, sucht häufig auch nach Praktikum Informatik, Informatik, DevOps.

                          Welche Fähigkeiten braucht man für Apache Kafka Jobs in Süddeutschland??
                          Für einen Apache Kafka Job in Süddeutschland sind folgende Fähigkeiten von Vorteil: Deutsch, Englisch, Java, Entwicklung, Technik.

                          Wie viele offene Teilzeit-Stellen gibt es für Apache Kafka Jobs in Süddeutschland?
                          Für Apache Kafka Jobs in Süddeutschland gibt es aktuell 13 offene Teilzeitstellen.