Schnelle Bewerbung
42
Erscheinungsdatum
Home-Office-Optionen
Pendelzeit
Bewerbungsart
Sprache
Fähigkeiten
Berufsfeld
Branche
Region
Städte
Berufserfahrung
Anstellungsart
Arbeitszeit

Filter

SortierungRelevanz
Erscheinungsdatum
    Home-Office-Optionen
      Gehalt
      Pendelzeit
      Bewerbungsart
        Sprache
          Fähigkeiten
            Berufsfeld
              Branche
                Region
                  Städte
                    Berufserfahrung
                      Anstellungsart
                        Arbeitszeit

                          Beliebte Jobs

                          • IT Bereich
                          • IT Praktikum
                          • Junior Informatiker
                          • Oracle
                          • Angular
                          • Apache Tomcat
                          • Office 365
                          • Splunk
                          • Kubernetes
                          • Praktikum Informatik
                          • SAP HCM
                          • DevOps
                          • Praktikum IT
                          • SAP GRC
                          • GitHub
                          • GitLab

                          mehr

                          Erscheinungsdatum

                          Neuer als 24h
                          12


                          Gehalt

                          Leg fest, wie viel du mindestens verdienen willst.

                          Pendelzeit

                          Fähigkeiten








                          Berufsfeld

                          IT
                          213






                          247 Treffer für Apache Kafka Jobs

                          (Senior) Data Engineer (w/m/d)

                          Cofinpro AG
                          Frankfurt am Main
                          Teilweise Home-Office
                          Schnelle Bewerbung
                          Praktische Erfahrung als Data Engineer mit gängigen ETL-Frameworks wie Talend oder informatica alternativ mit Tools wie Apache Spark, Apache NiFi oder Databricks und praktische Erfahrung mit Data Streaming Tools und Frameworks wie Apache Kafka, Beam oder Apache Flink sowie mit dem Aufsatz von relationalen und dokumentenorientierten Datenbanken * Wünschenswert: Erfahrung in der Anwendung von Agile, Lean und/oder Continuous-Delivery-Ansätzen (TDD, Continuous Integration, GitOps) sowie Kenntnisse im Entwurf von Cloud-native Architekturen mit Technologien wie Kafka, Docker, Helm, Kubernetes, Terraform unter der Nutzung von Domain-driven Design und Microservice-Ansätzen
                          Praktische Erfahrung als Data Engineer mit gängigen ETL-Frameworks wie Talend oder informatica alternativ mit Tools wie Apache Spark, Apache NiFi oder Databricks und praktische Erfahrung mit Data Streaming Tools und Frameworks wie Apache Kafka, Beam oder Apache Flink sowie mit dem Aufsatz von relationalen und dokumentenorientierten Datenbanken * Wünschenswert: Erfahrung in der Anwendung von Agile, Lean und/oder Continuous-Delivery-Ansätzen (TDD, Continuous Integration, GitOps) sowie Kenntnisse im Entwurf von Cloud-native Architekturen mit Technologien wie Kafka, Docker, Helm, Kubernetes, Terraform unter der Nutzung von Domain-driven Design und Microservice-Ansätzen
                          mehr

                          Machine Learning Engineer (AI Platform)

                          N26 GmbH
                          Berlin
                          Teilweise Home-Office
                          Exposure to Terraform, Kubernetes, Kafka, or similar distributed systems.
                          Exposure to Terraform, Kubernetes, Kafka, or similar distributed systems.
                          NEU

                          Manager Data Platforms (m/w/d)

                          conet Deutschland GmbH
                          Bonn
                          Teilweise Home-Office
                          Anschreiben nicht erforderlich
                          Erfahrung und großes Interesse an Big-Data-, Backend- und / oder DevOps-Themen – relevante Technologien sind für uns zum Beispiel Apache Spark / Databricks / Data Fabric, Apache Kafka, Apache Airflow, relationale und nichtrelationale Datenbanken, Pandas / Polars, FastAPI, MLFlow, Docker, Kubernetes, Prometheus, Grafana, AWS, GCP und Azure
                          Erfahrung und großes Interesse an Big-Data-, Backend- und / oder DevOps-Themen – relevante Technologien sind für uns zum Beispiel Apache Spark / Databricks / Data Fabric, Apache Kafka, Apache Airflow, relationale und nichtrelationale Datenbanken, Pandas / Polars, FastAPI, MLFlow, Docker, Kubernetes, Prometheus, Grafana, AWS, GCP und Azure
                          mehr

                          Principal Software Architekt mit SAP-Schwerpunkt (m/w/d)

                          BestSecret Group
                          München, remote / Homeoffice
                          Teilweise Home-Office
                          Hervorragendes Verständnis von Integrationsarchitektur, einschließlich eventbasierter Architektur (z. B. Apache Kafka) und gängiger Enterprise-Patterns.
                          Hervorragendes Verständnis von Integrationsarchitektur, einschließlich eventbasierter Architektur (z. B. Apache Kafka) und gängiger Enterprise-Patterns.
                          mehr

                          (Senior) Product Owner (w/m/d) - Data & AI Solutions

                          Computacenter AG & Co. oHG
                          Berlin, Hamburg, Hannover, Düsseldorf, Stuttgart, Nürnberg, München, Frankfurt
                          Teilweise Home-Office
                          Anschreiben nicht erforderlich
                          Fundierte Kenntnisse in Data Engineering (z.B. Apache Kafka, Confluent, RedHat AMQ), Analytics, KI-Frameworks sowie Container & Orchestrierung (z. B. Databricks, TensorFlow, Kubernetes)
                          Fundierte Kenntnisse in Data Engineering (z.B. Apache Kafka, Confluent, RedHat AMQ), Analytics, KI-Frameworks sowie Container & Orchestrierung (z. B. Databricks, TensorFlow, Kubernetes)
                          mehr
                          Experienced with technologies such as Nest.js, API design, Kafka, Redis, PostgreSQL, Prisma, and/or reactive programming with RxJS; or, on the frontend side, frameworks like Ionic or Angular.
                          Experienced with technologies such as Nest.js, API design, Kafka, Redis, PostgreSQL, Prisma, and/or reactive programming with RxJS; or, on the frontend side, frameworks like Ionic or Angular.
                          mehr
                          Erfahrung im Umgang mit Container-Management-Plattformen (insb. Kubernetes), Messaging-Plattformen wie z.B. Apache Kafka, Container-Technologien, insb. Docker oder Podman
                          Erfahrung im Umgang mit Container-Management-Plattformen (insb. Kubernetes), Messaging-Plattformen wie z.B. Apache Kafka, Container-Technologien, insb. Docker oder Podman
                          mehr
                          Maintain and optimize our core services such as Kubernetes, MongoDB, Kafka and Elasticsearch. * Bonus points for experience with JVM applications, MongoDB, Kafka and Elasticsearch.
                          Maintain and optimize our core services such as Kubernetes, MongoDB, Kafka and Elasticsearch. * Bonus points for experience with JVM applications, MongoDB, Kafka and Elasticsearch.
                          mehr

                          Team Lead Data Engineering Marketing (m/f/d)

                          The Stepstone Group GmbH
                          Düsseldorf
                          Teilweise Home-Office
                          Anschreiben nicht erforderlich
                          Experience working with cloud-based data platforms and orchestration tools, including technologies such as Python, SQL, dbt, Airflow, AWS (S3, Lambda), Redshift or similar data warehouses, Kafka or other event-driven systems, and Infrastructure-as-Code (e.g. Terraform)
                          Experience working with cloud-based data platforms and orchestration tools, including technologies such as Python, SQL, dbt, Airflow, AWS (S3, Lambda), Redshift or similar data warehouses, Kafka or other event-driven systems, and Infrastructure-as-Code (e.g. Terraform)
                          mehr

                          Senior Data Engineer (m/w/d)

                          conet Deutschland GmbH
                          Garching bei München, Augsburg, Bonn, Berlin, Frankfurt am Main, Düsseldorf, Koblenz, Karlsruhe
                          Teilweise Home-Office
                          Anschreiben nicht erforderlich
                          Relevante Technologien sind für uns zum Beispiel Apache Spark / Databricks, Apache Kafka, Apache Airflow, relationale und nichtrelationale Datenbanken, Pandas / Polars, FastAPI, MLFlow, Docker, Kubernetes, Prometheus, Grafana, AWS und Azure
                          Relevante Technologien sind für uns zum Beispiel Apache Spark / Databricks, Apache Kafka, Apache Airflow, relationale und nichtrelationale Datenbanken, Pandas / Polars, FastAPI, MLFlow, Docker, Kubernetes, Prometheus, Grafana, AWS und Azure
                          mehr
                          Steuerung, Koordination und Priorisierung von Projekt- und Implementierungsaktivitäten zur Implementierung leistungsfähiger Integrationslösungen – unter Einsatz von Technologien wie Lobster, SAP BTP Integration Suite, BizTalk, Tyk.io, ThingWorx und Apache Kafka
                          Steuerung, Koordination und Priorisierung von Projekt- und Implementierungsaktivitäten zur Implementierung leistungsfähiger Integrationslösungen – unter Einsatz von Technologien wie Lobster, SAP BTP Integration Suite, BizTalk, Tyk.io, ThingWorx und Apache Kafka
                          mehr

                          DATA ENGINEER (m/w/d)

                          hygi.de GmbH & Co. KG
                          Telgte
                          Teilweise Home-Office
                          Streaming: Apache Kafka für Echtzeit-Dateningestion * Delta Lake: Apache Spark & delta.io Framework; On-Premise auf Hadoop/YARN * Sehr gute Kenntnisse in Apache Spark (Scala/Python) sowie SQL für effiziente Datenverarbeitung und -analyse.
                          Streaming: Apache Kafka für Echtzeit-Dateningestion * Delta Lake: Apache Spark & delta.io Framework; On-Premise auf Hadoop/YARN * Sehr gute Kenntnisse in Apache Spark (Scala/Python) sowie SQL für effiziente Datenverarbeitung und -analyse.
                          mehr

                          Cloud Engineer (m/w/d)

                          Sopra Steria
                          bundesweit, Berlin, Frankfurt, Hamburg, Köln, Leipzig, München
                          Teilweise Home-Office
                          Anschreiben nicht erforderlich
                          Verschiedene Message-Queue-Technologien wie RabbitMQ, Apache Kafka, AWS SQS oder ActiveMQ hast du bereits produktiv eingesetzt * Der sichere Umgang mit Linux, VMware und Kubernetes sowie der Betrieb skalierbarer Kafka-Cluster und Zookeeper-Ensembles ist für dich selbstverständlich
                          Verschiedene Message-Queue-Technologien wie RabbitMQ, Apache Kafka, AWS SQS oder ActiveMQ hast du bereits produktiv eingesetzt * Der sichere Umgang mit Linux, VMware und Kubernetes sowie der Betrieb skalierbarer Kafka-Cluster und Zookeeper-Ensembles ist für dich selbstverständlich
                          mehr

                          Softwareentwickler (m/w/d)

                          ZS 2radteile GmbH
                          Vorbach
                          Teilweise Home-Office
                          Du hast erste oder vertiefte Erfahrung mit verteilten Systemen und der Verarbeitung großer Datenmengen (z. B. mit Apache Spark, Kafka, Flink oder Cassandra). * Freie Open-Source-Welt (FOSS): Arbeit mit unserem eigenen Apache/Nginx-Cluster, Mailcow, Nextcloud, Kubernetes, Cassandra und Apache Spark
                          Du hast erste oder vertiefte Erfahrung mit verteilten Systemen und der Verarbeitung großer Datenmengen (z. B. mit Apache Spark, Kafka, Flink oder Cassandra). * Freie Open-Source-Welt (FOSS): Arbeit mit unserem eigenen Apache/Nginx-Cluster, Mailcow, Nextcloud, Kubernetes, Cassandra und Apache Spark
                          mehr

                          Backend Engineer - Data

                          trivago N.V.
                          Düsseldorf
                          Teilweise Home-Office
                          Create deeper understanding and insights for our data using technologies like GCP Cloud Functions, Apache Beam, Kafka and Kubernetes, while leveraging Computer Vision * Apache Beam and Flink
                          Create deeper understanding and insights for our data using technologies like GCP Cloud Functions, Apache Beam, Kafka and Kubernetes, while leveraging Computer Vision * Apache Beam and Flink
                          mehr
                          The Software is written in Java programing language using microservice-like architecture and based on widely adopted components, like Jetty, Spring, Zookeeper, Apache Kafka and others.
                          The Software is written in Java programing language using microservice-like architecture and based on widely adopted components, like Jetty, Spring, Zookeeper, Apache Kafka and others.
                          mehr

                          Beliebte Jobs


                          mehr

                          Häufig gestellte Fragen

                          Wie viele offene Stellenangebote gibt es für Apache Kafka Jobs?
                          Aktuell gibt es auf StepStone 247 offene Stellenanzeigen für Apache Kafka Jobs.

                          Welche anderen Jobs sind beliebt bei Kandidaten, die nach Apache Kafka Jobs suchen?
                          Wer nach Apache Kafka Jobs sucht, sucht häufig auch nach: IT Bereich, IT Praktikum, Junior Informatiker.

                          Wie viele offene Teilzeit-Stellen gibt es für Apache Kafka Jobs?
                          Für Apache Kafka Jobs gibt es aktuell 48 offene Teilzeitstellen.

                          Welche Orte sind besonders beliebt für Apache Kafka Jobs?
                          Beliebte Orte für Apache Kafka Jobs sind: Berlin, Hamburg, München.

                          Welche Fähigkeiten braucht man für Apache Kafka Jobs?
                          Für einen Apache Kafka Job sind folgende Fähigkeiten von Vorteil: Deutsch, Englisch, Kommunikation, Kubernetes, Docker.