Experience working with cloud-based data platforms and orchestration tools, including technologies such as Python, SQL, dbt, Airflow, AWS (S3, Lambda), Redshift or similar data warehouses, Kafka or other event-driven systems, and Infrastructure-as-Code (e.g. Terraform)
Experience working with cloud-based data platforms and orchestration tools, including technologies such as Python, SQL, dbt, Airflow, AWS (S3, Lambda), Redshift or similar data warehouses, Kafka or other event-driven systems, and Infrastructure-as-Code (e.g. Terraform)
Erfahrung im Umgang mit Container-Management-Plattformen (insb. Kubernetes), Messaging-Plattformen wie z.B. ApacheKafka, Container-Technologien, insb. Docker oder Podman
Erfahrung im Umgang mit Container-Management-Plattformen (insb. Kubernetes), Messaging-Plattformen wie z.B. ApacheKafka, Container-Technologien, insb. Docker oder Podman
Garching bei München, Augsburg, Bonn, Berlin, Frankfurt am Main, Düsseldorf, Koblenz, Karlsruhe
Teilweise Home-Office
Anschreiben nicht erforderlich
Relevante Technologien sind für uns zum Beispiel Apache Spark / Databricks, ApacheKafka,Apache Airflow, relationale und nichtrelationale Datenbanken, Pandas / Polars, FastAPI, MLFlow, Docker, Kubernetes, Prometheus, Grafana, AWS und Azure
Relevante Technologien sind für uns zum Beispiel Apache Spark / Databricks, ApacheKafka,Apache Airflow, relationale und nichtrelationale Datenbanken, Pandas / Polars, FastAPI, MLFlow, Docker, Kubernetes, Prometheus, Grafana, AWS und Azure
bundesweit, Berlin, Frankfurt, Hamburg, Köln, Leipzig, München
Teilweise Home-Office
Anschreiben nicht erforderlich
Verschiedene Message-Queue-Technologien wie RabbitMQ, ApacheKafka, AWS SQS oder ActiveMQ hast du bereits produktiv eingesetzt * Der sichere Umgang mit Linux, VMware und Kubernetes sowie der Betrieb skalierbarer Kafka-Cluster und Zookeeper-Ensembles ist für dich selbstverständlich
Verschiedene Message-Queue-Technologien wie RabbitMQ, ApacheKafka, AWS SQS oder ActiveMQ hast du bereits produktiv eingesetzt * Der sichere Umgang mit Linux, VMware und Kubernetes sowie der Betrieb skalierbarer Kafka-Cluster und Zookeeper-Ensembles ist für dich selbstverständlich
Create deeper understanding and insights for our data using technologies like GCP Cloud Functions, Apache Beam, Kafka and Kubernetes, while leveraging Computer Vision * Apache Beam and Flink
Create deeper understanding and insights for our data using technologies like GCP Cloud Functions, Apache Beam, Kafka and Kubernetes, while leveraging Computer Vision * Apache Beam and Flink
As a Site Reliability Engineer at ilert, you'll own the reliability, performance, and scalability of our core platform across AWS, Kubernetes, Kafka, and more. * Operate and optimize self-managed Kafka, ClickHouse clusters and our Observability stack * Experience operating self-managed distributed systems, ideally Kafka or ClickHouse
As a Site Reliability Engineer at ilert, you'll own the reliability, performance, and scalability of our core platform across AWS, Kubernetes, Kafka, and more. * Operate and optimize self-managed Kafka, ClickHouse clusters and our Observability stack * Experience operating self-managed distributed systems, ideally Kafka or ClickHouse
Event- & Datenverarbeitung: Du arbeitest mit ApacheKafka und MQTT, um Datenströme aus Gateways, Sensoren und anderen Systemen zu empfangen, zu verarbeiten und in unsere Plattform zu integrieren.
Event- & Datenverarbeitung: Du arbeitest mit ApacheKafka und MQTT, um Datenströme aus Gateways, Sensoren und anderen Systemen zu empfangen, zu verarbeiten und in unsere Plattform zu integrieren.
Du entwickelst als Senior Expert IT Application Management (Kafka DevOps) (m/w/d) eine Strategie zum Betrieb der von dir verantworteten BSS-Systeme und -Prozesse, um die Geschäftsziele zu erreichen.
Du entwickelst als Senior Expert IT Application Management (Kafka DevOps) (m/w/d) eine Strategie zum Betrieb der von dir verantworteten BSS-Systeme und -Prozesse, um die Geschäftsziele zu erreichen.
Berlin, Bremen, Frankfurt, Hamburg, Hannover, Köln, München
Teilweise Home-Office
Du bringst Kenntnisse in relationalen oder schemalosen Datenbanken (z. B. Postgres, Microsoft SQL und/oder MongoDB) und bestenfalls ELK und Kafka mit und hast idealerweise schon bei Implementierungen von Webapplikationen mitgewirkt (Angular und/oder Vue.js)
Du bringst Kenntnisse in relationalen oder schemalosen Datenbanken (z. B. Postgres, Microsoft SQL und/oder MongoDB) und bestenfalls ELK und Kafka mit und hast idealerweise schon bei Implementierungen von Webapplikationen mitgewirkt (Angular und/oder Vue.js)
Der Schwerpunkt liegt dabei auf OpenShift und dem darunter liegenden Kubernetes, aber auch andere können zum Einsatz kommen, z.B. Docker Swarm, Apache Mesos.
Der Schwerpunkt liegt dabei auf OpenShift und dem darunter liegenden Kubernetes, aber auch andere können zum Einsatz kommen, z.B. Docker Swarm, Apache Mesos.
Berlin, Dortmund, Düsseldorf, Frankfurt, Hamburg, Köln, München
Teilweise Home-Office
Anschreiben nicht erforderlich
Aufgrund deiner mind. fünfjährigen Erfahrung blickst du auf einen reichen Erfahrungsschatz und ein tiefes Verständnis im Bereich (Cloud) Datenplattformen und des Big Data Ökosystems (Kafka, Spark, Databricks, Delta Lake, Iceberg, etc.) und Cloud Analytics Services (AWS, GCP) zurück, im Optimalfall belegt durch Herstellerzertifizierungen (Professional/ Specialist Level) und/oder nachgewiesene Projekterfahrung.
Aufgrund deiner mind. fünfjährigen Erfahrung blickst du auf einen reichen Erfahrungsschatz und ein tiefes Verständnis im Bereich (Cloud) Datenplattformen und des Big Data Ökosystems (Kafka, Spark, Databricks, Delta Lake, Iceberg, etc.) und Cloud Analytics Services (AWS, GCP) zurück, im Optimalfall belegt durch Herstellerzertifizierungen (Professional/ Specialist Level) und/oder nachgewiesene Projekterfahrung.