Do terms like 'microservice', 'SpringBoot', 'Kafka' and 'Azure' trigger excitement? * Experience with service busses / streaming platforms (particularly Kafka) is a plus
Do terms like 'microservice', 'SpringBoot', 'Kafka' and 'Azure' trigger excitement? * Experience with service busses / streaming platforms (particularly Kafka) is a plus
Skills in IT risk management, secure development practices, Containerisation (OpenShift), orchestration, and Kafka as well as with monitoring tools (Grafana, Kibana); cloud technologies and agile frameworks are a bonus
Skills in IT risk management, secure development practices, Containerisation (OpenShift), orchestration, and Kafka as well as with monitoring tools (Grafana, Kibana); cloud technologies and agile frameworks are a bonus
Praktische Erfahrung als Data Engineer mit gängigen ETL-Frameworks wie Talend oder informatica alternativ mit Tools wie Apache Spark, Apache NiFi oder Databricks und praktische Erfahrung mit Data Streaming Tools und Frameworks wie ApacheKafka, Beam oder Apache Flink sowie mit dem Aufsatz von relationalen und dokumentenorientierten Datenbanken * Wünschenswert: Erfahrung in der Anwendung von Agile, Lean und/oder Continuous-Delivery-Ansätzen (TDD, Continuous Integration, GitOps) sowie Kenntnisse im Entwurf von Cloud-native Architekturen mit Technologien wie Kafka, Docker, Helm, Kubernetes, Terraform unter der Nutzung von Domain-driven Design und Microservice-Ansätzen
Praktische Erfahrung als Data Engineer mit gängigen ETL-Frameworks wie Talend oder informatica alternativ mit Tools wie Apache Spark, Apache NiFi oder Databricks und praktische Erfahrung mit Data Streaming Tools und Frameworks wie ApacheKafka, Beam oder Apache Flink sowie mit dem Aufsatz von relationalen und dokumentenorientierten Datenbanken * Wünschenswert: Erfahrung in der Anwendung von Agile, Lean und/oder Continuous-Delivery-Ansätzen (TDD, Continuous Integration, GitOps) sowie Kenntnisse im Entwurf von Cloud-native Architekturen mit Technologien wie Kafka, Docker, Helm, Kubernetes, Terraform unter der Nutzung von Domain-driven Design und Microservice-Ansätzen
bundesweit, Berlin, Frankfurt, Hamburg, Köln, Leipzig, München
Teilweise Home-Office
Anschreiben nicht erforderlich
Verschiedene Message-Queue-Technologien wie RabbitMQ, ApacheKafka, AWS SQS oder ActiveMQ hast du bereits produktiv eingesetzt * Der sichere Umgang mit Linux, VMware und Kubernetes sowie der Betrieb skalierbarer Kafka-Cluster und Zookeeper-Ensembles ist für dich selbstverständlich
Verschiedene Message-Queue-Technologien wie RabbitMQ, ApacheKafka, AWS SQS oder ActiveMQ hast du bereits produktiv eingesetzt * Der sichere Umgang mit Linux, VMware und Kubernetes sowie der Betrieb skalierbarer Kafka-Cluster und Zookeeper-Ensembles ist für dich selbstverständlich
Auch erste Erfahrungen in Open Source Data Orchestration Tools (AirFlow) und Stream Processing mit z.B. Kafka Streams und Apache Flink sind wünschenswert.
Auch erste Erfahrungen in Open Source Data Orchestration Tools (AirFlow) und Stream Processing mit z.B. Kafka Streams und Apache Flink sind wünschenswert.
Sowohl Aufbau und Betrieb von Datenpipelines für Streaming (Kafka/Event Hubs) und Batch (ADLS/S3) als auch Datenaufbereitung in Microsoft Fabric Lakehouses mit Scala Spark und Delta * Praxiserfahrung mit Kafka/Event Hubs (Streaming) und Airflow (Orchestrierung)
Sowohl Aufbau und Betrieb von Datenpipelines für Streaming (Kafka/Event Hubs) und Batch (ADLS/S3) als auch Datenaufbereitung in Microsoft Fabric Lakehouses mit Scala Spark und Delta * Praxiserfahrung mit Kafka/Event Hubs (Streaming) und Airflow (Orchestrierung)
bundesweit, Berlin, Frankfurt, Hamburg, Köln, Leipzig, München
Teilweise Home-Office
Anschreiben nicht erforderlich
Fundierte Kenntnisse in modernen Big-Data-Technologien und -Plattformen (z. B. Databricks, Cloudera, Hadoop, Spark, Kafka, Azure Data Services, Fabric)
Fundierte Kenntnisse in modernen Big-Data-Technologien und -Plattformen (z. B. Databricks, Cloudera, Hadoop, Spark, Kafka, Azure Data Services, Fabric)
Mehrjährige praktische Kenntnisse in Schnittstellen und synchronen/asynchronen Kommunikationsprotokollen (HTTP/REST, GraphQL, Kafka) sowie in Java Spring Boot und Datenbankintegration mittels JPA sowie im Frontend React(JS) wünschenswert
Mehrjährige praktische Kenntnisse in Schnittstellen und synchronen/asynchronen Kommunikationsprotokollen (HTTP/REST, GraphQL, Kafka) sowie in Java Spring Boot und Datenbankintegration mittels JPA sowie im Frontend React(JS) wünschenswert
Sie verfügen über nachgewiesene Kenntnisse in der Java-Entwicklung mit Spring Boot oder Java EE sowie in modernen Technologien wie Docker, Kubernetes, Kafka und GitLab.
Sie verfügen über nachgewiesene Kenntnisse in der Java-Entwicklung mit Spring Boot oder Java EE sowie in modernen Technologien wie Docker, Kubernetes, Kafka und GitLab.
Erfahrungen mit Technologien wie Kubernetes, Prometheus, Grafana, Elasticsearch, Filebeat, PostgreSQL oder Kafka sind von Vorteil; tiefgehende Spezialkenntnisse stehen dabei allerdings nicht im Vordergrund.
Erfahrungen mit Technologien wie Kubernetes, Prometheus, Grafana, Elasticsearch, Filebeat, PostgreSQL oder Kafka sind von Vorteil; tiefgehende Spezialkenntnisse stehen dabei allerdings nicht im Vordergrund.
Frankfurt am Main, Berlin, Hamburg, Düsseldorf, München, Stuttgart
Teilweise Home-Office
Du bringst Kenntnisse in Big Data-Architekturen und -Technologien (Databricks, Microsoft Fabric, Azure Synapse, SQL & NoSQL Datenbanken, Spark, Kafka, Elastic, etc.) und Programmierung (Python, Scala, Java etc.) mit
Du bringst Kenntnisse in Big Data-Architekturen und -Technologien (Databricks, Microsoft Fabric, Azure Synapse, SQL & NoSQL Datenbanken, Spark, Kafka, Elastic, etc.) und Programmierung (Python, Scala, Java etc.) mit
Bereitschaft, sich im jeweiligen Kundenkontext durch gezielte Einarbeitung Know-how in verschiedenen ETL-Tools (wie Informatica PowerCenter, Apache Spark oder Qlik/Talend) sowie weiteren Programmiersprachen und Technologien aufzubauen
Bereitschaft, sich im jeweiligen Kundenkontext durch gezielte Einarbeitung Know-how in verschiedenen ETL-Tools (wie Informatica PowerCenter, Apache Spark oder Qlik/Talend) sowie weiteren Programmiersprachen und Technologien aufzubauen
Frankfurt am Main, München, Berlin, Karlsruhe, Hannover, Köln, Stuttgart
Teilweise Home-Office
Wünschenswert: Erfahrung in der Anwendung von Agile-, Lean- und/oder Continuous-Delivery-Ansätzen (TDD, Continuous Integration, GitOps) sowie Kenntnisse im Entwurf von Cloud-Native-Architekturen mit Technologien wie Kafka, Docker, Helm und Kubernetes mitunter der Nutzung von Domain-driven Design und Microservice-Ansätzen
Wünschenswert: Erfahrung in der Anwendung von Agile-, Lean- und/oder Continuous-Delivery-Ansätzen (TDD, Continuous Integration, GitOps) sowie Kenntnisse im Entwurf von Cloud-Native-Architekturen mit Technologien wie Kafka, Docker, Helm und Kubernetes mitunter der Nutzung von Domain-driven Design und Microservice-Ansätzen