bundesweit, Berlin, Frankfurt, Hamburg, Köln, Leipzig, München
Teilweise Home-Office
Anschreiben nicht erforderlich
Verschiedene Message-Queue-Technologien wie RabbitMQ, ApacheKafka, AWS SQS oder ActiveMQ hast du bereits produktiv eingesetzt * Der sichere Umgang mit Linux, VMware und Kubernetes sowie der Betrieb skalierbarer Kafka-Cluster und Zookeeper-Ensembles ist für dich selbstverständlich
Verschiedene Message-Queue-Technologien wie RabbitMQ, ApacheKafka, AWS SQS oder ActiveMQ hast du bereits produktiv eingesetzt * Der sichere Umgang mit Linux, VMware und Kubernetes sowie der Betrieb skalierbarer Kafka-Cluster und Zookeeper-Ensembles ist für dich selbstverständlich
You won't just be fetching coffee; you'll be helping us maintain the reliability, performance, and scalability of a platform running on AWS, Kubernetes, and Kafka. * Distributed Systems: Gain hands-on experience with high-throughput systems like Kafka and ClickHouse.
You won't just be fetching coffee; you'll be helping us maintain the reliability, performance, and scalability of a platform running on AWS, Kubernetes, and Kafka. * Distributed Systems: Gain hands-on experience with high-throughput systems like Kafka and ClickHouse.
Mehrjährige praktische Kenntnisse in Schnittstellen und synchronen/asynchronen Kommunikationsprotokollen (HTTP/REST, GraphQL, Kafka) sowie in Java Spring Boot und Datenbankintegration mittels JPA sowie im Frontend React(JS) wünschenswert
Mehrjährige praktische Kenntnisse in Schnittstellen und synchronen/asynchronen Kommunikationsprotokollen (HTTP/REST, GraphQL, Kafka) sowie in Java Spring Boot und Datenbankintegration mittels JPA sowie im Frontend React(JS) wünschenswert
Technologie-Stack: Erfahrungen im Bereich von IT Plattformen und Anwendungsbetrieb sowie im Umgang mit Bash, Batch, PowerShell, Ansible, Windows Servern, einer oder mehreren Linux-Distributionen, (Apache) Webserver und Tomcat hast du bereits gesammelt.
Technologie-Stack: Erfahrungen im Bereich von IT Plattformen und Anwendungsbetrieb sowie im Umgang mit Bash, Batch, PowerShell, Ansible, Windows Servern, einer oder mehreren Linux-Distributionen, (Apache) Webserver und Tomcat hast du bereits gesammelt.
bundesweit, Berlin, Frankfurt, Hamburg, Köln, Leipzig, München
Teilweise Home-Office
Anschreiben nicht erforderlich
Fundierte Kenntnisse in modernen Big-Data-Technologien und -Plattformen (z. B. Databricks, Cloudera, Hadoop, Spark, Kafka, Azure Data Services, Fabric)
Fundierte Kenntnisse in modernen Big-Data-Technologien und -Plattformen (z. B. Databricks, Cloudera, Hadoop, Spark, Kafka, Azure Data Services, Fabric)
Aufbau und Verwaltung von Datenpipelines mit Low-Code-/No-Code-Tools (z.B. Apache NiFi, NodeRed) sowie gelegentliches Scripting in Python für komplexere Transformationen und API-Integrationen * Erfahrung mit Datenintegrations-Tools wie Apache NiFi oder ähnlichen Plattformen
Aufbau und Verwaltung von Datenpipelines mit Low-Code-/No-Code-Tools (z.B. Apache NiFi, NodeRed) sowie gelegentliches Scripting in Python für komplexere Transformationen und API-Integrationen * Erfahrung mit Datenintegrations-Tools wie Apache NiFi oder ähnlichen Plattformen
Du bist mit den gängigen Data-Science-Libraries & Tools wie scikit-learn, pandas, Matplotlib und jupyter bestens vertraut und besitzt Erfahrung mit Big-Data-Frameworks wie Apache Spark.
Du bist mit den gängigen Data-Science-Libraries & Tools wie scikit-learn, pandas, Matplotlib und jupyter bestens vertraut und besitzt Erfahrung mit Big-Data-Frameworks wie Apache Spark.
Bereitschaft, sich im jeweiligen Kundenkontext durch gezielte Einarbeitung Know-how in verschiedenen ETL-Tools (wie Informatica PowerCenter, Apache Spark oder Qlik/Talend) sowie weiteren Programmiersprachen und Technologien aufzubauen
Bereitschaft, sich im jeweiligen Kundenkontext durch gezielte Einarbeitung Know-how in verschiedenen ETL-Tools (wie Informatica PowerCenter, Apache Spark oder Qlik/Talend) sowie weiteren Programmiersprachen und Technologien aufzubauen
In der aktuellen Eventsaison freuen wir uns außerdem auf Auftritte von Helene Fischer, Apache, Madonna, Shirin David, die Lachende Kölnarena sowie die Heimspiele der Kölner Haie.
In der aktuellen Eventsaison freuen wir uns außerdem auf Auftritte von Helene Fischer, Apache, Madonna, Shirin David, die Lachende Kölnarena sowie die Heimspiele der Kölner Haie.
Berlin, Bremen, Frankfurt, Hamburg, Hannover, Köln, München
Teilweise Home-Office
Du bringst Kenntnisse in relationalen oder schemalosen Datenbanken (z. B. Postgres, Microsoft SQL und/oder MongoDB) und bestenfalls ELK und Kafka mit und hast idealerweise schon bei Implementierungen von Webapplikationen mitgewirkt (Angular und/oder Vue.js)
Du bringst Kenntnisse in relationalen oder schemalosen Datenbanken (z. B. Postgres, Microsoft SQL und/oder MongoDB) und bestenfalls ELK und Kafka mit und hast idealerweise schon bei Implementierungen von Webapplikationen mitgewirkt (Angular und/oder Vue.js)
In der aktuellen Eventsaison freuen wir uns außerdem auf Auftritte von Helene Fischer, Apache, Madonna, Shirin David, die Lachende Kölnarena sowie die Heimspiele der Kölner Haie.
In der aktuellen Eventsaison freuen wir uns außerdem auf Auftritte von Helene Fischer, Apache, Madonna, Shirin David, die Lachende Kölnarena sowie die Heimspiele der Kölner Haie.
Bring extensive practical experience with ELT/ETL processes, data integration platforms, and related tools such as Apache Spark, Apache Flink, Python/Scala
Bring extensive practical experience with ELT/ETL processes, data integration platforms, and related tools such as Apache Spark, Apache Flink, Python/Scala
Frankfurt am Main, München, Berlin, Karlsruhe, Hannover, Köln, Stuttgart
Teilweise Home-Office
Wünschenswert: Erfahrung in der Anwendung von Agile-, Lean- und/oder Continuous-Delivery-Ansätzen (TDD, Continuous Integration, GitOps) sowie Kenntnisse im Entwurf von Cloud-Native-Architekturen mit Technologien wie Kafka, Docker, Helm und Kubernetes mitunter der Nutzung von Domain-driven Design und Microservice-Ansätzen
Wünschenswert: Erfahrung in der Anwendung von Agile-, Lean- und/oder Continuous-Delivery-Ansätzen (TDD, Continuous Integration, GitOps) sowie Kenntnisse im Entwurf von Cloud-Native-Architekturen mit Technologien wie Kafka, Docker, Helm und Kubernetes mitunter der Nutzung von Domain-driven Design und Microservice-Ansätzen