Arbeiten an neuen Plattformfeatures – z.B. Event-Streaming mit ApacheKafka, Optimierung von Datenflüssen und Services * Erfahrung in verteilten Systemen, Event-Streaming (z.B. Kafka) und moderner Softwarearchitektur (Microservices, Cloud-native Ansätze)
Arbeiten an neuen Plattformfeatures – z.B. Event-Streaming mit ApacheKafka, Optimierung von Datenflüssen und Services * Erfahrung in verteilten Systemen, Event-Streaming (z.B. Kafka) und moderner Softwarearchitektur (Microservices, Cloud-native Ansätze)
Java-Frameworks & Ökosystem: Idealerweise verfügst du über praktische Kenntnisse in Spring Boot und Microservices‑Architekturen, kannst Webservices beispielsweise mit Apache CXF umsetzen, Logging über Logback konfigurieren und besitzt Grundkenntnisse im Event‑Streaming mit ApacheKafka
Java-Frameworks & Ökosystem: Idealerweise verfügst du über praktische Kenntnisse in Spring Boot und Microservices‑Architekturen, kannst Webservices beispielsweise mit Apache CXF umsetzen, Logging über Logback konfigurieren und besitzt Grundkenntnisse im Event‑Streaming mit ApacheKafka
Hervorragendes Verständnis von Integrationsarchitektur, einschließlich eventbasierter Architektur (z. B. ApacheKafka) und gängiger Enterprise-Patterns.
Hervorragendes Verständnis von Integrationsarchitektur, einschließlich eventbasierter Architektur (z. B. ApacheKafka) und gängiger Enterprise-Patterns.
bundesweit, Berlin, Frankfurt, Hamburg, Köln, Leipzig, München
Teilweise Home-Office
Anschreiben nicht erforderlich
Verschiedene Message-Queue-Technologien wie RabbitMQ, ApacheKafka, AWS SQS oder ActiveMQ hast du bereits produktiv eingesetzt * Der sichere Umgang mit Linux, VMware und Kubernetes sowie der Betrieb skalierbarer Kafka-Cluster und Zookeeper-Ensembles ist für dich selbstverständlich
Verschiedene Message-Queue-Technologien wie RabbitMQ, ApacheKafka, AWS SQS oder ActiveMQ hast du bereits produktiv eingesetzt * Der sichere Umgang mit Linux, VMware und Kubernetes sowie der Betrieb skalierbarer Kafka-Cluster und Zookeeper-Ensembles ist für dich selbstverständlich
Experience & interest in working with modern tech stack & methods like REST/SOAP API-Management, Data Ingestion & Streaming (Kafka or similar), SSO, LDAP, IT Security, Agile, etc.
Experience & interest in working with modern tech stack & methods like REST/SOAP API-Management, Data Ingestion & Streaming (Kafka or similar), SSO, LDAP, IT Security, Agile, etc.
Experience & interest in working with modern tech stack & methods like REST/SOAP API-Management, Data Ingestion & Streaming (Kafka or similar), SSO, LDAP, IT Security, Agile, etc.
Experience & interest in working with modern tech stack & methods like REST/SOAP API-Management, Data Ingestion & Streaming (Kafka or similar), SSO, LDAP, IT Security, Agile, etc.
Du verfügst über mehrere Jahre Berufserfahrung als Entwickler/-in im Umfeld moderner Technologien und Architekturen, wie z. B. Java, Python, Quarkus, Microservices, ApacheKafka, RESTful APIs.
Du verfügst über mehrere Jahre Berufserfahrung als Entwickler/-in im Umfeld moderner Technologien und Architekturen, wie z. B. Java, Python, Quarkus, Microservices, ApacheKafka, RESTful APIs.
Mehrjährige praktische Kenntnisse in Schnittstellen und synchronen/asynchronen Kommunikationsprotokollen (HTTP/REST, GraphQL, Kafka) sowie in Java Spring Boot und Datenbankintegration mittels JPA sowie im Frontend React(JS) wünschenswert
Mehrjährige praktische Kenntnisse in Schnittstellen und synchronen/asynchronen Kommunikationsprotokollen (HTTP/REST, GraphQL, Kafka) sowie in Java Spring Boot und Datenbankintegration mittels JPA sowie im Frontend React(JS) wünschenswert
Berlin, Bremen, Frankfurt, Hamburg, Hannover, Köln, München
Teilweise Home-Office
Du bringst Kenntnisse in relationalen oder schemalosen Datenbanken (z. B. Postgres, Microsoft SQL und/oder MongoDB) und bestenfalls ELK und Kafka mit und hast idealerweise schon bei Implementierungen von Webapplikationen mitgewirkt (Angular und/oder Vue.js)
Du bringst Kenntnisse in relationalen oder schemalosen Datenbanken (z. B. Postgres, Microsoft SQL und/oder MongoDB) und bestenfalls ELK und Kafka mit und hast idealerweise schon bei Implementierungen von Webapplikationen mitgewirkt (Angular und/oder Vue.js)
Landesamt für Digitalisierung, Breitband und Vermessung
München, Nürnberg
Teilweise Home-Office
Kenntnisse in den Bereichen: Betrieb von Anwendungen auf Containerplattformen (z. B. Docker oder Kubernetes), Webkomponenten wie Apache und Tomcat sowie im Umgang mit Linux, Ansible, Git und YAML
Kenntnisse in den Bereichen: Betrieb von Anwendungen auf Containerplattformen (z. B. Docker oder Kubernetes), Webkomponenten wie Apache und Tomcat sowie im Umgang mit Linux, Ansible, Git und YAML
Bereitschaft, sich im jeweiligen Kundenkontext durch gezielte Einarbeitung Know-how in verschiedenen ETL-Tools (wie Informatica PowerCenter, Apache Spark oder Qlik/Talend) sowie weiteren Programmiersprachen und Technologien aufzubauen
Bereitschaft, sich im jeweiligen Kundenkontext durch gezielte Einarbeitung Know-how in verschiedenen ETL-Tools (wie Informatica PowerCenter, Apache Spark oder Qlik/Talend) sowie weiteren Programmiersprachen und Technologien aufzubauen
bundesweit, Berlin, Frankfurt, Hamburg, Köln, Leipzig, München
Teilweise Home-Office
Anschreiben nicht erforderlich
Fundierte Kenntnisse in modernen Big-Data-Technologien und -Plattformen (z. B. Databricks, Cloudera, Hadoop, Spark, Kafka, Azure Data Services, Fabric)
Fundierte Kenntnisse in modernen Big-Data-Technologien und -Plattformen (z. B. Databricks, Cloudera, Hadoop, Spark, Kafka, Azure Data Services, Fabric)
Du bringst erste private und schulische bzw. studiumsbezogene Erfahrungen sowie Leidenschaft und Begeisterung für neue Technologien und Themen rund um Künstliche Intelligenz, Maschinelles Lernen und moderne Data- und Analytics-Plattformen (Cloud, Databricks, Spark, Kafka, Airflow, dbt, BigQuery oder Snowflake) mit.
Du bringst erste private und schulische bzw. studiumsbezogene Erfahrungen sowie Leidenschaft und Begeisterung für neue Technologien und Themen rund um Künstliche Intelligenz, Maschinelles Lernen und moderne Data- und Analytics-Plattformen (Cloud, Databricks, Spark, Kafka, Airflow, dbt, BigQuery oder Snowflake) mit.