Erfahrung in der Datenintegration oder Schnittstellenentwicklung sowie im Umgang mit gängigen ETL-/ELT-Werkzeugen und Integrationsplattformen (z. B. SSIS, Lobster Data Platform, Apache NiFi, Staedean Connectivity Studio).
Erfahrung in der Datenintegration oder Schnittstellenentwicklung sowie im Umgang mit gängigen ETL-/ELT-Werkzeugen und Integrationsplattformen (z. B. SSIS, Lobster Data Platform, Apache NiFi, Staedean Connectivity Studio).
Technologie-Stack: Erfahrungen im Bereich von IT Plattformen und Anwendungsbetrieb sowie im Umgang mit Bash, Batch, PowerShell, Ansible, Windows Servern, einer oder mehreren Linux-Distributionen, (Apache) Webserver und Tomcat hast du bereits gesammelt.
Technologie-Stack: Erfahrungen im Bereich von IT Plattformen und Anwendungsbetrieb sowie im Umgang mit Bash, Batch, PowerShell, Ansible, Windows Servern, einer oder mehreren Linux-Distributionen, (Apache) Webserver und Tomcat hast du bereits gesammelt.
Sie sind vertraut mit Monitoring-Tools (Prometheus, Grafana, Geneos) sowie Logging-Lösungen wie dem ELK Stack; auch Apache HTTP Server oder NGINX sind Ihnen geläufig.
Sie sind vertraut mit Monitoring-Tools (Prometheus, Grafana, Geneos) sowie Logging-Lösungen wie dem ELK Stack; auch Apache HTTP Server oder NGINX sind Ihnen geläufig.
Bereitschaft, sich im jeweiligen Kundenkontext durch gezielte Einarbeitung Know-how in verschiedenen ETL-Tools (wie Informatica PowerCenter, Apache Spark oder Qlik/Talend) sowie weiteren Programmiersprachen und Technologien aufzubauen
Bereitschaft, sich im jeweiligen Kundenkontext durch gezielte Einarbeitung Know-how in verschiedenen ETL-Tools (wie Informatica PowerCenter, Apache Spark oder Qlik/Talend) sowie weiteren Programmiersprachen und Technologien aufzubauen
Data-Pipelines umsetzen: Du konzipierst und implementierst robuste Data-Pipelines, Data Ingest und Data-Processing auf Basis von Open-Source-Komponenten wie Apache Airflow, Kafka, Spark oder Trino und sorgst dafür, dass Daten zuverlässig, performant und nachvollziehbar fließen.
Data-Pipelines umsetzen: Du konzipierst und implementierst robuste Data-Pipelines, Data Ingest und Data-Processing auf Basis von Open-Source-Komponenten wie Apache Airflow, Kafka, Spark oder Trino und sorgst dafür, dass Daten zuverlässig, performant und nachvollziehbar fließen.
Technologie-Expertise: Du konntest praktische Erfahrung in der Verwendung von Enterprise-Search-Technologien (z.B. Apache Solr, Elasticsearch, SINEQUA, iFinder, Mindbreeze, Lucidworks, Google, Azure AI Search, usw.) sammeln.
Technologie-Expertise: Du konntest praktische Erfahrung in der Verwendung von Enterprise-Search-Technologien (z.B. Apache Solr, Elasticsearch, SINEQUA, iFinder, Mindbreeze, Lucidworks, Google, Azure AI Search, usw.) sammeln.
Softwareentwicklung: Sehr gute Kenntnisse in mindestens einer modernen Programmiersprache, zum Beispiel Java, sowie Erfahrung mit Frameworks wie Spring, Apache Camel oder Kafka.
Softwareentwicklung: Sehr gute Kenntnisse in mindestens einer modernen Programmiersprache, zum Beispiel Java, sowie Erfahrung mit Frameworks wie Spring, Apache Camel oder Kafka.
Themen und Tools rund um den Betrieb von Orchestrierungsplattformen wie Keycloak, LDAP, Apache Proxies, Routing und Firewalls, Observability, Ansible, Terraform oder Helm charts gehören zumindest in Teilen zu deinen täglichen Werkzeugen
Themen und Tools rund um den Betrieb von Orchestrierungsplattformen wie Keycloak, LDAP, Apache Proxies, Routing und Firewalls, Observability, Ansible, Terraform oder Helm charts gehören zumindest in Teilen zu deinen täglichen Werkzeugen
Design und Betrieb skalierbarer ETL Data Pipelines mit Apache Spark und Apache Airflow sowie Weiterentwicklung unserer Data Lake Architektur * Praktische Erfahrung mit Apache Spark und Apache Airflow
Design und Betrieb skalierbarer ETL Data Pipelines mit Apache Spark und Apache Airflow sowie Weiterentwicklung unserer Data Lake Architektur * Praktische Erfahrung mit Apache Spark und Apache Airflow
Data-Pipelines umsetzen: Du konzipierst und implementierst robuste Data-Pipelines, Data Ingest und Data-Processing auf Basis von Open-Source-Komponenten wie Apache Airflow, Kafka, Spark oder Trino und sorgst dafür, dass Daten zuverlässig, performant und nachvollziehbar fließen.
Data-Pipelines umsetzen: Du konzipierst und implementierst robuste Data-Pipelines, Data Ingest und Data-Processing auf Basis von Open-Source-Komponenten wie Apache Airflow, Kafka, Spark oder Trino und sorgst dafür, dass Daten zuverlässig, performant und nachvollziehbar fließen.
Kenntnisse über Microsoft Betriebssysteme und deren Administration, in Virtualisierung, Webdesign, vom Betrieb von Apache Tomcat Servern und vom Betrieb einer Firewall sind hilfreich, aber nicht Voraussetzung
Kenntnisse über Microsoft Betriebssysteme und deren Administration, in Virtualisierung, Webdesign, vom Betrieb von Apache Tomcat Servern und vom Betrieb einer Firewall sind hilfreich, aber nicht Voraussetzung