Garching bei München, Augsburg, Bonn, Berlin, Frankfurt am Main, Düsseldorf, Koblenz, Karlsruhe
Teilweise Home-Office
Anschreiben nicht erforderlich
Relevante Technologien sind für uns zum Beispiel Apache Spark / Databricks, ApacheKafka,Apache Airflow, relationale und nichtrelationale Datenbanken, Pandas / Polars, FastAPI, MLFlow, Docker, Kubernetes, Prometheus, Grafana, AWS und Azure
Relevante Technologien sind für uns zum Beispiel Apache Spark / Databricks, ApacheKafka,Apache Airflow, relationale und nichtrelationale Datenbanken, Pandas / Polars, FastAPI, MLFlow, Docker, Kubernetes, Prometheus, Grafana, AWS und Azure
Technologie-Stack: Erfahrungen im Bereich von IT Plattformen und Anwendungsbetrieb sowie im Umgang mit Bash, Batch, PowerShell, Ansible, Windows Servern, einer oder mehreren Linux-Distributionen, (Apache) Webserver und Tomcat hast du bereits gesammelt.
Technologie-Stack: Erfahrungen im Bereich von IT Plattformen und Anwendungsbetrieb sowie im Umgang mit Bash, Batch, PowerShell, Ansible, Windows Servern, einer oder mehreren Linux-Distributionen, (Apache) Webserver und Tomcat hast du bereits gesammelt.
Du verfügst über fundierte Kenntnisse in Linux (z. B. Debian, RHEL) und Windows Servern sowie Erfahrung im Betrieb von Webservern (Apache, IIS) inklusive Zertifikatsverwaltung.
Du verfügst über fundierte Kenntnisse in Linux (z. B. Debian, RHEL) und Windows Servern sowie Erfahrung im Betrieb von Webservern (Apache, IIS) inklusive Zertifikatsverwaltung.
Der Schwerpunkt liegt dabei auf OpenShift und dem darunter liegenden Kubernetes, aber auch andere können zum Einsatz kommen, z.B. Docker Swarm, Apache Mesos.
Der Schwerpunkt liegt dabei auf OpenShift und dem darunter liegenden Kubernetes, aber auch andere können zum Einsatz kommen, z.B. Docker Swarm, Apache Mesos.
Langjährige Erfahrung mit Linux sowie Systemwartung und Leistungsoptimierung sowie Kenntnisse im LAMP-Stack (Linux, Apache, MySQL, PHP/Perl/Python) und Erfahrung mit VMware und HCI
Langjährige Erfahrung mit Linux sowie Systemwartung und Leistungsoptimierung sowie Kenntnisse im LAMP-Stack (Linux, Apache, MySQL, PHP/Perl/Python) und Erfahrung mit VMware und HCI
Sie arbeiten vor allem in der Integration und im Betrieb von Big Data-Anwendungen, arbeiten mit Big Data-Technologien wie Hadoop, Spark, Storm, Cassandra und Kafka, unterstützen im Aufbau und Betrieb von Big Data-Systemen, installieren und konfigurieren komplexe Big Data-Umgebungen.
Sie arbeiten vor allem in der Integration und im Betrieb von Big Data-Anwendungen, arbeiten mit Big Data-Technologien wie Hadoop, Spark, Storm, Cassandra und Kafka, unterstützen im Aufbau und Betrieb von Big Data-Systemen, installieren und konfigurieren komplexe Big Data-Umgebungen.
Frankfurt am Main, Berlin, Hamburg, Düsseldorf, München, Stuttgart
Teilweise Home-Office
Du bringst Kenntnisse in Big Data-Architekturen und -Technologien (Databricks, Microsoft Fabric, Azure Synapse, SQL & NoSQL Datenbanken, Spark, Kafka, Elastic, etc.) und Programmierung (Python, Scala, Java etc.) mit
Du bringst Kenntnisse in Big Data-Architekturen und -Technologien (Databricks, Microsoft Fabric, Azure Synapse, SQL & NoSQL Datenbanken, Spark, Kafka, Elastic, etc.) und Programmierung (Python, Scala, Java etc.) mit
Sie arbeiten vor allem in der Integration und im Betrieb von Big Data-Anwendungen, arbeiten mit Big Data-Technologien wie Hadoop, Spark, Storm, Cassandra und Kafka, unterstützen im Aufbau und Betrieb von Big Data-Systemen, installieren und konfigurieren komplexe Big Data-Umgebungen.
Sie arbeiten vor allem in der Integration und im Betrieb von Big Data-Anwendungen, arbeiten mit Big Data-Technologien wie Hadoop, Spark, Storm, Cassandra und Kafka, unterstützen im Aufbau und Betrieb von Big Data-Systemen, installieren und konfigurieren komplexe Big Data-Umgebungen.
Frankfurt am Main, München, Berlin, Karlsruhe, Hannover, Köln, Stuttgart
Teilweise Home-Office
Wünschenswert: Erfahrung in der Anwendung von Agile-, Lean- und/oder Continuous-Delivery-Ansätzen (TDD, Continuous Integration, GitOps) sowie Kenntnisse im Entwurf von Cloud-Native-Architekturen mit Technologien wie Kafka, Docker, Helm und Kubernetes mitunter der Nutzung von Domain-driven Design und Microservice-Ansätzen
Wünschenswert: Erfahrung in der Anwendung von Agile-, Lean- und/oder Continuous-Delivery-Ansätzen (TDD, Continuous Integration, GitOps) sowie Kenntnisse im Entwurf von Cloud-Native-Architekturen mit Technologien wie Kafka, Docker, Helm und Kubernetes mitunter der Nutzung von Domain-driven Design und Microservice-Ansätzen