Lernen & Wissen teilen: Du hältst dein Wissen im Cloud-, Data- und Software-Engineering-Umfeld kontinuierlich aktuell, probierst neue Technologien aus und gibst deine Erfahrungen im Team und beim Kunden weiter - z. B. in Projekten, Communities oder internen Formaten. Wir gestalten und bauen Software, die unsere Kunden begeistert. * Data-Pipelines umsetzen: Du konzipierst und implementierst robuste Data-Pipelines, Data Ingest und Data-Processing auf Basis von Open-Source-Komponenten wie Apache Airflow, Kafka, Spark oder Trino und sorgst dafür, dass Daten zuverlässig, performant und nachvollziehbar fließen. * Business-Anforderungen in Data-Products übersetzen: Gemeinsam mit unseren Kunden verstehst du fachliche Anforderungen und setzt sie mit Open-Source-Analytics-Services auf Kubernetes-Basis um - mit dem Ziel, unsere Kunden auf ihrem Weg zur Datensouveränität ganzheitlich zu begleiten.
mehr