Aufbau und Betrieb belastbarer Datenpipelines (Batch & Streaming) für automatisierte End‑to‑End‑Prozesse – von der Anbindung operativer Quellsysteme bis zur Bereitstellung kuratierter Datenprodukte für KI‑ und Automatisierungslösungen * Modellierung, Transformation und Versionierung von Daten inkl. sauberer Schnittstellen (APIs, Events / Messaging) und klarer Schemaverwaltung * Datenqualität, Telemetrie & Observability: Implementierung von Data‑Quality‑Checks, Monitoring / Alerting, Lineage und Kostentransparenz zur stabilen Produktion * Enge Zusammenarbeit mit , RPA- / Workflow‑Entwicklung und Fachbereichen: Datenservices bereitstellen, die KI‑Services und Automatisierungen performant und nachvollziehbar versorgen * Sehr gute Kenntnisse in Python und SQL für Datenintegration, Transformation und Automatisierungs‑Workflows * Vertraut mit Datenqualität, Lineage, Monitoring und Betriebsprozessen ...
mehr