Du entwickelst unsere AI‑Security‑Richtlinien, Leitplanken und Governance‑Vorgaben weiter und bewertest sowie dokumentierst Risiken beim Einsatz von KI‑Systemen (z. B. LLMs, agentische Systeme, externe KI‑Services * Du setzt regulatorische Anforderungen (z. B. EU AI Act, NIST AI RMF) mit umDu bist Teil unseres IT‑Security‑Teams (IT Sec, SOC, IAM) und unterstützt dabei neue Lösungen zu pilotieren und erfolgreich einzuführen * Du hast ein Studium oder eine vergleichbare Qualifikation im IT‑Umfeld und bringst erste Erfahrung in IT‑Security, KI, Automatisierung oder ähnlichen Themen mit - gern auch aus Praktika oder Projekten * Du interessierst dich für moderne KI‑Ansätze wie AI‑Agenten, Workflow‑Automatisierung, RPA, Prompt Engineering oder die Integration von LLMs in Prozesse; Cloud‑ oder API‑Know‑how ist von Vorteil (Azure, AWS, GCP, API‑Kommunikation
mehr