Konzeption und Umsetzung von End-To-End GenAI- und ML-Infrastrukturen, die den kompletten Lebenszyklus von AI-Anwendungsfällen abdecken – von der Datenaufbereitung über Training und Fine-Tuning von Modellen (z. B. LLMs) bis hin zu Trigger-Systemen für kontinuierliches Re-Training, Bereitstellung von Modellen als Services und Monitoring * Sehr gute Kenntnisse und mehrjährige Berufserfahrung in container-basierten Architekturen (z. B. Docker) sowie Plattformen wie Kubernetes oder Openshift, speziell im Kontext von Infrastruktur für GenAI und ML * Fundierte Kenntnisse und Erfahrung mit relevanten Tools und Frameworks für den ML- und GenAI-Lifecycle, wie Hugging Face, NVIDIA AI Enterprise, vLLM und LangChain, sowie Techniken für Training, Fine-Tuning (z. B. LoRA, Prompt-Tuning) und Deployment von Modellen * Umfassende Erfahrung mit Automatisierungs- und Entwicklungstools, darunter Python, ...
mehr