Moderne Deep-Learning-Modelle sind leistungsstark, aber ressourcenintensiv. Model Compression (z. B. Quantisierung, Pruning und Knowledge Distillation) und Neural Architecture Search (NAS) Ansätze ermöglichen den lokalen Einsatz von Deep-Learning-Modellen, führen jedoch häufig zu einer Verringerung der Modell Performance und sind mit mehreren anderen Einschränkungen verbunden (z. B. hoher Rechenaufwand und damit hohe Energiekosten für Neural Architecture Search Ansätze). Sie arbeiten in einem interdisziplinären Team (drei Forschungsinstitute der Universität Offenburg sind beteiligt: IMLA, INES, ivESK) mit einem weiteren (Schwerpunkt Neural Architecture Search) und zwei Postdocs zusammen, um ressourceneffiziente Deep-Learning-Modelle für die lokale Inferenz auf eingebetteter Hardware zu ermöglichen und zu benchmarken.
mehr