Aus ML2R wurde das Lamarr-Institut – alle aktuellen Informationen finden Sie hier!
Herausforderungen und offene Forschungsfragen
Mit der Heterogenität moderner Rechnerarchitekturen und der massiven Menge an Daten, die von Edge-Geräten generiert werden, steht die Forschung zum Maschinellen Lernen vor neuen Herausforderungen. Insbesondere in zeitkritischen oder ressourcenbeschränkten Einsatzbereichen ist eine gezielte Abstimmung von Modell und Ausführungsplattform unerlässlich. Insbesondere FPGAs (Field Programmable Gate Arrays) sind für IoT-Anwendungen gut geeignet, um Energie zu sparen. Gleichzeitig ist es notwendig, neue Implementierungen von bekannten ML-Algorithmen an die spezifischen Hardwareanforderungen anzupassen. Um eine zuverlässige Anwendung zu ermöglichen, müssen die Ressourcenanforderungen verschiedener Implementierungen für einen Algorithmus charakterisiert werden. Zum Beispiel bietet selbst der bekannte Algorithmus des Entscheidungsbaums noch neue Forschungsfragen: Welche Implementierung ist für welche Rechnerarchitektur und Anwendungsanforderung am besten geeignet?
Aktuelle Forschungsaktivitäten
Wir untersuchen Modelle des Maschinellen Lernens für verteilte und stark begrenzte Rechnerarchitekturen und evaluieren moderne Hardware hinsichtlich ihrer Eignung für Maschinelles Lernen. Lernverfahren werden untersucht und falls nötig angepasst, um ihre Lauffähigkeit auf stark ressourcenbeschränkten Geräten zu verbessern. Einige dieser Anpassungen gehen mit einer Approximation einher, die theoretisch begründet sein muss und Fehlerschranken aufweisen sollte. Die Ergebnisse werden direkt für die Kuratierung von Algorithmen verwendet, welche die Beschreibung von Grenzen der Anwendbarkeit sowie des Rechen- und Energiebedarfs beinhaltet. Unsere aktuelle Forschung zu ressourcenbewusstem ML umfasst die folgenden Aspekte:
Analyse des ML-Ressourcenbedarfs:
-
- Kennzeichnung der Ressourcennutzung einschließlich Laufzeit-, Speicher- und Energieanforderungen von ML-Algorithmen
- Ermöglichung des Zertifizierungsprozesses für ressourcenbeschränkte und sicherheitskritische ML-Anwendungen
Untersuchung von Hard- und Software für ressourcenbeschränkte Szenarien:
-
- Ressourcenschonendes und verteiltes Lernen direkt auf dem Gerät (On-Device)
- Dezentralisierte Datengenerierung auf Edge-Geräten
- Ressourceneffiziente Implementierungen von Algorithmen zur Anomalieerkennung
- Ende-zu-Ende-Lernen aus Bildströmen von Astroteilchen mit Deep Learning auf FPGAs
- Bilderkennungsbasierte Verfolgung von logistischen Objekten
- C Code-Generierung für schnelle Inferenz auf IoT-Systemen
Optimierung von Algorithmen:
-
- Ressourcenbewusste Datenakquisition durch aktive Klassenauswahl
- Ressourcenbewusste Optimierung von Hyperparametern für ML-Algorithmen
Leseempfehlungen und ausgewählte Publikationen
ML2R
ML2R
ML2R
ML2R
Empfehlung
Empfehlung
Empfehlung
Empfehlung