Aus ML2R wurde das Lamarr-Institut – alle aktuellen Informationen finden Sie hier!
Herausforderungen und offene Forschungsfragen
Modernes Maschinelles Lernen erreicht bei der Bewältigung von immer mehr Aufgaben derzeit neue, bisher unbekannte Höchstleistungen und übertrifft dabei oft die menschliche Genauigkeit. Viele dieser Aufgaben, wie die Objekterkennung in Bildern oder die Verarbeitung natürlicher Sprache, sind von hoher Relevanz für die Industrie.
Der Einsatz dieser modernen Verfahren ist jedoch nicht einfach, da diese manchmal unter immanenten Mängeln, wie mangelnder Robustheit, mangelnder Interpretierbarkeit oder fehlenden theoretischen Garantien leiden. Darüber hinaus übernehmen einige Methoden Fehler der zugrundeliegenden Trainingsdaten, wie Verzerrungen und falsche Korrelationen, und neigen sogar dazu, diese zu verstärken. Dies kann zu Voreingenommenheit aufgrund von Hautfarbe und Geschlecht führen oder einer unerwünschten Extraktion von persönlichen Daten Tür und Tor öffnen. Diese Unzulänglichkeiten behindern oft die nachgelagerten Analyseziele, die mit den Methoden des Maschinellen Lernens erreicht werden sollen, nämlich robuste Schlussfolgerungen aus experimentellen Daten zu ziehen.
Im Bereich des vertrauenswürdigen Maschinellen Lernens untersuchen Wissenschaftler*innen vielfältige Möglichkeiten, diese Nachteile abzuschwächen oder ganz zu vermeiden. Das ML2R-Team spielt eine aktive Rolle in dieser Community.
Unsere Ansätze umfassen:
- Anpassung von Modellarchitekturen und Training
- Erarbeitung eines besseren theoretischen Verständnisses von datengetriebenem ML
- Unterstützung von Endanwender*innen bei der Auswahl von ML-Methoden durch Beschreibungen von Eigenschaften, einschließlich Qualitätsschranken und Ressourcenanforderungen
- Messung von Datenqualität und Schweregrad von Mängeln
- Entwicklung von Werkzeugen zur Überwachung oder Interaktion durch Menschen mit dem Ziel, den Lernprozess zu verbessern oder eine bessere Erklärbarkeit zu erreichen
- Untersuchung von Möglichkeiten, konnektionistische und symbolische Formen von ML zu kombinieren
- Präzises Einbringen von Struktur in Einbettungsräume
Aktuelle Highlights der Forschung
Das ML2R-Team trägt auf vielfältige Weise zu aktuellen Forschungsrichtungen bei. Wir legen einen starken Schwerpunkt auf das Thema Modelltransparenz, da die Art und Weise, wie Entscheidungen nachvollzogen werden können, sowohl von der gewählten Modellfamilie als auch von der jeweiligen Anwendung abhängt. Konkret untersucht eine Gruppe innerhalb des Teams die Beziehung zwischen Erklärbarkeit und informed ML, indem sie nach Möglichkeiten sucht, strukturiertes Wissen zu integrieren und sich diese Struktur zunutze zu machen, um sinnvolle Erklärungen zu erarbeiten.
Eine andere Gruppe innerhalb des Teams zielt darauf ab, die Nutzung von Maschinellem Lernen für Nicht-Experten zu erleichtern, indem Schlüsseleigenschaften und Garantien für Modellfamilien und Trainingsverfahren abgeleitet und zusammengefasst werden. Letztendlich soll so ein Satz einfacher Regeln zur Verfügung stehen, mit denen man auch ohne sehr erfahrenes Personal und unabhängig von der konkreten Anwendung sichere und zuverlässige ML-Modelle erhalten kann.
Zudem wenden die Forschenden des ML2R Methoden des interaktiven und informed ML an, um die Robustheit von datengetriebenen Modellen durch die Einbeziehung von formalem Wissen oder menschlichem Feedback zu erhöhen. Dazu setzen die Wissenschaftler*innen erstens auf die nachträgliche Validierung von Modellvorhersagen durch Überprüfung der wissenschaftlichen Konsistenz oder regulatorischer Anforderungen. Zweitens werden Methoden des Repräsentationslernens angewendet, die darauf abzielen, Daten zusammen mit Vorwissen einzubetten.
Leseempfehlungen und ausgewählte Publikationen
Einführung und Überblick
ML2R
ML2R
Empfehlung
ML2R
Empfehlung
G. Marcus, E. Davis: Rebooting AI: Building Artificial Intelligence We Can Trust. Pantheon Books, 2019.
Transparenz, Erklärbarkeit und Interpretierbarkeit
ML2R
Empfehlung
Empfehlung
Empfehlung