Aus ML2R wurde das Lamarr-Institut – alle aktuellen Informationen finden Sie hier!
Entdecken Sie unsere Forschung
Die Wissenschaftlerinnen und Wissenschaftler am ML2R forschen an Lösungen zum Maschinellen Lernen (ML) und damit an den technologischen Grundlagen für Künstliche Intelligenz. Wir verstehen ML als Dienstleistung der Zukunft, die sich am Menschen orientiert und das Vertrauen von Anwenderinnen und Anwendern verdient. Unsere Lösungen, die sowohl auf Daten als auch auf Wissen basieren, liefern verlässliche und validierbare Ergebnisse. Wir gestalten ML-Anwendungen, die höchsten Qualitätsstandards entsprechen, Ressourcen schonen und auf den unterschiedlichsten Plattformen funktionieren, von mobilen Geräten bis zu Quantencomputern.
Vertrauenswürdiges Maschinelles Lernen
Vertrauenswürdiges Maschinelles Lernen hat das Ziel, mithilfe von robusten und verifizierbaren Verfahren das Vertrauen in ML- und KI-Anwendungen zu stärken und eine Zertifizierung dieser Technologien zu ermöglichen.
Anwendungen des Maschinellen Lernens (ML) und der Künstlichen Intelligenz (KI) werden zunehmend zum festen Bestandteil unseres Alltags. Die Technologien dringen dabei auch in Bereiche vor, die Leben und Gesundheit von Menschen direkt betreffen, wie beispielsweise die Medizin, das autonome Fahren oder die Personalwirtschaft. Insbesondere in diesen Anwendungsfeldern ist es notwendig, dass Entscheidungen fair und frei von Vorurteilen getroffen werden, die Verfahren robust und die Ergebnisse verifizierbar sind.
Was ist vertrauenswürdiges Maschinelles Lernen?
Mit ihren Forschungsarbeiten zum vertrauenswürdigen Maschinellen Lernen zielen die Wissenschaftler*innen des ML2R darauf ab, das Vertrauen in ML- und KI-Anwendungen zu stärken. Basis dieser Arbeiten ist die Entwicklung robuster und verifizierbarer ML-Methoden. Zudem arbeiten die Wissenschaftler*innen an der Gestaltung modularer und hybrider ML-Anwendungen, die den Einsatz wiederverwendbarer, standardisierter ML-Komponenten ermöglichen.
Dazu verfolgen die Forschenden die folgenden Ansätze:
- Erklärbarkeit von KI- und ML-Anwendungen sicherstellen, indem Funktionsweisen und Ergebnisse für menschliche Expert*innen interpretierbar gemacht werden.
- Transparenz der Technologien erhöhen, um diese auch für Endanwender*innen ohne wissenschaftliche Expertise sicher und zuverlässig nutzbar zu machen.
- KI-Absicherung und Zertifizierung ermöglichen, indem die gesamte KI-Prozesskette – von der Auswahl der Trainingsdaten bis zum Einsatz in der Praxis – geprüft und bewertet wird.
Vertrauenswürdigkeit einer KI-Anwendung messen
Ein weiterer Ansatz ist die Entwicklung von Bewertungs- und Qualitätskriterien für KI. Dabei spielen Kriterien zur Einhaltung ethischer Standards, des Datenschutzes und der Wahrung der Privatsphäre eine zentrale Rolle. Mathematische Verfahren und Beweise kommen zum Einsatz, wenn es darum geht, quantitative Aussagen zur Qualität zu treffen, Gütekriterien für ML-Verfahren anzugeben und die Genauigkeit der Ergebnisse zu beschreiben.
Endanwender*innen unterstützen
Die Forschenden am ML2R haben auch jene Anwender*innen im Blick, die KI einsetzen möchten, ohne tief in die mathematischen Grundlagen des ML einzusteigen. Dafür arbeiten sie an Darstellungsformen, die ähnlich wie der Beipackzettel eines Medikaments oder die Pflegeanleitung eines Kleidungsstücks kompakt und verständlich die wesentlichen Informationen enthalten: Für welche Anwendungsszenarien ist die KI gedacht? Welche Voraussetzungen sind nötig und wie exakt sind die zu erwartenden Ergebnisse?
Highlight
Hybrides Maschinelles Lernen
Hybrides ML integriert Wissen aus verschiedenen Quellen in lernende Systeme, um auch bei kleinen oder unsicheren Datenbeständen verlässliche Ergebnisse zu erzielen.
Die Forscher*innen des ML2R arbeiten an Verfahren, heterogene Daten und komplexes Wissen für das Maschinelle Lernen nutzbar machen. Dazu untersuchen sie Methoden, um Wissen in einheitlicher Form aufzubereiten und Strukturen in Daten aufzudecken. Zudem werden datenbasierte ML-Formen, wie beispielsweise das Deep Learning mithilfe künstlicher neuronaler Netze, mit anderen, auf explizitem und logischem Wissen basierenden Lernformen verknüpft.
Was ist hybrides Maschinelles Lernen?
Hybrides ML zielt darauf ab, sowohl praktische als auch grundlegende Probleme des Maschinellen Lernens und der Künstlichen Intelligenz anzugehen. Hybrid bedeutet, dass sowohl klassische, datenbasierte ML-Methoden als auch wissensgestützte Verfahren zur Anwendung kommen. ML-Anwendungen, die aus flexibel einsetzbaren, wiederverwertbaren Modulen bestehen, bieten gute Möglichkeiten, verschiedene Methoden zu kombinieren. Bei der Entwicklung hybrider ML-Lösungen stützen sich die Forschenden nicht nur auf Konzepte aus der Informatik, sondern auch auf Wissen und Methoden aus anderen Fachbereichen, wie beispielsweise der Mathematik, der statistischen Physik, der Linguistik und der Psychologie.
Worauf konzentriert sich die Forschung?
Die Forschung zu hybridem ML kann in drei Hauptrichtungen eingeteilt werden:
- Informed Machine Learning integriert datenunabhängiges Domänenwissen in Trainingsalgorithmen oder Modellklassen, um Trainingszeiten zu verkürzen und neue Anwendungsbereiche zu erschließen.
- Representation Learning zielt darauf ab, Strukturen in Daten aufzuspüren und zu erklären. Damit wird es möglich, fehlende oder unzureichende Trainingsdaten mithilfe von maschinell generierten Daten zu ergänzen oder zu ersetzen.
- Theoretisches Maschinelles Lernen befasst sich mit der grundlegenden Untersuchung von ML-Algorithmen und Lernverfahren und liefert die theoretische Basis für Aussagen zur Interpretierbarkeit, zur Genauigkeit von Ergebnissen und zu Gültigkeitsbereichen.
Anwendungsbeispiel: Logistik
ML-Verfahren funktionieren häufig dann besonders gut, wenn sie mit vielen Daten lernen können. Anders sieht es in Situationen aus, in denen nur wenige oder sogar gar keine Daten vorhanden sind. In der Logistik beispielsweise können Wettereinflüsse, Baumaßnahmen oder Unfälle Ausnahmesituationen bewirken, für die keine hinreichend großen Datenmengen vorliegen.
An diesem Beispiel lässt sich auch eine weitere Herausforderung des ML illustrieren: Daten und Wissen stammen aus unterschiedlichen Quellen und haben ganz verschiedene Formate. Zum Warentransport verwendete Container werden zunehmend mit Sensoren bestückt, die Informationen zur aktuellen Position sowie zu Druck und Temperatur im Inneren senden. Diese Sensordaten müssen dann mit Wissen aus anderen Informationsquellen, wie etwa Verkehrsplanungssystemen und Wetterdaten, verknüpft werden. Manchmal ist Wissen auch nur in Form von Erfahrung oder Intuition menschlicher Experten vorhanden. Für Anwendungen in der Logistik sollen daher Systeme entwickelt werden, die komplexe Zusammenhänge in der Logistikplanung für Menschen durchschaubar machen und gleichzeitig die Potenziale des ML optimal nutzen.
Highlight
Ressourcenbewusstes Maschinelles Lernen
Ressourcenbewusstes ML ermöglicht es, Berechnungen mithilfe von Maschinellem Lernen auch auf kleinen Geräten, wie Smartphones oder direkt in Sensoren, zuverlässig auszuführen.
Die Entwickler*innen am ML2R arbeiten daran, Maschinelles Lernen auch auf Geräten mit beschränkter Rechenleistung sowie begrenzten Energie- und Speicherressourcen verfügbar zu machen. Insbesondere für sicherheitskritische Anwendungen müssen ML-Verfahren so gestaltet werden, dass Daten in einem vorgegebenen Zeitrahmen zuverlässig verarbeitet werden. Zudem optimieren die Forschenden ML-Anwendungen, sodass diese mit möglichst wenig Energie und Rechenressourcen auskommen.
Was bedeutet ressourcenbewusstes Maschinellen Lernen?
Ressourcenbewusstes ML stellt Verfahren bereit, die den Verbrauch an Energie, Speicherplatz und Rechenkapazitäten minimieren. Solche ressourcenbewussten ML-Verfahren sind in der Lage, große Mengen an Daten effizient und schnell zu verarbeiten, ohne dass dabei Abstriche in Bezug auf die Qualität der Ergebnisse gemacht werden müssen. Mit der zunehmenden Heterogenität moderner Rechnerarchitekturen wird es zudem immer wichtiger, dass ML-Verfahren auf spezielle Ausführungsplattformen abgestimmt und dafür optimiert werden.
In welchen Anwendungsfeldern ist Ressourceneffizienz besonders gefragt?
In modernen, automatisierten Fertigungsanlagen werden neben den eigentlichen Produkten auch große Mengen an Daten erzeugt, beispielsweise Betriebsdaten von Maschinen oder Messergebnisse von Sensoren. Die Auswertung dieses Datenschatzes birgt ein enormes Optimierungspotenzial: Prozesse können beschleunigt, die Qualität verbessert und Maschinen vorausschauend gewartet werden. In der Vergangenheit kamen für solche Big-Data-Anwendungen häufig leistungsstarke Rechenzentren zum Einsatz.
Die zunehmende Verknüpfung von physischen und virtuellen Welten im „Internet of Things“ (IoT) erfordert jedoch eine dezentrale Datenverarbeitung. Gerade für Anwendungen in der Industrie 4.0 und in der Logistik ist es – etwa wegen fehlender Bandbreite für die Datenübertragung – nicht immer möglich, alle Daten an einen Zentralrechner zu senden. Stattdessen müssen schon die Geräte, die die Daten aufnehmen, beispielsweise Sensoren, einen Teil der Verarbeitung und Analyse übernehmen.
Verbrauch an Energie sowie Speicher- und Rechenkapazität begrenzen
Ein erster Schritt zur Entwicklung ressourceneffizienter ML-Verfahren ist die Analyse der Ressourcenanforderungen. Dabei müssen die Eigenschaften der eingesetzten Algorithmen ebenso berücksichtigt werden wie die spezifischen Implementierungen auf unterschiedlichen Rechnerarchitekturen.
Ein weiterer Ansatz ist die Entwicklung von Hard- und Software, die für bestimmte Lernaufgaben optimiert ist. Für IoT-Anwendungen eignen sich insbesondere FPGAs (Field Programmable Gate Arrays), die als energieeffiziente, flexibel konfigurierbare Schaltkreise in verschiedenen Anwendungsszenarien einsetzbar sind.
Schließlich besteht ein Forschungsansatz darin, ML-Algorithmen so zu vereinfachen, dass diese auch mit weniger Speicherplatz und Rechenkapazität auskommen. Oft kommen dabei Näherungsverfahren zum Einsatz, die theoretisch begründet und mit der Angabe von Fehlerschranken versehen werden müssen.
Highlight
Maschinelles Lernen auf Quantencomputern
Quantencomputer können eine Vielzahl von Lösungswegen parallel berechnen und haben so das Potenzial, Informationen schneller zu verarbeiten und komplexere Aufgaben zu bewältigen als klassische digitale Computer.
Klassische Computer stoßen immer wieder an Grenzen. Dies zeigt sich insbesondere in Anwendungen aus den Bereichen Big Data und Künstliche Intelligenz, wenn es darum geht, riesige Datenmengen zu verarbeiten, viele unterschiedliche Lösungswege zu berechnen oder aus einer großen Zahl von Möglichkeiten das optimale Ergebnis auszuwählen. Solche Aufgaben sind heute oft nur mit einem enormen Zeit- und Rechenaufwand zu bewältigen, manche sind sogar praktisch unlösbar, weil die Berechnungen Jahre dauern würden.
Wie funktioniert Maschinelles Lernen auf Quantencomputern?
Quantencomputer besitzen das Potenzial, die prinzipiellen Beschränkungen klassischer Computer zu überwinden. Quantum Computing ist heute mehr als nur ein theoretisches Konzept. Nachdem erhebliche Ressourcen in Forschung und Entwicklung investiert wurden, existieren die ersten technischen Implementierungen von Quantenrechnern, die zukünftig auch den Forscherinnen und Forschern am ML2R zur Verfügung stehen werden.
Quanteneffekte für schnellere Berechnungen nutzen
Quantencomputer nutzen zur Informationsverarbeitung Quanteneffekte wie Superposition oder Verschränkung und können dadurch prinzipiell schneller Ergebnisse liefern. Während ein digitaler Computer mit Bits rechnet, arbeitet ein Quantencomputer mit Qubits, die im Gegensatz zu den klassischen Bits nicht nur genau einen von zwei möglichen Zuständen annehmen können, sondern auch eine beliebige Überlagerung beider.
Was sind aktuelle Forschungsfragen?
Forschungsvorhaben am ML2R beschäftigen sich mit der Frage, wie sich diese Quanteneffekte am besten für das Maschinelle Lernen nutzen lassen. Es hat sich bereits gezeigt, dass Verfahren des Maschinellen Lernens für Quantencomputer so angepasst werden können, dass mehrere Lösungswege gleichzeitig beschritten werden. Einige auf Quantenalgorithmen basierende Verfahren sind erheblich schneller als klassische Berechnungen somit kann sogar ein einzelner Quantencomputer schneller Lösungen finden als mehrere, in einem Cluster operierende klassische Computer.