Erklär mir „Vier Gewinnt“!
Methoden für erklärbare maschinelle Lernmodelle sind wichtig, um Künstliche Intelligenz transparenter und für Menschen interpretierbar zu machen. Bei realen Daten können die für eine Modellentscheidung bestimmenden Merkmale jedoch meist nicht eindeutig identifiziert werden. Nur bestimmte regelbasierte Spiele ermöglichen eindeutige Erklärungen für Entschei-dungen – zum Beispiel welcher Spieler gewinnt. ML2R-Forschende trainierten ML-Modelle auf Daten des Spiels „Vier gewinnt“, erstellten Erklärungen mit verschiedenen Methoden und visu-alisierten ihre Ergebnisse, um zu untersuchen, wie gut die Erklärungen mit den in der Realität beobachteten Daten übereinstimmen.