Aus dem ML2R-Blog: Ethik in der Künstlichen Intelligenz
09.12.2021
Künstliche Freundschaften mit Maschinen, Herausforderungen fairer Künstlicher Intelligenz (KI) und Verantwortlichkeit KI-basierter Entscheidungen: In einer dreiteiligen Beitragsreihe widmete sich der ML2R-Blog dem Thema KI-Ethik. Die Gastautorinnen Sara Mann (TU Dortmund), Dr. Astrid Schomäcker (Universität des Saarlandes) und Prof. Dr. Eva Schmidt (TU Dortmund) gaben Leserinnen und Lesern spannende Einblicke in aktuelle Forschung zur ethisch verantwortungsvollen Gestaltung künstlich intelligenter Systeme. Eine Nachlese:
Autorin: Sara Mann
Mein Freund, der Roboter – Kann man Freundschaft programmieren?
Freundschaften mit Maschinen sind längst keine Science-Fiction mehr. Die Hersteller der sogenannten Artificial Companions versprechen, dass es möglich ist, eine echte Freundschaft mit einem KI-System aufzubauen. Doch sind Roboter wirklich die besseren Freunde oder handelt es sich hierbei um eine gefährliche Illusion? Autorin Sara Mann zeigt auf, welche Risiken künstliche Freundschaften insbesondere für vulnerable Personengruppen bergen und warum es in einer Freundschaft manchmal auch wichtig ist, sich selbst und die eigenen Bedürfnisse zurückzustellen.
Autorin: Dr. Astrid Schomäcker
Die mathematischen und ethischen Herausforderungen fairer KI
In ihrem Gastbeitrag für den ML2R-Blog geht Astrid Schomäcker der Frage auf den Grund, wann KI-Entscheidungen und die dahinterstehenden Daten und Algorithmen fair sind. Sie entwirft hierzu zwei konkrete Einsatzszenarien, die zeigen vor welche Herausforderungen uns die Entwicklung fairer KI-Systeme stellt. Die Autorin resümiert: Ob eine KI fair ist, ist keine mathematische Frage, sondern hängt vom Kontext sowie von ethisch informierten Designentscheidungen ab.
Autorin: Prof. Dr. Eva Schmidt
Das war ich nicht! – Wer ist verantwortlich für KI-gestützte Entscheidungen?
Für uns Menschen ist es wichtig, dass Personen für ihre Handlungen Verantwortung und gegebenenfalls Konsequenzen tragen. Aber wie können wir Verantwortlichkeit sicherstellen, wenn nicht ein Mensch, sondern eine Künstliche Intelligenz Entscheidungen trifft? Autorin Eva Schmidt erklärt: Die Einbindung menschlicher Akteure und erklärbarer KI-Systeme ermöglicht eine Verantwortungszuschreibung bei KI-gestützten Entscheidungsprozessen.
Die Gastautorinnen der dreiteiligen Beitragsreihe sind Mitglieder des Forschungsprojektes „Explainable Intelligent Systems“ (EIS), einem Gemeinschaftsprojekt der Technischen Universität Dortmund und der Universität des Saarlandes. Erfahren Sie mehr über das Projekt Explainable Intelligent Systems.
Kontakt:
Ann-Kathrin Oster
Technische Universität Dortmund