KI, was machst du da?

Künstliche Intelligenzen rücken uns im Alltag immer näher auf die Pelle. Höchste Zeit, dass wir sie richtig verstehen.

Haben Sie eigentlich Angst vor Ihrem Gehirn? Schließlich haben Sie keine wirkliche Ahnung, wie es eigentlich funktioniert. Auch von den meisten Technologien, die wir im Alltag nutzen, verstehen wir meist relativ wenig, doch sie arbeiten zuverlässig und nach klar durchschaubaren Regeln. Das Auto fährt stabil, die Mikrowelle wärmt Speisen minutenschnell auf und der Röntgenapparat beim Arzt liefert die immer gleichen Bilder über unseren inneren Organe. Wir haben uns an diese Technologien gewöhnt – und für’s Hinterfragen bleibt im Alltag meist keine Zeit.

Eine künstliche Intelligenz ist da wesentlich „zickiger“. Holprige Konversationen mit Alexa lassen sich gerade noch so verschmerzen und auch Pepper hat sich bisher erfolglos für den Sprecherplatz in der Tagesschau beworben. Doch wer die Gelegenheit hatte, in einem selbstfahrenden Auto Platz zu nehmen, oder sehnlichst auf ein medizinisches Armband wartet, das helfen soll, die epileptischen Anfälle des eigenen Kindes besser in den Griff zu bekommen, der wird sich mit einer launenhaften KI wohl eher nicht zufrieden geben.

Darin liegt ein Paradox der aktuellen technologischen Entwicklungen im KI-Bereich. Denn die größten Leistungssprünge haben KI-Systeme gerade der Unregelhaftigkeit ihres Ablaufs zu verdanken. Neuronale Netze müssen eben nicht für jeden Einzelfall programmiert werden, sondern haben die Fähigkeit, selbstständig über Verallgemeinerungen und Transferleistungen eigenes „Wissen“ zu generieren. Das macht sie allerdings in ihrem Inneren ziemlich undurchsichtig – selbst für den Programmierer oder „Trainer“. Für ein System, das gesellschaftsrelevante Entscheidungen übernehmen soll, ist das ein schwer hinnehmbarer (wenn nicht untragbarer) Zustand.

Das Forschungsgebiet der „Explainable AI“ (zu Deutsch: „erklärbare KI“), das konzeptuell eigentlich schon seit Beginn der KI-Forschung in den 60er Jahren existiert, ist in den letzten Jahren wieder verstärkt ins Rampenlicht gerückt. Die US-amerikanische Forschungsbehörde DARPA stellt seit 2016 finanzielle Mittel für 13 unterschiedliche Forschungseinrichtungen aus Wirtschaft und Wissenschaft zur Erforschung unterschiedlichster Methoden bereit, die einen Blick in die Black Box KI erlauben sollen. Übergeordnetes Ziel ist der Weg von der (in der Black Box) erlernten Funktion zum erklärbaren Modell. Zentrale Fragen auf dem Weg dorthin wurden im Rahmen eines Workshops der International Joint Conference on Artificial Intelligence 2017 wie folgt formuliert : „Wie sollen Erklärmodelle gestaltet werden? Wie sollen die Prozesse der Entscheidungsfindung über eine Benutzerschnittstelle kommuniziert werden? Welche Arten der Benutzerinteraktion sollen zugelassen sein? Wie lässt sich die Qualität einer Entscheidung messen?“

Auch in Deutschland gibt es entsprechende wissenschaftliche Bemühungen. Wojciech Samek vom Fraunhofer Heinrich-Hertz-Institut HHI in Berlin hat das Verfahren LRP (Layer-wise relevance propagation) mitentwickelt, mit dem sich der Einfluss einzelner Neuronen auf Klassifizierungsentscheidungen in neuronalen Netzen quasi rückwärts („Backpropagation“) anhand einer Heatmap nachvollziehen lässt. Für die Optimierung von Klassifizierungsentscheidungen (und ihrer entsprechenden mathematischen Formalisierung) stellt er sich bei seiner Arbeit oft die Frage: „Wie würde ein Mensch sich das erklären?“. Aus rein technischer Sicht gelte ein Klassifizierungsverfahren z. B. dann als zuverlässig, wenn zwei fast gleiche Bilder zu gleichen Erklärungen führten oder beim Entfernen zentraler Bildbereiche eine Zuschreibung deutlich weniger eindeutig sei, so Samek.

Konkrete Produkte mit erklärbarer KI gibt es aber noch nicht. Das liegt auch daran, dass noch ungeklärt ist, welche Kriterien eine KI erfüllen muss, um überhaupt zugelassen zu werden. Eine Initiative von WHO und ITU will das möglichst zügig ändern.

Andere Techniken zur Aufschlüsselung der Entscheidungskaskade neuronaler Netze arbeiten mit der gezielten Manipulation der Eingangsdaten, um die Wirkungen auf die Ausgabe zu analysieren (sog. kontrafaktische Methode). Mit der Technik der „KI-Rationalisierung“ wird wiederum versucht, die Entscheidungsschritte neuronaler Netze in natürliche Sprache zu übersetzen. Neben diesen Methoden gibt es unzählige weitere.

Das Visualisierungs-Tool Seq2Seq-Vis veranschaulicht einen möglichen Ansatz speziell für Übersetzungen. Es schlüsselt die unterschiedlichen Ebenen der maschinellen Entscheidungsfindung (Enkodierung, Dekodierung, Vorhersagen, angewandte heuristische Verfahren) so auf, dass Entscheidungen bestehender Modelle, ihre Datengrundlage und alternative Parameter gezielt evaluiert und (neu) getestet werden können. Dies erlaubt eine klare Zuschreibung der Ursachen fehlerhafter Übersetzungen zu spezifischen Prozessen im neuronalen Netz.

Die mangelnde „Erklärbarkeit“ von KI ist vor allem ein Problem der Verantwortung – und damit ein ethisches Problem. Die Wissenschaftlerin Kate Crawford vom AI Now Institut forderte schon 2016 neben technischen Vorkehrungen sogar ein Verbot von Black Box-KI in wichtigen öffentlichen Einrichtungen wie Justiz, Gesundheit oder Bildung. Weltweit wird an eindeutigen ethischen Richtlinien für den Einsatz von KI-Systemen gearbeitet. Beachtung gefunden haben u. a. die KI-Leitsätze von Asilomar des Future of Life Institut. Auf EU-Ebene wurde erst im Dezember 2018 ein Entwurf für ethische Richtlinien für „vertrauenswürdige KI“ verabschiedet. Daneben gibt es ethische KI-Richtlinien einzelner Unternehmen und Verbände, z. B. die „Global Initiative on Ethics of Autonomous and Intelligent Systems“ (2017) des IEEE, einem weltweiten Verband für Ingenieure, der zahlreiche Standardisierungsgremien unterhält. Nicht zuletzt spielt die Pflicht zur „Erklärbarkeit“ automatisierter Systeme auch für die Einhaltung der DSGVO eine entscheidende Rolle.

Beitrag erstellt 22

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.

Beginne damit, deinen Suchbegriff oben einzugeben und drücke Enter für die Suche. Drücke ESC, um abzubrechen.

Zurück nach oben