com!-Academy-Banner
Erklärbare KI

Verständnis schafft Vertrauen und Akzeptanz

von - 06.04.2020
Künstliche Intelligenz
Foto: bestfoto77 / shutterstock.com
Transparente Algorithmen fördern die Umsetzung von KI-Projekten in Unternehmen. Verstehen die Mitarbeiter die Technologie, zeigen sie auch mehr Vertrauen und Akzeptanz der KI gegenüber.
Auf fast magische Weise liefern Machine Learning und Deep Learning beeindruckende Ergebnisse. Das Pro­blem: Wie bei guten Zaubertricks steht das Publikum staunend davor und weiß nicht, wie ihm geschieht. Was bei einem Magier den Reiz ausmacht, sorgt bei Künstlicher Intelligenz für einen eklatanten Mangel an Vertrauen, da Verzerrungen, Überanpassungen oder Fehler in den Modellen nicht erkannt werden können. Blackbox-Modelle werden mit Daten ge­füttert, verarbeiten diese mit Algorithmen und spucken am Ende ein Ergebnis aus. Wie vertrauenswürdig, diskriminierend oder fehlerhaft der Output ist, kann niemand beurteilen. Der Blackbox-Ansatz macht es zudem schwierig bis unmöglich, Vorschriften wie die DSGVO einzuhalten.
Der Ansatz einer erklärbaren KI sucht demgegenüber nach Möglichkeiten, die Arbeitsweise von KI-Implementierungen nachvollziehbar zu machen und ein Verständnis für die Funktionsweise zu ermöglichen. Um das volle Potenzial von KI und ML auszuschöpfen, ist Vertrauen in die Abläufe der komplexen Algorithmen unbedingt notwendig. Menschen wollen verstehen, wie eine KI ihre Entscheidungen fällt.
Algorithmische Entscheidungssysteme (ADM) verwenden Algorithmen an zwei Stellen: Der erste Algorithmus lernt auf Basis der Daten ein statistisches Modell. Das statistische Modell ist dann die Grundlage für den zweiten Algorithmus, der die eigentliche Entscheidung berechnet.

Fehlerquellen, Fehlurteile

Künstliche Intelligenz ist gegen Fehler nicht gefeit und lässt sich mitunter leicht manipulieren. Die Auswirkungen sind im Voraus nicht absehbar. So entwickelte Microsoft den Chatbot Tay, der aus Konversationen lernen und das Gelernte in weiteren Chats anwenden können sollte. Doch schon nach kurzer Zeit war Tays Sprache von Rassismus und Sexismus durchsetzt. Ursache waren mehrere Benutzer, die den Chatbot durch entsprechende Konversationen manipulierten. Als Tay schließlich Völkermord befürwortete, wurde das Experiment abgebrochen.
Ein anderes Beispiel betrifft die Bilderkennung: Wissenschaftler vom MIT in Massachusetts haben mit einem 3D-Drucker Schildkröten hergestellt, um zu zeigen, wie anfällig Bild­erkennungssysteme sind. Die KI von Google hielt die meisten Schildkröten mit einer Wahrscheinlichkeit von 90 Prozent für ein Gewehr. Japanische Wissenschaftler von der Universität Kyushu haben gezeigt, dass es genügt, eine Handvoll Pixel in einem Bild zu verändern, um die Algorithmen komplett zu verwirren.
Für Fehlurteile von ADM-Systemen sind in erster Linie drei Faktoren verantwortlich. Da ist zunächst der Zufall. Der zweite Faktor sind zu kleine, inhomogene oder falsch gewichtete Datenmengen. Und schließlich können Fehlurteile auch aus einem fehlerhaft entwickelten ADM-System resultieren oder aus einer Fehlinterpretation der gelieferten Resultate.
Julian Mehne
Julian Mehne
Data Scientist bei DoublesSlash Net-Business
www.doubleslash.de
Foto: DoubleSlash
„Um das volle Potenzial einer KI zu nutzen, müssen ihr alle Beteiligten vertrauen können.“
Fehlerhaftes Design der verwendeten Modelle, die Wahl falscher oder ungeeigneter Methoden sowie das falsche Bedienen der Modelle sind offensichtliche Probleme. Aber auch das - absichtliche oder unabsichtliche - falsche Trainieren der Modelle kann zu Verzerrungseffekten (Bias) und Überanpassungen (Overfitting) führen. „Nicht zuletzt die Korrektheit, Vollständigkeit, Aktualität und Fehlerfreiheit der verwendeten Daten sind entscheidend für die Qualität der Modell­ergebnisse“, erklärt Konstantin Greger, Solution Consultant mit Schwerpunkt Datenvisualisierung und Reporting beim Business-Intelligence- und Analytics-Spezialisten Tableau Software. Kay Knoche, Principal Solution Consultant beim Software-Hersteller Pegasystems, konstatiert: „Wenn Algorithmen mit unzureichenden oder falschen Trainingsdaten gefüttert werden oder sich an falschen Geschäftszielen orientieren, kommt es zu Entscheidungen, die nicht zielführend sind.“
Julian Mehne ist Data Scientist beim IT-Dienstleister und Software-Entwickler DoubleSlash Net-Business. Er sieht den Grund für Bias darin, dass KI-Modelle oft als in sich geschlossene Systeme betrachtet werden, obwohl sie später meist in einer komplexen Umgebung genutzt werden. Das könne dazu führen, dass die gesammelten Daten nicht repräsentativ für den späteren Einsatzzweck des KI-Modells seien oder dass das KI-Modell ungewollt bestimmte Individuen benachteilige. „Viele dieser Effekte sind alles andere als offensichtlich.“
Auch nach Überzeugung von Kathy Baxter, Archi- tect of Ethical AI Prac­tice bei Salesforce, sind verzerrte Trainingsdaten die häufigste und folgenschwerste Ursache für Fehlurteile. Falsche Annahmen über den Kontext, in dem KI-Empfehlungen genutzt werden, könnten ebenfalls zu Fehlern führen.
Verwandte Themen