Startseite » Künstliche Intelligenz »

Mehr Transparenz bei Künstlicher Intelligenz

Künstliche Intelligenz
Mehr Transparenz bei Künstlicher Intelligenz

Mehr Transparenz bei Künstlicher Intelligenz
Künstliche Intelligenz und Maschinelles Lernen haben häufig den Ruf einer Black-Box. Bild: Blue Planet Studio

Künstliche Intelligenz und Maschinelles Lernen haben häufig den Ruf einer Black-Box, da sich Entscheidungen und Vorhersagen durch Modelle oftmals nicht bis zu deren Begründung zurückverfolgen lassen. Mit Hilfe einer erklärbaren KI können neue Methoden und Algorithmen die Glaskugel aber durchsichtig machen.

Der Autor Tobias Stolz ist Application Consultant bei Capgemini

Eine künstliche Intelligenz (KI), die einer Familie einen Bausparvertrag aufgrund ihrer Herkunft verweigert. Ein neuronales Netzwerk, das viele persönliche Daten für eine Kundenempfehlung braucht und ein Tool, das Krankheiten vorhersagt und Behandlungen empfiehlt, ohne seine Entscheidungen begründen zu können.

Für viele sind diese Szenarien Gründe, KI skeptisch gegenüberzustehen. Folglich wird sie häufig als Black-Box bezeichnet, bei der unbekannt ist, auf welcher Grundlage Entscheidungen getroffen werden. Die Vorhersagen kommen also aus einer undurchsichtigen Glaskugel. Ein solches System lässt sich nicht auf ethische Standards überprüfen.

Wie Transparenz bei KI für Zuverlässigkeit sorgt

Die Europäische Union ist sich der beschriebenen Problematiken bewusst und hat mit der Datenschutz-Grundverordnung (DSGVO) ein Fundament für Ethik und KI geschaffen. Auch Kunden, die in Kontakt mit KI-Anwendungen kommen erwarten zunehmend, das KI-Systeme sich erklären und transparent sind. 2019 mussten sich 60 Prozent der Unternehmen, die KI-Systeme verwendeten, hinsichtlich von Datenschutzverletzungen verantworten; 22 Prozent davon erlitten einen Kundenrückgang.

Künstliche Intelligenz

Diese Gründe sprechen für ein Maschinelles Lernen (ML), das transparent, erklärbar, fair und unter menschlicher Aufsicht geschieht. Ein wichtiger Meilenstein auf dem Weg zu solchen Systemen ist eine erklärbare KI (XAI für eXplainable AI), die seit den letzten Jahren Thema vieler wissenschaftlicher Diskussionen ist.

Durch die Auswertung der wichtigsten Faktoren, die eine Vorhersage ausmachen, können neue Fragestellungen beantwortet werden. So findet XAI neben ihrer ethischen, rechtlichen und wirtschaftlichen Bedeutung viele Anwendungen in der Forschung und Industrie. Dazu gehören zum Beispiel die Erforschung von Risikofaktoren bei Medikamenten und die Verbesserung der Kunden-/Benutzererfahrung.

Interpretierbare Modelle versus Agnostische Methoden

Es gibt zwei Ansätze, die zu einer erklärenden KI führen: Zum einen das Nutzen von interpretierbaren Modellen, die intrinsisch erklärbar sind. Zum anderen das Anwenden von agnostischen Methoden auf Modelle unabhängig vom gewählten Algorithmus. Dadurch lässt sich jedes Black-Box Modell erklären.

Die Koeffizienten von linearen und logistischen Modellen können visualisiert und zur Erklärung von Vorhersagen analysiert werden. Sie sind Beispiele für interpretierbare Modelle, da keine Black-Box trainiert wird. Ein moderates Verständnis der Machine-Learning-Methoden reicht für eine intuitive Interpretation der Koeffizienten aus, was zu einer besseren Akzeptanz bei den Nutzern führen kann. Auf der anderen Seite beschränkt man sich auf eine kleinere Gruppe von Algorithmen, was zu einer niedrigeren Modellperformanz führen kann. Rudin und Radin (2019) argumentieren jedoch, dass intrinsisch interpretierbare Modelle unterschätzt werden und in vielen Fällen komplexe und intransparente Modelle ersetzen und übertreffen können.

Allgemein verbreitete ML-Algorithmen wie Random Forst, Support Vector Machine und Neuronale Netzwerke werden häufig in KI-Systemen der Industrie verwendet. Sie überzeugen meist durch ihre hohe Genauigkeit bei Vorhersagen, sind aber zunächst nicht interpretierbar. Agnostische Methoden analysieren, wie ein Modell Entscheidungen fällt, indem Daten als Referenz dienen. Dadurch kann zwar jedes ML-Modell ausgewertet werden, aber die Genauigkeit der Interpretation hängt von der Qualität der Referenzdaten ab.

Evaluierung von Interpretationen

Die Aussagekraft und der Nutzen einer Modellinterpretation durch XAI muss analysiert und bewertet werden. Im Falle einer KI, die Krankheiten bei Patienten vorhersagt, reicht es nicht, eine Interpretationsmethode ohne Überprüfung anzuwenden. Die Risikofaktoren für die Krankheiten, die die XAI findet, müssen von medizinischen Experten überprüft werden. Durch multidisziplinäre Zusammenarbeit kann Qualitätssicherung gewährleistet werden. In anderen Fällen kann solch eine Validierung automatisiert werden. Eine weitere bewertbare Eigenschaft der XAI ist die Sprache, also die Verständlichkeit für den Nutzer.

Eine KI sollte sowohl zur sozialen Akzeptanz, aber auch aus rechtlicher und wirtschaftlicher Sicht ethisch entwickelt werden. Eine Komponente für solch ein Design ist die Erklärbarkeit der Künstlichen Intelligenz. Da den Entwicklern und Nutzern häufig unbekannt ist, welche Merkmale das Machine-Learning-Modell erlernt hat und wie es eine Entscheidung trifft, werden neue Interpretiermethoden eingesetzt. Einige ML Algorithmen lassen sich durch ihren Aufbau erklären. Für komplexere werden agnostische Methoden verwendet, die modellunspezifisch sind. (ag)


Kontakt zu Capgemini

Capgemini Service SAS
11 rue de Tilsitt
75017 Paris, Frankreich
Tel.: +33 1 4754 5000
Website: www.capgemini.com

Ebenfalls interessant: 

MeKIDI: KIT-Forscher stellen bei KI Mensch in den Mittelpunkt

Unsere Webinar-Empfehlung
Newsletter

Jetzt unseren Newsletter abonnieren

Webinare & Webcasts

Technisches Wissen aus erster Hand

Whitepaper

Aktuelle Whitepaper aus der Industrie


Industrie.de Infoservice
Vielen Dank für Ihre Bestellung!
Sie erhalten in Kürze eine Bestätigung per E-Mail.
Von Ihnen ausgesucht:
Weitere Informationen gewünscht?
Einfach neue Dokumente auswählen
und zuletzt Adresse eingeben.
Wie funktioniert der Industrie.de Infoservice?
Zur Hilfeseite »
Ihre Adresse:














Die Konradin Verlag Robert Kohlhammer GmbH erhebt, verarbeitet und nutzt die Daten, die der Nutzer bei der Registrierung zum Industrie.de Infoservice freiwillig zur Verfügung stellt, zum Zwecke der Erfüllung dieses Nutzungsverhältnisses. Der Nutzer erhält damit Zugang zu den Dokumenten des Industrie.de Infoservice.
AGB
datenschutz-online@konradin.de