Startseite » Technik »

So treffen Neuronale Netze Entscheidungen

Blick in die "Black Box"
So treffen Neuronale Netze Entscheidungen

So treffen Neuronale Netze Entscheidungen
Bild: Fraunhofer HHI

Fortschritte im Bereich der Künstlichen Intelligenz (KI) beruhen vor allem auf der Verwendung Neuronaler Netze. Vergleichbar mit der Funktionsweise des menschlichen Gehirns verknüpfen sie mathematisch definierte Einheiten miteinander. Bisher wusste man nicht, wie ein Neuronales Netz Entscheidungen trifft. Forscher des Fraunhofer Heinrich-Hertz-Instituts HHI und der Technischen Universität Berlin haben nun eine Technik entwickelt, die erkennt, anhand welcher Kriterien KI-Systeme Entscheidungen fällen. Die neuartige Methode Spectral Relevance Analysis (SpRAy), basierend auf der Technik Layer-Wise Relevance Propagation, erlaubt den Blick in die „Black Box“.

In vielen Bereichen der Produktion, Werbung und Kommunikation spielt KI mittlerweile eine große Rolle. Unternehmen verwenden lernende und vernetzte KI-System, um beispielsweise Nachfrage-Prognosen anzustellen und das Kundenverhalten vorherzusagen.

Auch im Gesundheitswesen bedient man sich spezifischer Tätigkeiten der Künstlichen Intelligenz, etwa wenn es darum geht, Prognosen auf Basis strukturierter Daten anzufertigen. Hier betrifft das etwa die Bilderkennung: Röntgenbilder werden als Input in ein KI-System gegeben, der Output ist eine Diagnose. Das Erfassen von Bildinhalten ist auch beim autonomen Fahren entscheidend, wo Verkehrszeichen, Bäume, Fußgänger und Radfahrer fehlerfrei erkannt werden müssen. Hierin liegt ein Problem. In Anwendungsfeldern wie der medizinischen Diagnostik oder in sicherheitskritischen Bereichen muss die KI zuverlässige Problemlösungsstrategien liefern.

Bislang war es nicht nachvollziehbar, wie KI-Systeme Entscheidungen treffen. Zudem basieren die Vorhersagen auf der Qualität der Input-Daten. Forscher am Fraunhofer-Institut für Nachrichtentechnik, Heinrich-Hertz-Institut (HHI) und der Technischen Universität Berlin haben mit der Layer-Wise Relevance Propagation (LRP) nun eine Technik entwickelt, die KI-Prognosen erklärbar macht und unsichere Problemlösungsstrategien aufdeckt. Die Weiterentwicklung der LRP-Technologie, die sogenannte Spectral Relevance Analysis (SpRAy) identifiziert und quantifiziert ein breites Spektrum erlernten Entscheidungsverhaltens und erkennt somit auch in riesigen Datensätzen unerwünschte Entscheidungen.

Transparente KI

In der Praxis identifiziert die Technik einzelne Input-Elemente, die für eine Vorhersage genutzt wurden. Wenn also etwa ein Gewebebild in ein KI-System eingegeben wird, so wird der Einfluss jedes Pixels auf das Klassifikationsergebnis quantifiziert. Die Vorhersage, wie „krebsartig“ oder „nicht krebsartig“ das Gewebebild ist, wird also mit der Angabe der Basis für diese Klassifikation ergänzt. „Nicht nur das Ergebnis soll korrekt sein, sondern auch der Lösungsweg. Bislang wurden KI-Systeme als Black Box angewendet“, sagt Dr. Wojciech Samek, Leiter der Forschungsgruppe „Machine Learning“ am Fraunhofer HHI. Man habe darauf vertraut, dass diese Systeme das Richtige tun. Den Forschern sei es nun mit ihrer Open-Source-Software gelungen, die Lösungsfindung von KI-Systemen nachvollziehbar zu machen. „Mit LRP visualisieren und interpretieren wir Neuronale Netze und andere Machine Learning-Modelle. Mit LRP messen wir den Einfluss jeder Eingangsvariablen für die Gesamtvorhersage und zerlegen die Entscheidungen des Klassifizierers“, ergänzt Dr. Klaus-Robert Müller, Professor für Maschinelles Lernen an der TU Berlin.

Unsichere Lösungsstrategien

Nur wer versteht, wie Neuronale Netze funktionieren, kann den Ergebnissen vertrauen. Dass KI-Systeme nicht immer sinnvolle Lösungswege finden, ergaben die Tests der Forscherteams. Beispielsweise klassifizierte ein renommiertes KI-System Bilder anhand des Kontextes. Es ordnete Fotos der Kategorie Schiff zu, wenn viel Wasser im Bild zu sehen war. Die eigentliche Aufgabe, Schiffe zu erkennen, löste es nicht, auch wenn die Mehrzahl der Bilder korrekt identifiziert war. „Zahlreiche KI-Algorithmen wenden unsichere Strategien an und kommen zu wenig sinnvollen Lösungen“, resümiert Samek das Ergebnis der Untersuchungen.

Neuronale Netze beim Denken beobachten

Die LRP-Technologie entschlüsselt die Funktionsweise von Neuronalen Netzen, und findet heraus, anhand welcher Merkmale ein Pferd als Pferd identifiziert wird und nicht als Esel oder Kuh. An jedem Knotenpunkt des Netzes erkennt sie, wie Informationen durch das Netz fließen. Somit lassen sich sogar sehr tiefe Neuronale Netze untersuchen.

Derzeit erarbeiten die Forscherteams des Fraunhofer HHI und der TU Berlin neue Algorithmen, um weitere Fragestellungen zu untersuchen und KI-Systeme noch sicherer und robuster zu gestalten. (wag)

Unsere Webinar-Empfehlung
Newsletter

Jetzt unseren Newsletter abonnieren

Webinare & Webcasts

Technisches Wissen aus erster Hand

Whitepaper

Aktuelle Whitepaper aus der Industrie


Industrie.de Infoservice
Vielen Dank für Ihre Bestellung!
Sie erhalten in Kürze eine Bestätigung per E-Mail.
Von Ihnen ausgesucht:
Weitere Informationen gewünscht?
Einfach neue Dokumente auswählen
und zuletzt Adresse eingeben.
Wie funktioniert der Industrie.de Infoservice?
Zur Hilfeseite »
Ihre Adresse:














Die Konradin Verlag Robert Kohlhammer GmbH erhebt, verarbeitet und nutzt die Daten, die der Nutzer bei der Registrierung zum Industrie.de Infoservice freiwillig zur Verfügung stellt, zum Zwecke der Erfüllung dieses Nutzungsverhältnisses. Der Nutzer erhält damit Zugang zu den Dokumenten des Industrie.de Infoservice.
AGB
datenschutz-online@konradin.de