Startseite » Künstliche Intelligenz »

Studie von Capgemini: Ethische Aspekte entscheidend, um Potenzial von Künstlicher Intelligenz (KI) auszuschöpfen

Studie von Capgemini
Ethische Aspekte sind entscheidend, um KI-Potenzial auszuschöpfen

Ethische Aspekte sind entscheidend, um KI-Potenzial auszuschöpfen
Unternehmen reagieren bei ethischen Fragestellungen in KI-Systemen zögerlich.
Bild: THANANIT/stock.adobe. com

Nur 53 Prozent der Unternehmen und Verwaltungen verfügen über eine Führungskraft, die für ethische KI-Systeme verantwortlich ist. Das Bewusstsein für ethische Fragestellungen beim KI-Einsatz ist dennoch gestiegen. Trotzdem fällt die Handlungsbilanz für Capgemini gemischt aus. In einer Studie hebt das IT-Unternehmen hervor, dass der Fokus auf ethische Aspekte entscheidend ist, um das Potenzial von KI auszuschöpfen.

Die Studie mit dem Titel „AI and the ethical Conundrum: How Organizations can build ethically robust AI Systems and gain Trust“ kommt auch zum Ergebnis, dass 72 Prozent der Ansicht sind, dass Unternehmen nicht vollständig transparent offenlegen, wie persönliche Daten verwendet werden. Für die Studie befragte das Capgemini Research Institute insgesamt 2.900 Konsumenten in sechs Ländern sowie knapp 900 Führungskräfte in zehn Ländern.

Organisationen sehen laut Studie zunehmend Handlungsbedarf hinsichtlich ethischer KI-Systeme: 45 Prozent haben 2020 eine KI-Charta definiert (2019: fünf Prozent) und 65 Prozent der Führungskräfte wissen, dass KI-Systeme potenziell diskriminierende Entscheidungen treffen können. 58 Prozent geben zudem an, ihre Mitarbeiter über die möglichen Auswirkungen der KI-Nutzung aufgeklärt zu haben.

Dennoch verzeichneten KI-Systeme 2020 in der ethischen Dimension „Erklärbarkeit“ Fortschritte gegenüber 2019, schreibt Capgemini in einer Pressemitteilung.

40 Prozent der KI-Entwickler und 27 Prozent der -Anwender aus Marketing und Vertrieb glauben nachvollziehen zu können, wie Entscheidungen durch KI getroffen werden. Auf Seiten der Verbraucher erwarten hingegen 71 Prozent, dass Unternehmen solche Entscheidungen genau herleiten können. Weiterhin setzen 66 Prozent voraus, dass KI-Modelle fair und vorurteilsfrei agieren und Interaktionen transparent ablaufen.

COVID-19 wirkt sich negativ auf Transparenz von KI-Verfahren aus

Die Studie untersucht KI-Systeme anhand der vier ethischen Dimensionen:

  • Erklärbarkeit
  • Fairness
  • Überprüfbarkeit
  • Transparenz

2020 hat sich laut Studie nur die Dimension „Erklärbarkeit“ verbessert: Demnach können mit 64 Prozent doppelt so viele Organisationen wie 2019 die Funktionsweise ihrer KI-Systeme in einfacher Sprache erklären.

Eine Überprüfung der Datensätze und KI-Systeme, um eine faire Gleichbehandlung aller Gruppen zu gewährleisten, nehmen 65 Prozent (2019: 66 Prozent) vor. Ebenfalls um einen Prozentpunkt (auf 45 Prozent) sank die Zahl der Unternehmen, die unabhängige Audits bei ihren KI-Systemen gemäß der „Überprüfbarkeit“ ethischer Aspekte durchführen.

Am stärksten ging die Anzahl an Unternehmen zurück, die KI-Anwender transparent über die möglichen Auswirkungen von KI-Entscheidungen informieren (59 Prozent, 2019: 73 Prozent; Deutschland: 52 Prozent, 2019: 63 Prozent). Dies spiegelt sich auch im gesunkenen Vertrauen der Verbraucher auf Transparenz der Unternehmen wider. (62 Prozent, 2019: 76 Prozent).

Handlungsdruck durch Kundenerwartungen und staatliche Regulierungen

Viele Institutionen haben zusätzliche KI-Technologien eingeführt, um den Folgen der Corona-Pandemie zu begegnen. Entsprechend wird das Vertrauen der Verbraucher in KI-Interaktionen künftig umso wichtiger.

Der Druck auf Unternehmen aufgrund von erhöhten gesetzlichen Rahmenbedingungen steigt zeitgleich: Die Europäischen Kommission hat ethische Leitlinien entwickelt, die US-Handelskommission FTC hat Anfang 2020 Richtlinien für eine transparente KI aufgestellt.

Von den Unternehmen geben 62 Prozent (Deutschland: 67 Prozent) an, in ihrer Region geltende Datenschutzbestimmungen wie DSGVO zu erfüllen, eine Steigerung um 13 Prozentpunkte im Vergleich zu 2019.

Künstliche Intelligenz

Die Studie zeigt, dass Datensätze mitunter tatsächlich soziale und kulturelle Vorurteile („Bias“) aufweisen, wobei sich 65 Prozent der Führungskräfte des Problems diskriminierender Verzerrungen bewusst sind. 54 Prozent der deutschen Unternehmen wurden sogar schon rechtlich geprüft.

Insgesamt 22 Prozent (Deutschland: 21 Prozent) der Unternehmen wurden in den letzten drei Jahren von Kunden damit konfrontiert, dass sie KI-basierte Entscheidungen anzweifeln oder die Entscheidungsfindung nachvollziehen wollen.

Rechenschaft für Führungskräfte in ethischen Belangen etablieren

Capgemini schlägt vor, dass Unternehmen eine verantwortliche Führungskraft, etwa einen Chief Ethics Officer, etablieren sollten, um ethisch robuste KI-Systeme sicherzustellen. Momentan ist diese Funktion in 53 Prozent der Unternehmen vorhanden.

Über einen Ombudsmann oder eine Hotline, an die sich Kunden und Mitarbeiter bezüglich ethischer Fragen zu KI-Systemen wenden können, verfügt ebenfalls nur jedes zweite Unternehmen.

Zudem sollten auch Führungskräfte der Geschäfts- wie Technologie-Ebenen gewährleisten können, dass in ihrem Bereich eingesetzte KI-Anwendungen ethische Ergebnisse liefern.

Maßnahmen zum Aufbau eines ethisch robusten KI-Systems

Capgemini hebt zusammenfassend sieben zentrale Maßnahmen hervor, die für den Aufbau eines ethisch robusten KI-Systems entscheidend sind und auf einem belastbaren Fundament aus Führung, Steuerung und internen Prozessen basieren müssen. Organisationen sollten daher:

  • den beabsichtigen Zweck des KI-Systems präzise beschreiben können und die potenzielle Gesamtwirkung ermitteln
  • KI aktiv zum Nutzen von Gesellschaft und Umwelt einsetzen
  • die Prinzipien von Vielfalt und Inklusion im gesamten Lebenszyklus der KI-Systeme verankern
  • die Transparenz mit Hilfe geeigneter Technologie-Werkzeuge optimieren
  • sicherstellen, dass KI-Erfahrungen auf den Menschen ausgerichtet sind und KI-Systeme unter menschlicher Aufsicht stehen
  • gewährleisten, dass KI-Systeme technisch robust sind
  • die Privatsphäre schützen, indem Nutzern die Kontrolle über ihre KI-Interaktionen gegeben wird

Die komplette Studie gibt es auf der Website von Capgemini zum Download. (wag)


Kontakt zu Capgemini

Capgemini Service SAS
11 rue de Tilsitt
75017 Paris, Frankreich
Tel.: +33 1 4754 5000
Website: www.capgemini.com

Ebenfalls interessant:

https://industrie.de/kuenstliche-intelligenz/cc-king-will-kmus-bei-ki-und-machine-learning-unterstuetzen/

Unsere Webinar-Empfehlung
Newsletter

Jetzt unseren Newsletter abonnieren

Webinare & Webcasts

Technisches Wissen aus erster Hand

Whitepaper

Aktuelle Whitepaper aus der Industrie


Industrie.de Infoservice
Vielen Dank für Ihre Bestellung!
Sie erhalten in Kürze eine Bestätigung per E-Mail.
Von Ihnen ausgesucht:
Weitere Informationen gewünscht?
Einfach neue Dokumente auswählen
und zuletzt Adresse eingeben.
Wie funktioniert der Industrie.de Infoservice?
Zur Hilfeseite »
Ihre Adresse:














Die Konradin Verlag Robert Kohlhammer GmbH erhebt, verarbeitet und nutzt die Daten, die der Nutzer bei der Registrierung zum Industrie.de Infoservice freiwillig zur Verfügung stellt, zum Zwecke der Erfüllung dieses Nutzungsverhältnisses. Der Nutzer erhält damit Zugang zu den Dokumenten des Industrie.de Infoservice.
AGB
datenschutz-online@konradin.de