Vertrauen in KI: Warum sich Algorithmen erklären müssen

KI Service - Industrie 4.0

© weerapatkiatdumrong | istockphoto.com

Autos fahren autonom, Software diagnostiziert Krebs und Maschinen steuern sich selbst – künstliche Intelligenz (KI) macht es möglich. Aber: Wo auch immer KI den Menschen unterstützt, braucht es vor allem Vertrauen in die Technologie. Wie sich vertrauenswürdige KI-Anwendungen testen und zertifizieren lassen.

KI hilft im Kampf gegen Krebs. Ob Röntgenbilder, CT- und MRT-Aufnahmen – KI kann diese auswerten und Medizinern bei der Diagnose assistieren. Schneller als der Mensch analysieren die Algorithmen dazu gewaltige Mengen an Daten, markieren Tumore auf den Bildern und legen die Ergebnisse dem Experten zur Entscheidung vor. Ärzte leiten Therapien früher ein und gewinnen Zeit für ihre Patienten. Was Heilungschancen verbessert, birgt aber Probleme. Denn nach welchen Merkmalen eine KI überhaupt gefährliche Metastasen von harmlosen Zysten unterscheidet, ist unklar.

Viele KI-Systeme sind intransparent. Und das nicht nur im Gesundheitsbereich. Neuronale Netze, wie sie dem Gehirn nachgebaut und für das maschinelle Lernen unerlässlich sind, entpuppen sich als Black Box. Was in ihnen vorgeht, verstehen selbst ihre Erschaffer nicht im Detail. Menschen können ihr Verhalten begründen und erklären – neuronale Netze nicht. Eine Tatsache, die überall dort Fragen aufwirft, wo smarte Algorithmen zwar schon heute weitgehend eigenständig agieren, Entscheidungen aber für Menschen nachvollziehbar sein müssen. Die Folge: Ob bei der automatisierten Vergabe von Mikrokrediten, der Personalauswahl oder im Verkehr von morgen – Menschen werden misstrauisch und fürchten, die Kontrolle zu verlieren, wie eine Studie von Audi zum autonomen Fahren unter rund 21.000 Verbrauchern weltweit zeigt.

Bewerten, nachvollziehen und erklären

Die Lösung heißt Explainable Artificial Intelligence: XAI macht KI erklärbar und die Meinungsbildung von Algorithmen für Menschen nachvollziehbar. Wie sich das praktisch erreichen lässt? Beispielswiese über eine Zertifizierung von KI-Systemen, wie sie das Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme IAIS entwickelt. Dazu haben die Bonner einen Anforderungskatalog für vertrauenswürdige KI formuliert, der es ermöglicht, intelligente Anwendungen sachkundig und neutral zu bewerten. Das Ziel: Die Zertifizierung soll die technische Zuverlässigkeit und einen verantwortungsvollen Umgang mit der Technologie gewährleisten. Dabei wird nicht nur geprüft, ob KI-Entscheidungen transparent sind, sondern auch wie fair, sicher und verlässlich Algorithmen überhaupt arbeiten.

Schützen KI-Applikationen sensible Informationen? Wie zuverlässig funktionieren die Anwendungen? Und sind KI-Systeme sicher vor Angriffen oder Fehlern? „Das Problem bei vielen neuronalen Netzen ist, dass man sie nicht in Module zerlegen kann, um die dann separat zu testen“, sagt Projektleiter Dr. Maximilian Poretschkin auf heise.de. Stattdessen prüfen die Experten, wie eine KI funktioniert, indem sie die zugesicherten Eigenschaften einer intelligenten Applikation betrachten.

Hochdynamisch, selbstlernend und herausfordernd

Was dieses Vorhaben herausfordernd macht? Prüfziele lassen sich nicht standardisieren, da es heute keine Vorgaben oder Normen für KI gibt. Wo der PKW-TÜV beispielsweise Bremsen, Motor und Licht auf definierte Sollwerte hin inspiziert, fehlt dem Algorithmen-TÜV die Richtschnur. Außerdem sind KI-Anwendungen hochdynamisch. Ob selbstoptimierend, selbstorganisierend und selbstlernend – wo Software mit Versionen arbeitet, entwickeln sich KI-Systeme autonom und kontinuierlich weiter.

Die Lösung liefert ein Framework, das Fraunhofer entwickelt und Poretschkin in einem Webinar der eco Akademie vorgestellt hat. Darüber lässt sich der Prüfkatalog auf Handlungsfelder wie etwa Fairness, Sicherheit, Privacy oder Transparenz strukturiert anwenden. Das Framework blickt dabei auf den kompletten Lebenszyklus von KI-Anwendungen. Das umfasst zum Beispiel die Konzeption und Architektur der Applikationen, die Trainings- und Inputdaten, den Algorithmus und das Verhalten der KI-Komponenten selbst.

Dokumentieren, prüfen und testen

Wie die Prüfung praktisch ablaufen kann: KI-Entwickler dokumentieren ihre Arbeit entlang des Katalogs. Prüfer beurteilen die Plausibilität der Zielerreichung. Das standardisierte Verfahren, blickt auf typische Risiken, definiert KPIs und bezieht alles in die Gesamtbeurteilung ein. „Je nach Kritikalität der KI-Anwendung bedarf es auch einer größeren Prüftiefe, die über eine reine dokumentationsbasierte Beurteilung hinausgeht. Hierzu entwickeln wir entsprechende Prüfwerkzeuge“, sagt Poretschkin.

Die Sache lohnt sich. Denn nur wer KI vertraut, setzt sie ein. Wird die Technologie industrieübergreifend und vollumfänglich angewendet, lässt sich – allein für Deutschland – ein volkswirtschaftliches Gesamtpotential von rund 488 Milliarden Euro freisetzen, zeigt eine aktuelle KI-Studie des eco – Verbands der Internetwirtschaft.


Bitte diskutieren Sie mit zu diesem und ähnlichen Themen in unserer Service-Meister Linkedin Gruppe.

Über Nils Klute
Nils Klute ist IT-Fachredakteur. Egal, ob für IT-Medien wie heise.de, zdnet.de und silicon.de, für IT-Unternehmen wie SAP, T-Systems und Sony oder für B2B-Agenturen wie Palmer Hargreaves, Pleon Kohtes Klewes (heute Ketchum) und rheinfaktor – Nils Klute schreibt und spricht seit mehr als 15 Jahren über die Themen, die die IT- und Digitalwirtschaft bewegen. Von der Datenwirtschaft mit Gaia-X über Künstliche Intelligenz im Mittelstand bis hin zu Cloud-Native-Technologien - als Projektmanager Kommunikation Cloud Services ist er bei EuroCloud Deutschland_eco e.V. für das Content Marketing rund um die Themen des Verbands verantwortlich. Zudem unterstützt er KI-Projekte wie Service-Meister und Initiativen wie EuroCloud Native, Channel2Cloud oder EuroCloud Next Leaders mit Blogbeiträgen, Namensartikeln, Interviews, Pressemitteilungen, Konzepten und Strategien. Beruflich wie privat ist er auf LinkedIn und Twitter unterwegs.