Erklärbare KI
21. November 2025
Ist die erklärbare KI nur ein Lendenschurz?
Das Whitepaper des BSI zur Erklärbarkeit von KI-Systemen zeigt, dass die Erklärbarkeit keine Garantie für Kontrolle und schon gar kein Freifahrtschein für den Einsatz von KI in sicherheitskritischen oder regulatorisch sensiblen Bereichen ist.
Das BSI beleuchtet die Grenzen gängiger XAI-Methoden (Explainable AI) und warnt davor, Erklärbarkeit mit echter Nachvollziehbarkeit oder gar Sicherheit zu verwechseln. Wer KI erklärt, muss verstehen, wie unterschiedlich und manipulierbar diese Erklärungen sein können.
Drei zentrale XAI-Ansätze im Überblick:
1. Feature Attribution: Identifiziert, welche Eingabefaktoren die Entscheidung des Modells maßgeblich beeinflusst haben.
2. Kontrastive & kontrafaktische Erklärungen: Beantworten Fragen wie „Warum A statt B?“ oder „Was müsste sich ändern, damit das Modell anders entscheidet?“
3. Surrogatmodelle: Komplexe Modelle werden lokal durch einfachere Modelle wie Entscheidungsbäume ersetzt, um ihre Logik sichtbar zu machen.
Das BSI warnt, dass Erklärungen voneinander abweichen, unvollständig sein und XAI-Verfahren technisch manipuliert werden können. Ein „erklärbares“ Modell ist nicht automatisch fair, sicher oder vertrauenswürdig. Erklärungen schaffen keine Haftung, keine Kontrolle und keine Absicherung gegenüber Fehlverhalten.
Ist Erklärbarkeit lediglich ein vertrauensbildendes Etikett oder tatsächlich ein Mechanismus, der reale Risikokontrolle liefert? Wenn High‑Risk KI im Umfeld von Rechtsprechung, HR oder Gesundheit eingesetzt wird und Erklärungen unzuverlässig sind, dann wird die KI zur Black Box mit beschriftetem Schaufenster.
Fazit
Erklärbarkeit bleibt wichtig, aber sie ist nicht die Antwort auf alle KI‑Risiken. Wer sich auf „Modelle, die sich erklären“ verlässt, ohne nach Wahl und Wirkung zu fragen, überlässt Kontrolle dem Mythos der Technik. Transparenz muss bedeuten, dass Zuständigkeiten, Prüfpfade und Rückgriffe klar erkennbar sind und nicht nur aufgeführt. Wer Erklärbarkeit ernst meint, braucht ebenso, strukturelle Verantwortung, Auditierbarkeit, dokumentierte Entscheidungen und klare Prozesse, die über das Modell selbst hinausgehen.
Hier geht’s zum Whitepaper: https://lnkd.in/dyjaxaYQ
Experten mit Struktur und auf Augenhöhe
finden Sie bei der F&P Executive Solutions AG.