Confirmation Bias – Zerstörung der Wahrheit mit der KI?


Zerstörung der Wahrheit mit der KI – kann uns nicht passieren! – Oder doch? Menschen neigen dazu, das bereits vorhandene Wissen zu bestätigen. KI leider auch! Diese Bestätigungsvoreingenommenheit wird Confirmation Bias genannt. Und keiner ist davor sicher.

Confirmation Bias – Was ist das?


Wir fühlen uns gut, wenn die äußere und innere Welt zusammenpassen. Daher werden die Informationen, die zu unseren bestehenden Überzeugungen passen, von uns bevorzugt. Gegenargumenten wird weniger oder gar kein Gewicht beigemessen. Das war schon immer so und wird sich mit der KI nicht ändern.


Der Fachausdruck hierfür ist die Bestätigungsvoreingenommenheit – Confirmation Bias. Es zerstört die Tatsachen, die Wahrheit.

Confirmation Bias erfüllt unser inhärentes Bedürfnis nach Konsistenz. Es sprich unsere Bequemlichkeiten an. Wir möchten gerne bereits bestehende Überzeugungen aufrechterhalten. Wir lassen uns gern von ähnlichen Menschen und bekannten Situationen beeinflussen. Auch verhalten wir uns oftmals so, dass die bestehenden Standpunkte bestätigt werden.

Viele Menschen bleiben daher oft im „Hamsterrad“ stecken. Das sehen wir gern bei den anderen und denken, dass dieses Problem uns selbst weniger betrifft. Und hier liegt der größte Fehler: seinen wir nicht blind unseren eigenen blinden Flecken gegenüber!

Confirmation Bias führt auch dazu, dass Einzelpersonen oder Organisationen in einer Art „Hamsterrad“ gefangen sind, indem sie sich immer wieder mehr auf Entscheidungsprozesse und Strategien einlassen, die ihre bestehenden Annahmen bekräftigen. Dieser Kreislauf schränkt ihre Fähigkeit ein, Probleme aus verschiedenen Perspektiven zu betrachten, neue Lösungen in Erwägung zu ziehen oder sich an Veränderungen anzupassen., So werden Innovation, Fortschritt und Wohlstand gehemmt.

Wie hängt jedoch diese Bestätigungsverzerrung mit KI zusammen?

Confirmation Bias in der KI


Maschinelles Lernen (ML), basiert auf riesigen Datenmengen, um zu agieren und Vorhersagen zu treffen. Wenn die zur Ausbildung einer KI verwendeten Daten bereits voreingenommen sind oder wenn das Design des KI-Systems inhärente Vorurteile aufweist, können die Ergebnisse des Systems diese Vorurteile widerspiegeln. Dieser Prozess kann unbeabsichtigt bestehende Vorurteile weiterverbreiten oder sogar verstärken.

Fehlerquellen in der KI

Wenn wir suchen, können wir viele mögliche Fehlerquellen bei der KI finden:

  • Trainingsdaten: Wenn die zur Ausbildung von KI-Modellen verwendeten Daten Fehler aufweisen (die oft historische oder gesellschaftliche Vorurteile widerspiegeln), wird das Modell diese Vorurteile sehr wahrscheinlich in seinen Vorhersagen oder Klassifikationen reproduzieren.
  • Modellarchitektur und -design: Manchmal kann das Design des Modells selbst oder die ausgewählten wichtigen Merkmale Vorurteile einführen oder verstärken.
  • Feedbackschleifen: Wenn die Ausgangsdaten einer KI kontinuierlich als neue Daten in das System zurückgespeist werden, werden auch vorhandene Vorurteile verstärkt. Besser wird es dadurch nicht!
  • Bestätigungsverzerrung in Mensch-KI-Interaktionen: Selbst wenn ein KI-System unvoreingenommene Informationen bereitstellen würde, wählen Menschen oft die Daten aus, die ihre Überzeugungen unterstützen, was zu einem mangelnden Verständnis und daher oft zu fataler Entscheidungsfindung führt.

Seien wir uns dessen bewusst: die Fehler liegen meist nicht bei der KI. Es sind fehlerhafte Daten oder Modelle, die die KI von den Menschen gelernt hatte und es sind Menschen, die die KI nicht optimal programmieren und interpretieren. Genau hier müssen wir auch ansetzen.

Was nun? Was ist zu tun?

Es bleibt die Frage, wie wir uns vor dem Confirmation Bias schützen können. Hier erste Vorschläge zur Selbsthilfe:

  • Vielfältige und repräsentative Daten verwenden: Stellen Sie bestmöglich sicher, dass Trainingsdaten umfassend und repräsentativ sind. Erfassen Sie eine breite Palette von Perspektiven.
  • Modelltransparenz: Das grundsätzliche Verständnis, wie Modelle Entscheidungen treffen, erleichtert uns, Quellen von Fehlurteilen aufzudecken.
  • Regelmäßige Audits: Periodische kritische Bewertungen von KI-Systemen – auch mal von anderen Organisationen – können helfen, Fehler zu erkennen und zu beheben. Aber auch hier die Bestätigungsvoreingenommenheit selbst bei den Audits in Betracht ziehen.
  • Mensch in der Schleife: Wenn aufmerksame Menschen in der Entscheidungsschleife bleiben, kann dies als Kontrolle gegen mögliche Fehler wirken.

Seien wir uns daher stets unserer potenziellen Fehler und der potenziellen Fehler der KI bewusst.

Seien wir neugierig offen neuen Entwicklungen, Standpunkten und Veränderungen gegenüber. Nehmen wir eine forschende Geisteshaltung ein.

  • Weiten wir unsere Perspektive aus!
  • Probieren wir etwas Neues aus!
  • Ziehen wir auch einen ganz neuen Lösungsweg in Betracht.

Und zur Not fragen wir auch mal die KI, wo der Fehler liegen könnte …

Danke im voraus an die KI.