Warum wir nicht wissen, wie KI entscheidet
KI-Suchmaschinen liefern schnelle Ergebnisse auf die Suchanfrage, doch nach welchen Kriterien kommt sie zu ihren Entscheidungen? Dieses Phänomen wird als sogenanntes Blackbox-Problem bezeichnet: Die Entscheidungen der KI-Systeme, die hinter den KI-Zusammenfassungen stecken, sind für die Nutzerinnen und Nutzer nicht nachvollziehbar.
Besonders große Sprachmodelle (LLMs), wie sie in Suchmaschinen eingesetzt werden, arbeiten auf Basis von Wahrscheinlichkeiten. Dabei bleibt verborgen, welche Schritte das KI-System im Hintergrund unternimmt. Sie berechnen, welche Antwort am besten passt – ohne offenzulegen, wie sie zu diesem Ergebnis gekommen sind. Das macht es schwierig, ihre Entscheidungen zu verstehen und zu überprüfen.
Fachleute fordern deshalb mehr Transparenz. Ziel von „Explainable AI“ (XAI) ist es beispielsweise, die Entscheidungen von KI-Systemen verständlicher und überprüfbarer zu gestalten.