KI-Halluzinationen sind keine technischen Ausnahmen, sondern ein struktureller Bestandteil lernender Modelle.
Die KI-Systeme zeigen immer mehr Eigenschaften und Fähigkeiten, die vor nicht allzu langer Zeit noch als ureigen menschlich galten. Sie reagieren (scheinbar) empathisch, sie halluzinieren. Deshalb sollte man ihren Aussagen und Empfehlungen nicht blind vertrauen.
Die Künstliche Intelligenz imitiert immer überzeugender die menschliche Kommunikation. Systeme wie Chatbots oder generative Modelle können inzwischen nicht nur faktenbasiert argumentieren, sondern auch Empathie simulieren, Stimmungen spiegeln und sensibel auf emotionale Signale reagieren.
Deshalb werden KI-Systeme, die früher als reine Rechenmaschinen galten, heute zunehmend als ein Gegenüber mit Persönlichkeit empfunden. Die menschenähnliche Wirkung der Chatbots verleitet ihre Anwender allerdings oft zum Fehlschluss: Wenn sich die KI wie ein Mensch verhält, dann versteht sie auch wie ein Mensch Ereignisse, Arbeitsaufträge und Sachverhalte.
Diese Schlussfolgerung ist falsch und gefährlich.
Neben der Fähigkeit, beeindruckend realistische Dialoge zu führen, Gefühle zu spiegeln und Beratungsgespräche zu führen, haben KI-Systeme noch eine Eigenschaft mit Menschen gemeinsam: Sie können halluzinieren. Das heißt, sie erzeugen zuweilen Informationen oder einen Output, der plausibel klingt, jedoch falsch ist.
Die Halluzinationen entstehen nicht durch Fehler im herkömmlichen Sinne, sondern durch das Funktionsprinzip großer Sprachmodelle. Sie erzeugen Antworten, indem sie Wort für Wort die wahrscheinlichste Fortsetzung eines Textes berechnen. Sie wissen und verstehen nichts – sie rechnen.
Je unvollständiger oder unklarer die Eingaben (Prompts) sind, je weniger Daten zu einem Sachverhalt existieren oder je höher der Druck ist, eine kohärente Antwort zu liefern, desto wahrscheinlicher werden Elemente erfunden.
Häufige Ursachen sind:
In einer Studie der Europäischen Rundfunkunion wurden mehrere Beispiele bekannt:
Weitere reale Beispiele:
KI-Halluzinationen sind kein Ausnahmefehler, sondern systemimmanent. Unternehmen, die KI für Analysen, Recruiting, Marktberichte oder strategische Prognosen einsetzen, müssen sich dieser Risiken bewusst sein.
Die KI ist ein Werkzeug und kein Entscheider. Ihr Output darf nie als endgültige Wahrheit betrachtet werden.
Ein verantwortungsvoller Umgang sollte folgende Leitlinien berücksichtigen:
Eine logisch klingende Darstellung darf nicht darüber hinwegtäuschen, dass KI-Systeme keine denkenden Wesen, sondern statistische Modelle sind. Die Fähigkeit, realistisch erscheinenden Output von der Realität zu unterscheiden, wird zu einer zentralen Kompetenz von Entscheidern.
Wer KI reflektiert einsetzt, profitiert enorm. Wer ihr blind vertraut, setzt sein Unternehmen unnötigen Risiken aus.
Prof. Dr. Georg Kraus