Kraus & Partner Logo
contact-icon X
contact-icon contact-icon
contact-icon

Kontakt-formular

contact-icon

Termin buchen

contact-icon

Newsletter

Künstliche Intelligenz: Was kommt da noch auf uns zu?


Erschienen in "Management und Qualität" im Februar 2026

Wenn künstliche Intelligenz halluziniert

KI-Halluzinationen sind keine technischen Ausnahmen, sondern ein struktureller Bestandteil lernender Modelle.

Die KI-Systeme zeigen immer mehr Eigenschaften und Fähigkeiten, die vor nicht allzu langer Zeit noch als ureigen menschlich galten. Sie reagieren (scheinbar) empathisch, sie halluzinieren. Deshalb sollte man ihren Aussagen und Empfehlungen nicht blind vertrauen.

Die Künstliche Intelligenz imitiert immer überzeugender die menschliche Kommunikation. Systeme wie Chatbots oder generative Modelle können inzwischen nicht nur faktenbasiert argumentieren, sondern auch Empathie simulieren, Stimmungen spiegeln und sensibel auf emotionale Signale reagieren.

Deshalb werden KI-Systeme, die früher als reine Rechenmaschinen galten, heute zunehmend als ein Gegenüber mit Persönlichkeit empfunden. Die menschenähnliche Wirkung der Chatbots verleitet ihre Anwender allerdings oft zum Fehlschluss: Wenn sich die KI wie ein Mensch verhält, dann versteht sie auch wie ein Mensch Ereignisse, Arbeitsaufträge und Sachverhalte.

Diese Schlussfolgerung ist falsch und gefährlich.

Neben der Fähigkeit, beeindruckend realistische Dialoge zu führen, Gefühle zu spiegeln und Beratungsgespräche zu führen, haben KI-Systeme noch eine Eigenschaft mit Menschen gemeinsam: Sie können halluzinieren. Das heißt, sie erzeugen zuweilen Informationen oder einen Output, der plausibel klingt, jedoch falsch ist.

Warum KI-Systeme halluzinieren

Die Halluzinationen entstehen nicht durch Fehler im herkömmlichen Sinne, sondern durch das Funktionsprinzip großer Sprachmodelle. Sie erzeugen Antworten, indem sie Wort für Wort die wahrscheinlichste Fortsetzung eines Textes berechnen. Sie wissen und verstehen nichts – sie rechnen.

Je unvollständiger oder unklarer die Eingaben (Prompts) sind, je weniger Daten zu einem Sachverhalt existieren oder je höher der Druck ist, eine kohärente Antwort zu liefern, desto wahrscheinlicher werden Elemente erfunden.

Häufige Ursachen sind:

  • Datenlücken: Zu wenig Trainingsdaten führen zu erfundenen Informationen.
  • Übergeneralisierung: Muster werden zu stark verallgemeinert.
  • Mehrdeutige Prompts: Das Modell wählt die wahrscheinlichste, aber nicht zwingend richtige Interpretation.
  • Zwang zur Kohärenz: Sprachmodelle sind auf flüssige Texte optimiert – notfalls auf Kosten der Wahrheit.

Beispiele für Halluzinationen

In einer Studie der Europäischen Rundfunkunion wurden mehrere Beispiele bekannt:

  • Chatbots behaupteten, Papst Franziskus lebe noch, obwohl er bereits verstorben war.
  • Microsoft Copilot wusste nicht, dass Schweden seit März 2024 NATO-Mitglied ist.
  • Google Gemini bezeichnete die Wiederwahl von Donald Trump als „möglich“, obwohl er bereits im Amt war.

Weitere reale Beispiele:

  • Erfundene Quellenangaben: Chatbots erzeugten wissenschaftliche Studien inklusive gefälschter DOI-Nummern.
  • Fiktive Gerichtsurteile: KI-generierte Schriftsätze enthielten ausgedachte Präzedenzfälle.
  • Erfundene biografische Daten: Öffentliche Personen wurden mit falschen Aussagen oder Ereignissen verknüpft.
  • Falsche Bilderklärungen: Bildsysteme ordneten visuelle Inhalte falschen Kontexten zu.

Blindes Vertrauen gefährdet Unternehmen

KI-Halluzinationen sind kein Ausnahmefehler, sondern systemimmanent. Unternehmen, die KI für Analysen, Recruiting, Marktberichte oder strategische Prognosen einsetzen, müssen sich dieser Risiken bewusst sein.

Die KI ist ein Werkzeug und kein Entscheider. Ihr Output darf nie als endgültige Wahrheit betrachtet werden.

  • Falsche Informationen können wirtschaftliche Schäden verursachen.
  • Halluzinationen sind nicht vollständig vermeidbar.
  • Zukünftige Systeme werden Fehler subtiler machen.

KI verantwortungsvoll einsetzen

Ein verantwortungsvoller Umgang sollte folgende Leitlinien berücksichtigen:

  • Kritische Distanz bewahren
  • Ergebnisse verifizieren
  • Nicht als alleinige Entscheidungsgrundlage nutzen
  • Klare Prompting-Regeln etablieren
  • Mitarbeitende schulen
  • Qualitätskontrollen definieren
  • Transparenz gegenüber Kunden schaffen

Fazit

Eine logisch klingende Darstellung darf nicht darüber hinwegtäuschen, dass KI-Systeme keine denkenden Wesen, sondern statistische Modelle sind. Die Fähigkeit, realistisch erscheinenden Output von der Realität zu unterscheiden, wird zu einer zentralen Kompetenz von Entscheidern.

Wer KI reflektiert einsetzt, profitiert enorm. Wer ihr blind vertraut, setzt sein Unternehmen unnötigen Risiken aus.

Prof. Dr. Georg Kraus

Autor: mit Zitaten von Dr. Georg Kraus