Wenn KIs voneinander abschreiben: Die stille Gefahr der Second-Order Hallucinations

In der Welt der künstlichen Intelligenz ist das Phänomen der Halluzinationen längst bekannt – große Sprachmodelle erfinden Inhalte, die es nie gegeben hat. Doch mit dem Aufstieg von KI-gestützten Suchmaschinen wie Perplexity, You.com oder auch ChatGPT mit Browsing-Funktion entsteht ein neues, stilleres Risiko: Second-Order Hallucinations.

Das klingt harmlos – ist aber ein systemischer Fehler mit Potenzial zur Desinformation.

Was genau sind Second-Order Hallucinations?

Der Begriff beschreibt einen Effekt, bei dem eine KI nicht direkt halluziniert, sondern Fehlinformationen übernimmt, die von einer anderen KI bereits zuvor halluziniert wurden. Es handelt sich also um eine indirekte Halluzination, eine Art Informationsrezirkulation: Eine erste KI generiert falsche Inhalte – etwa ein erfundenes Zitat, eine nicht existierende Quelle oder ein technisches Detail, das nie publiziert wurde. Eine zweite KI, etwa im Rahmen einer Suchmaschine oder bei einem Frage-Antwort-Modell, greift auf genau diese (scheinbar vertrauenswürdige) Quelle zurück – und gibt die Fehlinformation weiter. So entsteht ein Trugbild mit doppeltem Boden.

Das besonders Heimtückische: Die Fehlinformation wirkt plausibel und mehrfach bestätigt, da sie aus unterschiedlichen Richtungen kommt – aber eben nicht von echten Quellen, sondern aus einem geschlossenen Kreislauf KI-generierter Inhalte.

Wie entstehen solche Fehlerketten?

Der Ursprung liegt in der Architektur moderner KI-Suchmaschinen. Modelle wie Perplexity, You.com oder auch KIs mit Browsing-Plugin bedienen sich im Netz – häufig automatisiert und ungefiltert. Was sie dort finden, nutzen sie nicht nur zur Inspiration, sondern als faktische Referenz. Wenn in einem Blog, einem Forum oder einer maschinell erstellten Website eine fehlerhafte Information steht, wird diese unter Umständen als valide Quelle interpretiert – obwohl sie auf einer vorherigen Halluzination basiert.

Untersuchungen zeigen: Bereits nach wenigen Suchanfragen stoĂźen Nutzer auf derartige Inhalte, vor allem bei techniknahen Themen, weniger aber in stark kuratierten Feldern wie etwa Reiseliteratur oder Gesetzestexten.

Ein konkreter Fall: Die KI-Suchmaschine Perplexity wurde in einem Experiment analysiert und zeigte bei mehreren Testläufen fehlerhafte oder irreführende Antworten – mit korrekt wirkenden Quellenangaben, die sich bei Prüfung jedoch als KI-generiert und halluziniert herausstellten.

Warum das gefährlich ist

Klassische Halluzinationen lassen sich erkennen und entlarven – vor allem, wenn sie offensichtlich falsch oder widersprüchlich sind. Second-Order Hallucinations hingegen wirken deutlich überzeugender, weil sie durch eine scheinbare Quellenvielfalt gestützt werden. Je häufiger ein Fehler übernommen wird, desto mehr wird er zur „Wahrheit im Netz“ – ein digitaler Flüsterpost-Effekt mit exponentiellem Risiko.

Suchmaschinen, die fĂĽr sich beanspruchen, schneller, kontextualisierter und effizienter zu sein als Google, laufen damit Gefahr, systematische Fehlinformationen zu verfestigen, statt sie zu verhindern.

Gibt es technische Lösungen?

Forschungsinitiativen setzen auf drei zentrale GegenmaĂźnahmen:

  1. Retrieval-Augmented Generation (RAG): KI-Modelle greifen auf eine festgelegte externe Wissensquelle zurück, z. B. eine unternehmenseigene Datenbank oder ein geprüftes Wiki, statt auf das offene Netz.
  2. Wissensgraphen (Knowledge Graphs): Strukturierte Datenmodelle mit geprüften Fakten sollen der KI eine Art faktenbasiertes Gedächtnis geben – als Gegengewicht zu offenem Crawling.
  3. Systematische Source-Verification: Neue Tools prüfen automatisiert, ob eine Quelle tatsächlich aus menschlicher Redaktion stammt oder maschinell erstellt wurde – ein Konzept, das zunehmend auch in Content-Moderation oder bei Google Einzug hält.

Fazit: Ein unsichtbares Risiko in einer sichtbaren Revolution

Second-Order Hallucinations sind ein stilles, aber potenziell weitreichendes Problem in der KI-gestützten Informationssuche. Was als technischer Nebeneffekt beginnt, kann zur Verstärkung von Desinformation führen – nicht böswillig, sondern durch systemische Schwächen.

Suchmaschinen mit KI-Komponenten stehen damit vor einer neuen Verantwortung: Nicht nur, was die Qualität ihrer eigenen Antworten betrifft, sondern auch die Herkunft und Vertrauenswürdigkeit der von ihnen zitierten Inhalte.

Je automatisierter wir suchen, desto wichtiger wird die Frage: Wer hat das eigentlich zuerst gesagt – und war es überhaupt ein Mensch?

Beitragsbild: Erstellt mit ChatGPT

Alexander Pinker
Alexander Pinkerhttps://www.medialist.info
Alexander Pinker ist Innovation-Profiler, Zukunftsstratege und Medienexperte und hilft Unternehmen, die Chancen hinter Technologien wie künstlicher Intelligenz für die nächsten fünf bis zehn Jahre zu verstehen. Er ist Gründer des Beratungsunternehmens „Alexander Pinker – Innovation-Profiling“, der Agentur für Innovationsmarketing "innovate! communication" und der Nachrichtenplattform „Medialist Innovation“. Außerdem ist er Autor dreier Bücher und Dozent an der Technischen Hochschule Würzburg-Schweinfurt.

Ähnliche Artikel

Kommentare

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre, wie deine Kommentardaten verarbeitet werden.

Follow us

FUTURing