Erfundene Fakten: So löst Du das Problem beim Schreiben mit KI

© Wortliga
KI liefert keine Wahrheit, sondern Wahrscheinlichkeiten – deshalb sind Recherche und Verifikation Pflicht.
© Wortliga

KI-Texte klingen meist schlüssig – aber ChatGPT, Claude und Co. erfinden Quellen und Fakten. Dein Marketing braucht zuverlässigere Lösungen.

KI-Chatbots verfälschen Fakten in bis zu 73% der Fälle, wie eine Studie zeigt. [1] Für Marketer ist das ein ernstes Problem. Falsche Informationen schaden der Glaubwürdigkeit und kosten Kunden. Welche Lösungen gibt es?

KI-Halluzinationen – schwer erkennbar und ein Risiko fürs Marketing

Laut TÜV-Studie nutzen bereits 50% aller Befragten ChatGPT für Texterstellung oder Recherche. Gleichzeitig sehen 71% das Hauptrisiko in Desinformation durch KI-Texte. [2] Diese Sorge ist begründet:

Sprachmodelle trainieren auf plausible Antworten, nicht auf Faktengenauigkeit. Das Öko-Institut untersucht dieses Phänomen systematisch und will Methoden zur Überprüfung der Faktentreue von KI-Antworten entwickeln. [3]
Bekannte KI-Chatbots erfinden systematisch Quellen

SISTRIX-Gründer und Geschäftsführer Johannes Beus erklärt das grundlegende Problem am Beispiel falscher Quellenangaben: „AI-Chatbots haben ein strukturelles Problem mit URLs. Der Grund: Die Texteingabe wird in Tokens zerlegt. Und das betrifft in der Regel auch den Slash (‚/). Während der Hostname meist korrekt wiedergegeben wird, ist der Pfad dahinter reine Statistik.“

Um dieses Problem zu quantifizieren, testete SISTRIX jeweils 10.000 Quellenangaben der drei führenden KI-Chatbots:

– Google Gemini schnitt am besten ab: Rund 42% der URLs waren direkt erreichbar
Weitere 20% leiteten weiter.
– Bei rund einem Drittel der Antworten existierten die Seiten überhaupt nicht
– ChatGPT und DeepSeek zeigten ähnliche oder schlechtere Ergebnisse

Das Fazit des SISTRIX-Chefs: „AI-Chatbots werden nicht darum herumkommen, externe Systeme zur Validierung von URLs und anderen Fakten einzubinden, um verlässliche Antworten zu garantieren.“

© Wortliga
Risikofaktor „KI in der Kommunikation”: Nur durch sorgfältige Prüfung werden Sprachmodelle zur verlässlichen Hilfe für nachhaltiges Marketing.
© Wortliga

 

Faktengenauigkeit unter der Lupe

Eine BBC-Untersuchung vom Februar 2025 belegt: Zehn führende KI-Modelle machten in mehr als 50% der Fälle sachliche Fehler bei politischen, gesellschaftlichen und medizinischen Themen. [1]
Noch alarmierender: Eine Studie in „Royal Society Open Science“ vom Mai 2025 untersuchte 4.900 Zusammenfassungen wissenschaftlicher Arbeiten. Die Studie fand heraus, dass 73% der von Sprachmodellen erstellten wissenschaftlichen Zusammenfassungen Übertreibungen oder Fehlinterpretationen enthielten. Besonders problematisch wurde es, wenn Anwender von der KI eine „präzise Zusammenfassung“ forderten. [1]
Wie schlimm steht es um die Verlässlichkeit von KI-Texten?

Menschen können KI-generierte Inhalte schlecht von menschlich verfassten unterscheiden. In einer Studie identifizierten angehende Lehrkräfte nur 45,1% der KI-Texte korrekt. Erfahrene Lehrkräfte schnitten mit 37,8% sogar noch schlechter ab. [4]
Das erklärt, warum KI-generierte wissenschaftliche Arbeiten immer häufiger den Weg in akademische Datenbanken finden. Eine Analyse von Google Scholar ergab, dass etwa zwei Drittel der untersuchten Publikationen zumindest teilweise durch GPT erzeugt wurden. [5]
Die Frage lautet also: Wie viele faktische Fehler finden laufend ihren Weg in Publikationen oder in die Kommunikation von Unternehmen?

Lösungsansätze aus der KI-Forschung: Wie Du faktentreu mit KI arbeitest

Um die Faktengenauigkeit Deiner KI-Texte zu verbessern, gibt es bereits Verfahren und Technologien, die helfen können. Die meisten rufen aber die IT-Abteilung auf den Plan und benötigen Entwicklung:

1. Retrieval-Augmented Generation (RAG) Diese Methode kombiniert Sprachmodelle mit externen Wissensquellen wie Datenbanken oder Dokumenten. Sie beschafft gezielt Informationen vor dem Generieren und reduziert so Halluzinationen. [6]
2. Fusion-in-Decoder (FiD) Eine Weiterentwicklung des RAG-Ansatzes: Mehrere abgerufene Textpassagen werden einzeln verarbeitet. Das Ergebnis zeigt höhere faktische Genauigkeit als einfachere Verfahren. [7]
3. RARR-Prozess („Retrofit Attribution using Research and Revision“) Dieser zweistufige Ansatz generiert zunächst einen Textentwurf per Sprachmodell und prüft anschließend die enthaltenen Fakten durch gezielte Websuche nach relevanten Belegen. [7]

RFWV-Workflow: Kombinierter Ansatz aus dem Journalismus

Der noch weniger bekannte Ansatz RFWV steht für „Retrieve, Fuse, Write, Verify“. Dieser Praxis-nahe Ablauf, inspiriert vom Journalismus, kombiniert Recherche, Verarbeitung von Quellen, Textgenerierung und abschließende Faktenprüfung in einem Prozess. Der Vorteil: Du kannst den Prozess mit frei verfügbaren Tools durchführen – ohne Software-Entwicklung – und so faktenbasiert mit KI schreiben.

Der Workflow:

 

  1. Erst recherchierst Du frei zugängliche, vertrauenswürdige und aktuelle Quellen sowie Websites mit einer Suchmaschine wie Perplexity (Retrieve/Fuse).
  2. Dann strukturierst Du die gefundenen Informationen, bewertest die Quellen und erstellst daraus einen Entwurf, etwa mit Claude oder GPT (Write).
  3. Abschließend verifizierst Du nochmals systematisch und gleichst die Quellen mit dem fertigen Text ab (Verify).

Der Vorteil: Du kannst das Verfahren mit bestehenden KI-Lösungen selbst anwenden, etwa mit spezialisierten Recherche-Tools (z. B. Perplexity Pro, Scite.ai), bekannten Schreibsystemen (z. B. Claude, ChatGPT) sowie Tools zur Quellenprüfung. Du willst Zeit sparen? Es gibt auch Tools, die diese Systeme kombinieren.

© Wortliga
Wenn Fakten überprüft werden, gewinnt das ganze Netz – geprüfte Inhalte erhalten die Qualität öffentlich verfügbarer Informationen.
© Wortliga

 

Faktentreue KI-Inhalte: Verantwortung mit Wettbewerbsvorteil

KI-gestütztes Schreiben bestimmt den Wettbewerb: Eine Analyse von Forschern der Universitäten Stanford, Washington und Emory zeigt, dass bis zu 24 Prozent aller Pressemitteilungen auf Plattformen wie Newswire mithilfe generativer KI erstellt oder stark überarbeitet wurden. [8]
Auch in anderen Bereichen wächst der Anteil – etwa bei Stellenanzeigen junger Firmen. Hier liegt der KI-Anteil bei bis zu 15 Prozent. [8]
KI beschleunigt Marketing und Kommunikation – Fehleranfälligkeit und geringe Faktentreue können Effizienz-Vorteile aber durch Falschinformation zunichte machen. Dein Unternehmen braucht für dieses Problem eine Lösung, um KI in der Kommunikation gut und richtig einzusetzen – gesellschaftlich verantwortungsvoll, wirtschaftlich nachhaltig.

 

© Tom Bauer
Gidon Wagner
© Tom Bauer

Über den Autor
Gidon Wagner ist Gründer und Geschäftsführer der WORTLIGA. Das Unternehmen entwickelt Werkzeuge für professionelle Texte – darunter die WORTLIGA Textanalyse für verständliche Sprache und ansprechende KI-Texte sowie den WORTLIGA Ghostwriter, ein KI-System für faktenbasiertes Schreiben nach journalistischen Standards.

 

 

 

 

 

 

 

Quellen

[1] digitalzentrum-berlin.de/ki-modelle-im-faktencheck-chatgpt-und-co-liefern-oft-falschaussagen
[2] www.oeko.de/blog/fakt-ist-sprachliche-unsicherheiten-der-kuenstlichen-intelligenz/
[3] www.oeko.de/news/pressemeldungen/faktentreue-beim-schreiben-mit-kuenstlicher-intelligenz-spendenprojekt-gestartet/
[4] originality.ai/blog/can-humans-detect-ai-content
[5] misinforeview.hks.harvard.edu/article/gpt-fabricated-scientific-papers-on-google-scholar-key-features-spread-and-implications-for-preempting-evidence-manipulation/
[6] www.uni-paderborn.de/fileadmin/lehre/Digitale_Lehre_2023/KI-Talks/Grundlagen_generativer_KI_in_der_Hochschullehre.pdf
[7] www.seo-suedwest.de/9747-faktenpruefung-per-ki-ist-google-mit-generate-ground-auf-dem-holzweg.html
[8] https://the-decoder.de/studie-zeigt-ki-gestuetztes-schreiben-ist-im-berufsleben-angekommen/