Erfundene Fakten: So löst Du das Problem beim Schreiben mit KI

© Wortliga
KI-Texte klingen meist schlüssig – aber ChatGPT, Claude und Co. erfinden Quellen und Fakten. Dein Marketing braucht zuverlässigere Lösungen.
KI-Chatbots verfälschen Fakten in bis zu 73% der Fälle, wie eine Studie zeigt. [1] Für Marketer ist das ein ernstes Problem. Falsche Informationen schaden der Glaubwürdigkeit und kosten Kunden. Welche Lösungen gibt es?
KI-Halluzinationen – schwer erkennbar und ein Risiko fürs Marketing
Laut TÜV-Studie nutzen bereits 50% aller Befragten ChatGPT für Texterstellung oder Recherche. Gleichzeitig sehen 71% das Hauptrisiko in Desinformation durch KI-Texte. [2] Diese Sorge ist begründet:
Sprachmodelle trainieren auf plausible Antworten, nicht auf Faktengenauigkeit. Das Öko-Institut untersucht dieses Phänomen systematisch und will Methoden zur Überprüfung der Faktentreue von KI-Antworten entwickeln. [3]
Bekannte KI-Chatbots erfinden systematisch Quellen
SISTRIX-Gründer und Geschäftsführer Johannes Beus erklärt das grundlegende Problem am Beispiel falscher Quellenangaben: „AI-Chatbots haben ein strukturelles Problem mit URLs. Der Grund: Die Texteingabe wird in Tokens zerlegt. Und das betrifft in der Regel auch den Slash (‚/). Während der Hostname meist korrekt wiedergegeben wird, ist der Pfad dahinter reine Statistik.“
Um dieses Problem zu quantifizieren, testete SISTRIX jeweils 10.000 Quellenangaben der drei führenden KI-Chatbots:
– Google Gemini schnitt am besten ab: Rund 42% der URLs waren direkt erreichbar
Weitere 20% leiteten weiter.
– Bei rund einem Drittel der Antworten existierten die Seiten überhaupt nicht
– ChatGPT und DeepSeek zeigten ähnliche oder schlechtere Ergebnisse
Das Fazit des SISTRIX-Chefs: „AI-Chatbots werden nicht darum herumkommen, externe Systeme zur Validierung von URLs und anderen Fakten einzubinden, um verlässliche Antworten zu garantieren.“

© Wortliga
Faktengenauigkeit unter der Lupe
Eine BBC-Untersuchung vom Februar 2025 belegt: Zehn führende KI-Modelle machten in mehr als 50% der Fälle sachliche Fehler bei politischen, gesellschaftlichen und medizinischen Themen. [1]
Noch alarmierender: Eine Studie in „Royal Society Open Science“ vom Mai 2025 untersuchte 4.900 Zusammenfassungen wissenschaftlicher Arbeiten. Die Studie fand heraus, dass 73% der von Sprachmodellen erstellten wissenschaftlichen Zusammenfassungen Übertreibungen oder Fehlinterpretationen enthielten. Besonders problematisch wurde es, wenn Anwender von der KI eine „präzise Zusammenfassung“ forderten. [1]
Wie schlimm steht es um die Verlässlichkeit von KI-Texten?
Menschen können KI-generierte Inhalte schlecht von menschlich verfassten unterscheiden. In einer Studie identifizierten angehende Lehrkräfte nur 45,1% der KI-Texte korrekt. Erfahrene Lehrkräfte schnitten mit 37,8% sogar noch schlechter ab. [4]
Das erklärt, warum KI-generierte wissenschaftliche Arbeiten immer häufiger den Weg in akademische Datenbanken finden. Eine Analyse von Google Scholar ergab, dass etwa zwei Drittel der untersuchten Publikationen zumindest teilweise durch GPT erzeugt wurden. [5]
Die Frage lautet also: Wie viele faktische Fehler finden laufend ihren Weg in Publikationen oder in die Kommunikation von Unternehmen?
Lösungsansätze aus der KI-Forschung: Wie Du faktentreu mit KI arbeitest
Um die Faktengenauigkeit Deiner KI-Texte zu verbessern, gibt es bereits Verfahren und Technologien, die helfen können. Die meisten rufen aber die IT-Abteilung auf den Plan und benötigen Entwicklung:
1. Retrieval-Augmented Generation (RAG) Diese Methode kombiniert Sprachmodelle mit externen Wissensquellen wie Datenbanken oder Dokumenten. Sie beschafft gezielt Informationen vor dem Generieren und reduziert so Halluzinationen. [6]
2. Fusion-in-Decoder (FiD) Eine Weiterentwicklung des RAG-Ansatzes: Mehrere abgerufene Textpassagen werden einzeln verarbeitet. Das Ergebnis zeigt höhere faktische Genauigkeit als einfachere Verfahren. [7]
3. RARR-Prozess („Retrofit Attribution using Research and Revision“) Dieser zweistufige Ansatz generiert zunächst einen Textentwurf per Sprachmodell und prüft anschließend die enthaltenen Fakten durch gezielte Websuche nach relevanten Belegen. [7]
RFWV-Workflow: Kombinierter Ansatz aus dem Journalismus
Der noch weniger bekannte Ansatz RFWV steht für „Retrieve, Fuse, Write, Verify“. Dieser Praxis-nahe Ablauf, inspiriert vom Journalismus, kombiniert Recherche, Verarbeitung von Quellen, Textgenerierung und abschließende Faktenprüfung in einem Prozess. Der Vorteil: Du kannst den Prozess mit frei verfügbaren Tools durchführen – ohne Software-Entwicklung – und so faktenbasiert mit KI schreiben.
Der Workflow:
- Erst recherchierst Du frei zugängliche, vertrauenswürdige und aktuelle Quellen sowie Websites mit einer Suchmaschine wie Perplexity (Retrieve/Fuse).
- Dann strukturierst Du die gefundenen Informationen, bewertest die Quellen und erstellst daraus einen Entwurf, etwa mit Claude oder GPT (Write).
- Abschließend verifizierst Du nochmals systematisch und gleichst die Quellen mit dem fertigen Text ab (Verify).
Der Vorteil: Du kannst das Verfahren mit bestehenden KI-Lösungen selbst anwenden, etwa mit spezialisierten Recherche-Tools (z. B. Perplexity Pro, Scite.ai), bekannten Schreibsystemen (z. B. Claude, ChatGPT) sowie Tools zur Quellenprüfung. Du willst Zeit sparen? Es gibt auch Tools, die diese Systeme kombinieren.

© Wortliga
Faktentreue KI-Inhalte: Verantwortung mit Wettbewerbsvorteil
KI-gestütztes Schreiben bestimmt den Wettbewerb: Eine Analyse von Forschern der Universitäten Stanford, Washington und Emory zeigt, dass bis zu 24 Prozent aller Pressemitteilungen auf Plattformen wie Newswire mithilfe generativer KI erstellt oder stark überarbeitet wurden. [8]
Auch in anderen Bereichen wächst der Anteil – etwa bei Stellenanzeigen junger Firmen. Hier liegt der KI-Anteil bei bis zu 15 Prozent. [8]
KI beschleunigt Marketing und Kommunikation – Fehleranfälligkeit und geringe Faktentreue können Effizienz-Vorteile aber durch Falschinformation zunichte machen. Dein Unternehmen braucht für dieses Problem eine Lösung, um KI in der Kommunikation gut und richtig einzusetzen – gesellschaftlich verantwortungsvoll, wirtschaftlich nachhaltig.

© Tom Bauer
Über den Autor
Gidon Wagner ist Gründer und Geschäftsführer der WORTLIGA. Das Unternehmen entwickelt Werkzeuge für professionelle Texte – darunter die WORTLIGA Textanalyse für verständliche Sprache und ansprechende KI-Texte sowie den WORTLIGA Ghostwriter, ein KI-System für faktenbasiertes Schreiben nach journalistischen Standards.
Quellen
[1] digitalzentrum-berlin.de/ki-modelle-im-faktencheck-chatgpt-und-co-liefern-oft-falschaussagen[2] www.oeko.de/blog/fakt-ist-sprachliche-unsicherheiten-der-kuenstlichen-intelligenz/
[3] www.oeko.de/news/pressemeldungen/faktentreue-beim-schreiben-mit-kuenstlicher-intelligenz-spendenprojekt-gestartet/
[4] originality.ai/blog/can-humans-detect-ai-content
[5] misinforeview.hks.harvard.edu/article/gpt-fabricated-scientific-papers-on-google-scholar-key-features-spread-and-implications-for-preempting-evidence-manipulation/
[6] www.uni-paderborn.de/fileadmin/lehre/Digitale_Lehre_2023/KI-Talks/Grundlagen_generativer_KI_in_der_Hochschullehre.pdf
[7] www.seo-suedwest.de/9747-faktenpruefung-per-ki-ist-google-mit-generate-ground-auf-dem-holzweg.html
[8] https://the-decoder.de/studie-zeigt-ki-gestuetztes-schreiben-ist-im-berufsleben-angekommen/