Alarmierende Studie der Europäischen Rundfunkunion enthüllt systemische Probleme bei ChatGPT, Gemini und Co.
Sie klingen überzeugend, antworten blitzschnell und werden von Millionen Menschen weltweit täglich genutzt – doch eine neue internationale Studie zeigt: KI-Chatbots sind als Informationsquelle hochgradig unzuverlässig. Fast jede zweite Antwort zu Nachrichtenthemen enthält erhebliche Fehler.
800 Millionen Nutzer vertrauen auf fehlerhafte Informationen
Eine groß angelegte Untersuchung der Europäischen Rundfunkunion (EBU) unter Federführung der BBC kommt zu einem alarmierenden Ergebnis: Bei 45 Prozent aller KI-Antworten zu aktuellen Ereignissen fanden Journalisten mindestens einen gravierenden Fehler. Untersucht wurden über 3.000 Antworten der populären Chatbots ChatGPT, Copilot, Gemini und Perplexity in 14 Sprachen.
Besonders brisant: Weltweit nutzen etwa 800 Millionen Menschen wöchentlich allein ChatGPT. Laut dem Digital News Report 2025 informieren sich bereits 7 Prozent aller Online-Nutzer über KI-Assistenten – bei den unter 25-Jährigen sind es sogar 15 Prozent. Diese Zahlen verdeutlichen, welche Tragweite die Fehlerquote hat.
Erfundene Zitate, falsche Quellen und veraltete Informationen
Die Probleme sind vielfältig und systematisch, wie die Analyse der 22 beteiligten öffentlich-rechtlichen Medienorganisationen aus 18 Ländern zeigt:
31 Prozent der Antworten enthielten irreführende, fehlerhafte oder komplett erfundene Quellenangaben. Besonders perfide: Die Chatbots behaupten häufig, ihre Informationen stammten von ARD, ZDF oder der Tagesschau – obwohl diese Redaktionen nie so berichtet haben.
20 Prozent wiesen nachweislich falsche Fakten auf. Darunter fanden sich gravierende Sachfehler wie die Nennung veralteter politischer Amtsträger. Ein besonders kurioses Beispiel: ChatGPT, Copilot und Gemini gaben wiederholt an, Papst Franziskus sei im Mai 2025 noch im Amt – obwohl er bereits im April verstorben war.
Weitere Fehlertypen umfassten erfundene Links, die glaubwürdig erschienen, aber nicht existierten, sowie verzerrte oder komplett aus dem Kontext gerissene Zitate aus seriösen Medienquellen.
„Besonders gefährlich für ungeübte Nutzer“
„Die Systeme klingen überzeugend, auch wenn sie immer wieder vollkommen falsche Dinge behaupten. Das macht sie für ungeübte Nutzer besonders gefährlich, weil die Fehler oft nicht sofort erkennbar sind“, erklärt Peter Posch, Wirtschaftswissenschaftler an der TU Dortmund.
Das Kernproblem liegt in der Technologie selbst: KI-Chatbots „verstehen“ nicht, was sie sagen. Sie setzen Texte lediglich nach Algorithmen, statistischen Mustern und Wahrscheinlichkeiten zusammen. Wie Jürg Tschirren, Digitalredakteur beim Schweizer Radio und Fernsehen (SRF), erläutert: „Die KI berechnet lediglich, welches Wort am wahrscheinlichsten auf das vorangegangene folgt. Die Aussagen eines KI-Assistenten sind also Wahrscheinlichkeiten, keine überprüften Fakten.“
Demokratische Beteiligung in Gefahr
Die Konsequenzen gehen weit über individuelle Fehlinformationen hinaus. 42 Prozent der befragten Erwachsenen gaben an, dem ursprünglichen Nachrichtenmedium weniger zu vertrauen, wenn die KI-Antwort Fehler enthielt – obwohl diese Fehler von der KI selbst fabriziert wurden.
„Falsche, irreführende oder ungenaue Informationen gefährden das Vertrauen der Menschen und könnten die demokratische Beteiligung beeinträchtigen“, warnt die EBU in ihrer Studie. Besonders problematisch: Bei aktuellen Ereignissen sind die Fehlerquoten noch höher, da neue Informationen oft nicht in den Trainingsdaten enthalten sind und das Unerwartete der statistischen Logik der Modelle widerspricht.
Öffentlich-rechtliche Sender fordern strengere Regeln
Die Studie hat eine deutliche Reaktion der beteiligten Medienorganisationen ausgelöst. Florian Hager, Intendant des Hessischen Rundfunks und aktueller ARD-Vorsitzender, betont: „Vertrauenswürdige Inhalte brauchen vertrauenswürdige KI-Systeme. Es braucht Mechanismen, die falsche und missverständliche Informationen verhindern.“
Die EBU fordert konkrete Maßnahmen:
- KI-Entwickler müssen die Fehlerquoten dringend reduzieren und transparent über ihre Leistung nach Sprache und Markt berichten
- Verlage und Sender benötigen mehr Kontrolle über die Verwendung ihrer Inhalte
- Klare, vereinbarte Zitierweise mit prominenten Verlinkungen zu Originalquellen
- Politische Entscheidungsträger müssen KI-Anbieter für die Qualität ihrer Produkte zur Rechenschaft ziehen
Praktische Tipps für Nutzer
Bis die Technologie verlässlicher wird, empfehlen Experten folgende Vorsichtsmaßnahmen:
Der Präzisions-Check: Misstrauen Sie besonders präzisen Zahlen und Daten. Wenn eine KI eine Studie der „Universität München“ vom „März 2024“ mit exakt „73,4 Prozent“ Zustimmung zitiert, ist höchste Vorsicht geboten.
Der Quellentest: Fordern Sie Links zu den Originalquellen an. Wenn die KI keine funktionierenden URLs liefern kann, ist die Information wahrscheinlich erfunden.
Die Gegenfrage-Methode: Stellen Sie dieselbe Frage anders formuliert. Widersprüchliche Antworten zeigen, dass die KI rät statt weiß.
Der Realitäts-Check: Bei wichtigen Informationen sollten etablierte Medien wie tagesschau.de oder Zeit Online zur Verifizierung herangezogen werden.
Fazit: Medienkompetenz als Überlebensfähigkeit
„Selbst wenn künftig nur noch jede zehnte Antwort falsch wäre, bliebe das zu unzuverlässig“, gibt SRF-Digitalredakteur Tschirren zu bedenken. Solange die Systeme nach dem aktuellen Prinzip der Wahrscheinlichkeitsberechnung funktionieren, werden Fehler nie ganz verschwinden.
In einer Welt, in der KI-Assistenten zunehmend zur primären Informationsquelle werden, ist Medienkompetenz zur Überlebensfähigkeit geworden. Die goldene Regel: Je wichtiger die Information, desto wichtiger die Überprüfung. Wer sich seriös informieren will, kommt an professionellen Redaktionen, wo Menschen Quellen prüfen und Fakten einordnen, nicht vorbei.
Die EBU hat ein „Toolkit zur Genauigkeit bei KI-Assistenten“ entwickelt, das Nutzer aufklären und Unternehmen helfen soll, ihre KI-Modelle zu verbessern. Doch die Experten sind sich einig: Dies kann nur der Anfang sein. Der Wettlauf um die Deutungshoheit von KI ist längst entbrannt – mit der Gesellschaft als Versuchskaninchen.
Quellen: Europäische Rundfunkunion (EBU), ARD, ZDF, BBC, Schweizer Radio und Fernsehen (SRF), heise online, verschiedene Medienberichte
Bild: Markus Winkler @pixabay










