Stellen Sie sich einen Morgen im Jahr 2028 vor. Ihr Nachrichtenportal liefert Börsenkurse, Quartalszahlen, Sportergebnisse und Wetterberichte – alles generiert von Algorithmen, die Pressemitteilungen, Datenbanken und Archive in Sekundenbruchteilen durchforsten. Die Routinenachricht ist perfektioniert, fehlerfrei formuliert, in zwölf Sprachen verfügbar. Dann geschieht etwas Unerwartetes: Ein mittelständisches Unternehmen verschleiert systematisch Bilanzzahlen, ein Ministerium gibt intern Anweisungen, die der offiziellen Kommunikation widersprechen, ein Pharmaunternehmen unterdrückt Studiendaten. Niemand berichtet darüber. Nicht weil die Algorithmen versagen – sondern weil das, was sie finden könnten, schlicht nicht existiert. Noch nicht.

Dieses Szenario ist keine Dystopie, sondern die logische Konsequenz einer Technologie, deren Stärken und Grenzen in der öffentlichen Debatte systematisch verwechselt werden. Retrieval-Augmented Generation – kurz RAG – ist das derzeit leistungsfähigste Verfahren, um große Sprachmodelle mit aktuellem, spezifischem Wissen zu verbinden. Doch gerade weil RAG so gut darin ist, Bestehendes zusammenzufügen, verdeckt sein Erfolg eine fundamentale Grenze: den Creation Gap.

Was Retrieval-Augmented Generation wirklich kann

Um den Creation Gap zu verstehen, muss man zunächst begreifen, was RAG tatsächlich leistet. Das Verfahren, erstmals 2020 von Forschern bei Meta AI formalisiert, kombiniert zwei Fähigkeiten: das gezielte Auffinden relevanter Informationen in externen Datenquellen und die sprachliche Verarbeitung dieser Informationen durch ein generatives Sprachmodell.

Die RAG-Pipeline in drei Schritten

1. Retrieval (Abruf): Eine Suchanfrage wird in einen mathematischen Vektor umgewandelt und gegen eine Datenbank abgeglichen. Das System identifiziert die relevantesten Textpassagen – ähnlich einer hochspezialisierten Suchmaschine, die nicht nach Stichwörtern, sondern nach semantischer Nähe filtert.

2. Augmentation (Anreicherung): Die gefundenen Passagen werden zusammen mit der ursprünglichen Frage als Kontext an das Sprachmodell übergeben. Das Modell erhält damit Zugriff auf Informationen, die über sein Trainingswissen hinausgehen.

3. Generation (Erzeugung): Das Sprachmodell formuliert eine Antwort, die auf den abgerufenen Informationen basiert. Es synthetisiert, verdichtet und kontextualisiert – aber es erfindet im Idealfall nichts hinzu.

Die Stärken dieses Ansatzes sind beachtlich. RAG-Systeme können Informationen über Sprach- und Formatgrenzen hinweg zusammenführen. Sie erkennen Muster in Datenmengen, die kein menschlicher Analyst in vertretbarer Zeit durcharbeiten könnte. Sie arbeiten rund um die Uhr, ermüden nicht und vergessen nichts, was einmal indexiert wurde. Für die Nachrichtenproduktion bedeutet das: Routineberichte über Quartalsberichte, Sportresultate, Börsenbewegungen oder Behördenstatistiken lassen sich in einer Qualität und Geschwindigkeit produzieren, die menschliche Redaktionen nicht erreichen können.

Dabei ist RAG nur ein Baustein in einem zunehmend komplexeren Ökosystem. Moderne KI-Agenten kombinieren RAG mit eigenständiger Werkzeugnutzung, Webrecherche und autonomer Hypothesenbildung. Sogenannte Agentic-AI-Systeme können Datenbanken abfragen, Anomalien in Dokumenten erkennen und eigenständig Recherchepfade verfolgen – Fähigkeiten, die weit über das reine Abrufen von Texten hinausgehen. Die Frage, ob KI originär Neues entdecken kann, muss daher differenzierter gestellt werden, als es der Blick auf RAG allein nahelegt.

Und doch stößt auch die fortgeschrittenste KI-Architektur an eine Grenze, die nicht technischer, sondern epistemischer Natur ist. Selbst autonome Agenten operieren innerhalb formalisierter Regeln und digitalisierter Datenräume. Sie können eine Anomalie in einer Bilanz flaggen – aber sie können nicht den Anruf machen, der einen Insider dazu bringt, die Wahrheit hinter der Anomalie zu erzählen. RAG wie Agentic AI operieren innerhalb des Horizonts dessen, was bereits digital erfasst, strukturiert und abrufbar ist. Sie sind Systeme der Rekombination und der Musterkennung – nicht der sozialen Interaktion, die investigative Arbeit erst ermöglicht.

Der blinde Fleck: Was nicht in der Datenbank steht

Der Creation Gap beschreibt die architekturbedingte Lücke zwischen der Rekombination bestehender Informationen und der Entstehung originärer Erkenntnis. Es handelt sich nicht um einen Mangel, der durch bessere Modelle, größere Datenbanken oder schnellere Prozessoren behoben werden könnte. Er ist dem Verfahren selbst eingeschrieben.

Der Unterschied lässt sich an einem einfachen Begriffspaar verdeutlichen: Nachrichten berichten und Nachrichten entdecken sind zwei fundamental verschiedene Tätigkeiten. Berichten bedeutet, bekannte Sachverhalte sprachlich aufzubereiten – eine Pressemitteilung zusammenzufassen, einen Geschäftsbericht zu analysieren, eine Rede einzuordnen. RAG kann das hervorragend. Entdecken hingegen bedeutet, einen Sachverhalt erstmals sichtbar zu machen – durch Recherche, durch den Aufbau von Vertrauensbeziehungen zu Quellen, durch die hartnäckige Nachfrage, die einen Widerspruch aufdeckt, den bis dahin niemand formuliert hat.

RAG kann nur finden, was bereits existiert. Die entscheidenden Nachrichten aber sind jene, die erst durch den Akt des Fragens entstehen.

Ein Algorithmus, der auf eine Wissensbasis zugreift, kann feststellen, dass ein Unternehmen hohe Gewinne meldet. Er kann historische Vergleiche ziehen, Analystenmeinungen aggregieren und Branchentrends identifizieren. Was er nicht kann: den Verdacht entwickeln, dass diese Gewinne fingiert sein könnten. Denn dieser Verdacht setzt eine Erkenntnis voraus, die in keiner Datenbank steht – sie muss erst erzeugt werden, durch kritisches Denken, durch Erfahrung, durch die Fähigkeit, das Nichtgesagte zu hören.

Das Gedankenexperiment: Eine Welt ohne Journalisten

Um die Tragweite des Creation Gap zu ermessen, lohnt ein Gedankenexperiment. Was geschähe, wenn Redaktionen vollständig durch RAG-Systeme ersetzt würden?

Pressekonferenzen ohne kritische Presse wären reine Verlautbarungsveranstaltungen. Jede Information, die ein Unternehmen, eine Behörde oder eine Regierung freigibt, würde ungeprüft in den Informationskreislauf einfließen. Die Asymmetrie zwischen Sender und Empfänger, die der Journalismus durch investigative Recherche zumindest teilweise korrigiert, wäre aufgehoben.

Das Whistleblower-Problem verschärft diese Überlegung. Menschen, die Missstände aufdecken, brauchen einen Ansprechpartner, dem sie vertrauen. Sie brauchen Quellenschutz, journalistische Sorgfalt und die Zusicherung, dass ihre Informationen verantwortungsvoll eingeordnet werden. Ein Algorithmus bietet nichts davon. Kein RAG-System hat eine Telefonnummer, die ein besorgter Mitarbeiter nach Feierabend anrufen kann. Kein Sprachmodell kann Quellenschutz gewähren oder die Glaubwürdigkeit einer Information durch Gegenrecherche absichern.

Das Wirecard-Szenario

Der Fall Wirecard illustriert diese Problematik mit aller Schärfe – und zugleich ihre Nuancen. Tatsächlich gab es bereits ab 2008 vereinzelte kritische Berichte, ab 2016 veröffentlichten Short-Seller wie Zatarra Research detaillierte Analysen, die auf Unstimmigkeiten in der Bilanzstruktur hinwiesen. Ein leistungsfähiges Anomalie-Erkennungssystem hätte diese Diskrepanzen möglicherweise ebenfalls flaggen können. Die Warnsignale waren in den Daten – wenn man wusste, wonach man suchen musste.

Doch Erkennung ist nicht Enthüllung. Es brauchte Journalisten der Financial Times, namentlich Dan McCrum und sein Team, die über Jahre hinweg diesen Hinweisen nachgingen, Quellen in Asien aufbauten, Dokumente vor Ort verifizierten und sich gegen massive juristische Gegenwehr behaupteten – Klagen, Einschüchterungen, BaFin-Strafanzeigen gegen die Journalisten statt gegen das Unternehmen. Die Erkenntnis, dass 1,9 Milliarden Euro auf Treuhandkonten nicht existierten, ließ sich nicht aus einer Datenbank extrahieren. Sie musste durch menschliche Recherche, unter persönlichem Risiko, gegen institutionellen Widerstand erzeugt werden. Kein Algorithmus hält einem solchen Druck stand.

Informationsentropie und Model Collapse

Doch die Problematik reicht über den Einzelfall hinaus. In der Informatik beschreibt der Begriff der Informationsentropie das Maß an Unvorhersagbarkeit in einem System. Je homogener die verfügbaren Informationen, desto geringer die Entropie – und desto weniger Neues kann aus ihnen gewonnen werden.

Wenn RAG-Systeme zunehmend Inhalte produzieren, die wiederum als Trainings- und Retrievaldaten für andere RAG-Systeme dienen, entsteht ein Rückkopplungseffekt. Die KI-Forschung spricht von Model Collapse: ein gradueller Verlust an Vielfalt und Differenzierung, der entsteht, wenn generative Systeme überwiegend auf maschinell erzeugten Daten trainiert werden. Die Informationslandschaft wird nicht falsch im engeren Sinne – sie wird gleichförmig. Und Gleichförmigkeit ist das Gegenteil dessen, was eine offene Gesellschaft an Informationsvielfalt braucht.

Journalismus als Erkenntnisprozess

Die Frage, wie das Neue in die Welt kommt, ist im Kern eine erkenntnistheoretische. Sie berührt die philosophische Grundfrage, ob Wissen ausschließlich durch Rekombination bestehender Informationen entsteht oder ob es Prozesse gibt, die genuinen Erkenntnisgewinn jenseits des Bekannten ermöglichen.

Hannah Arendt prägte den Begriff des „Denkens ohne Geländer" – die Fähigkeit, ohne vorgefertigte Kategorien zu urteilen, sich dem Unbekannten auszusetzen und Sinn zu stiften, wo noch keiner ist. Künstliche Intelligenz denkt, wenn man den Begriff überhaupt verwenden möchte, per Definition mit Geländer. Ihr Geländer sind die Trainingsdaten, die Retrievaldatenbanken, die statistischen Muster, die sie gelernt hat. Innerhalb dieses Geländers bewegt sie sich mit beeindruckender Sicherheit. Jenseits davon herrscht für sie – buchstäblich – das Nichts.

Denken ohne Geländer bedeutet, Urteile zu fällen, wo keine Kategorien vorliegen. Genau das unterscheidet investigativen Journalismus von algorithmischer Informationsverarbeitung.

Die vierte Gewalt – die Kontrollfunktion der Presse gegenüber Staat und Wirtschaft – beruht auf genau dieser Fähigkeit. Gewiss: In der Praxis ist sie eher die Ausnahme als die Regel. Viele Redaktionen reproduzieren Agenturmeldungen, folgen Routinen, arbeiten unter Zeit- und Kostendruck weit entfernt von jeder philosophischen Ambition. Aber die Möglichkeit, dass ein Journalist sich gegen das herrschende Narrativ stellt, eine unbequeme Frage stellt, deren Antwort noch niemand kennt, einem Verdacht nachgeht, ohne zu wissen, ob er sich erhärten wird – diese Möglichkeit ist für eine offene Gesellschaft konstitutiv.

Ebenso wäre es zu eng, den professionellen Journalismus als einzige Quelle des Neuen zu betrachten. Wissenschaftler, Aktivisten, OSINT-Spezialisten wie Bellingcat und Whistleblower-Plattformen produzieren originäre Erkenntnisse, die den öffentlichen Diskurs verändern. Doch sie alle operieren innerhalb von Strukturen – Peer Review, rechtlicher Schutz, redaktionelle Prüfung –, die Qualität sichern. Die Frage ist nicht, ob ausschließlich Journalisten Neues entdecken, sondern ob es professionelle Strukturen gibt, die Entdeckungen verifizieren, einordnen und verantwortungsvoll veröffentlichen.

Ein RAG-System kann eine Bilanzanalyse durchführen, die in ihrer technischen Präzision jeden menschlichen Analysten übertrifft. Aber es kann nicht den Impuls entwickeln, eine Bilanz zu hinterfragen, die auf den ersten Blick korrekt erscheint. Diese Asymmetrie ist nach dem heutigen Stand der Technik fundamental.

Das Werkzeug, nicht der Ersatz

Die bisherige Analyse könnte den Eindruck erwecken, RAG sei eine Bedrohung für den Journalismus. Das Gegenteil ist der Fall – wenn man es richtig einordnet. Die eigentliche Gefahr liegt nicht in der Technologie, sondern in ihrer Verwechslung mit dem, was sie nicht ist.

Das vielleicht eindrücklichste Beispiel für das Zusammenspiel von Mensch und Maschine liefern die Panama Papers. Als die Süddeutsche Zeitung 2016 einen Datensatz von 11,5 Millionen Dokumenten erhielt, war klar: Kein Team von Journalisten hätte diese Menge manuell auswerten können. Erst der Einsatz von Software zur Texterkennung, Mustererkennung und Dokumentenklassifizierung machte die Auswertung möglich. Über 400 Journalisten in 80 Ländern arbeiteten zusammen, unterstützt von algorithmischen Werkzeugen.

Aber der entscheidende Punkt wird gerne übersehen: Der Impuls war menschlich. Eine anonyme Quelle wandte sich an einen Journalisten – nicht an einen Algorithmus. Die Entscheidung, den Datensatz zu verifizieren, das Risiko einer Veröffentlichung abzuwägen und die Ergebnisse in einen gesellschaftlichen Kontext einzuordnen, lag bei Menschen. Die Technologie war Werkzeug, nicht Urheber.

RAG-Systeme könnten den Journalismus in ähnlicher Weise stärken: durch die Automatisierung von Routineaufgaben, die Redaktionen Zeit für investigative Arbeit verschafft. Durch die Analyse großer Datenmengen, die neue Recherchespuren eröffnet. Durch die Überwachung von Datenströmen, die auf Anomalien hinweist, denen ein Journalist dann nachgehen kann.

Das Produktivitätsparadox

Doch hier zeigt sich ein ökonomisches Dilemma, das die Branche in den kommenden Jahren beschäftigen wird. KI steigert die Produktivität der Nachrichtenproduktion erheblich. Gleichzeitig senkt die Verfügbarkeit automatisierter Inhalte die Zahlungsbereitschaft für genau jene Routineberichte, die bisher einen erheblichen Teil der Medienfinanzierung ausmachten. Der Agenturjournalismus, lokale Nachrichtenportale, spezialisierte Fachmedien – sie alle stehen vor der Frage, wie sich Qualitätsjournalismus finanzieren lässt, wenn die Basisarbeit maschinell erledigt wird.

Die Effizienzgewinne durch RAG könnten also paradoxerweise jene Strukturen untergraben, die den investigativen Journalismus erst ermöglichen. Eine Redaktion, die ihre Routineberichterstattung automatisiert, spart Kosten. Aber wenn gleichzeitig die Einnahmen aus eben dieser Berichterstattung wegbrechen, bleibt weniger Spielraum für aufwendige Recherchen – nicht mehr.

Handlungsempfehlungen

Der Creation Gap lässt sich nicht schließen, aber er lässt sich gestalten. Die folgenden Empfehlungen richten sich an Medienhäuser, Regulierungsbehörden, Ausbildungsinstitutionen und die Technologiebranche.

1. KI als Werkzeug einsetzen, nicht als Ersatz

Medienhäuser sollten RAG-Systeme gezielt für Routineaufgaben einsetzen – Datenanalyse, Zusammenfassungen, Monitoring – und die freigewordenen Ressourcen konsequent in investigative Recherche und Qualitätsjournalismus reinvestieren. Die Automatisierung der Basisarbeit ist kein Sparprogramm, sondern eine Chance zur qualitativen Aufwertung.

2. Kennzeichnungspflicht konsequent umsetzen

Der EU AI Act verpflichtet ab 2026 zur Kennzeichnung KI-generierter Inhalte. Medienhäuser sollten über die gesetzlichen Mindestanforderungen hinausgehen und Transparenz zum Markenzeichen machen. Leser verdienen Klarheit darüber, ob ein Artikel von einem Algorithmus zusammengestellt oder von einem Journalisten recherchiert wurde.

3. Neue Berufsbilder aktiv fördern

An der Schnittstelle von Journalismus und Technologie entstehen neue Rollen: der AI-Editor, der maschinell erzeugte Inhalte kuratiert und verifiziert. Der Verifikations-Spezialist, der algorithmisch generierte Informationen auf Richtigkeit prüft. Der Source-Relationship-Manager, der menschliche Quellenbeziehungen pflegt. Ausbildungsinstitutionen müssen diese Berufsbilder curricular abbilden.

4. Zahlungsbereitschaft für Qualitätsjournalismus stärken

Wenn die Routinenachricht zur Commodity wird, steigt der Wert des Originären. Gesellschaft, Politik und Medienbranche müssen gemeinsam Modelle entwickeln, die investigativen Journalismus nachhaltig finanzieren – ob durch Stiftungen, Mitgliedschaftsmodelle oder öffentliche Förderung. Wer nicht bereit ist, für Journalismus zu zahlen, wird ihn verlieren.

5. RAG-Systeme mit journalistischen Standards entwickeln

Technologieunternehmen, die RAG-Systeme für den Nachrichtenbereich anbieten, sollten journalistische Grundprinzipien in ihre Architektur einbauen: Quellenattribution, Transparenz über Datenlücken, automatische Kennzeichnung von Unsicherheiten. Ein RAG-System, das seine eigenen Grenzen kommuniziert, ist wertvoller als eines, das Allwissenheit simuliert.

Ausblick 2030: Wie Nachrichten in Zukunft entstehen

Die wahrscheinlichste Entwicklung ist keine Verdrängung, sondern eine Stratifizierung. Drei Schichten der Nachrichtenproduktion werden sich herausbilden, jede mit eigener Logik und eigener Wertschöpfung.

Die untere Schicht – Routineberichte, Datenauswertungen, standardisierte Updates – wird weitgehend automatisiert. RAG-Systeme werden Quartalszahlen in Sekunden aufbereiten, Sportresultate in Echtzeit verarbeiten und behördliche Bekanntmachungen in lesbarer Form bereitstellen. Diese Schicht wird effizient, zuverlässig und preiswert sein.

Die mittlere Schicht – Analyse, Einordnung, Kommentar – wird augmentiert. Journalisten nutzen KI-Werkzeuge, um schneller zu recherchieren, größere Datenmengen zu durchdringen und komplexe Zusammenhänge zu visualisieren. Die Maschine liefert das Material, der Mensch das Urteil.

Die obere Schicht – investigative Recherche, Enthüllungsjournalismus, die Entdeckung des Unbekannten – bleibt originär menschlich. Hier entsteht der gesellschaftliche Mehrwert, der eine informierte Demokratie von einer gelenkten Öffentlichkeit unterscheidet.

Neue Berufsbilder werden diese Schichten verbinden. Der AI-Editor kuratiert maschinell erzeugte Inhalte und prüft sie auf Konsistenz und Relevanz. Der Prompt-Journalist formuliert Anfragen an RAG-Systeme so, dass sie investigative Spuren eröffnen statt Bekanntes zu reproduzieren. Der Verifikations-Spezialist prüft algorithmisch generierte Informationen gegen unabhängige Quellen. Und der Source-Relationship-Manager pflegt jene menschlichen Beziehungen, die kein Algorithmus ersetzen kann.

Vertrauen wird in dieser Landschaft zur entscheidenden Währung. Medienmarken, die nachweislich in Qualität investieren, werden wertvoller – gerade weil das Umfeld lauter und unübersichtlicher wird. Die Leser von 2030 werden nicht weniger Information zur Verfügung haben, sondern mehr. Ihr Problem wird nicht der Mangel sein, sondern die Unterscheidung.

Die entscheidende Frage ist daher nicht: Wie gut kann KI Nachrichten schreiben? Sondern: Wie stellen wir sicher, dass es weiterhin Menschen gibt, die Nachrichten entdecken?

newsletter
the agentic banker

Lesen Sie weiter – alle 14 Tage in Ihrem Postfach.

Kapitalmarkt-Insights, Regulierungs-Updates und AI-Trends. Kompakt, fundiert, kostenlos.

DSGVO-konform. Jederzeit abbestellbar.

← Zurück zur Übersicht