Ende des Journalismus? Warum ChatGPT für Publisher (noch) gefährlicher wird als Google

Home » Blog » ChatGPT & Journalismus

Lesedauer: 10 Minuten 

Der Traffic-Kollaps ist real – aber kommt nicht nur von Google

In den vergangenen zwölf Monaten hat sich das digitale Spielfeld für Publisher radikal verändert. Während sich die mediale Aufmerksamkeit fast ausschließlich auf Googles neue KI-Funktionen richtet – allen voran die „AI Overviews“, die klassische Suchergebnisse zunehmend verdrängen – rollt eine zweite Welle an: ChatGPT und vergleichbare KI-Plattformen verändern das Nutzerverhalten noch tiefergreifend.

Was früher eine klare Route hatte – Suche, Klick, Artikel – wird heute in vielen Fällen übersprungen. Wer ChatGPT nutzt, erhält direkt eine Antwort. Manchmal mit Quelle, manchmal ohne. Oft mit Verweis, selten mit Klick. Die Folge: Sichtbarkeit, ja – aber kein echter Websitebesuch mehr.

Google hat den Journalismus angekratzt. ChatGPT schneidet den Rest ab. Denn während Googles AI Overviews noch in das bestehende Web eingebettet sind, agieren Chatbots wie geschlossene Ökosysteme – sie referenzieren Inhalte, ohne sie zu liefern. Publisher bekommen bestenfalls einen Link. Doch der bringt wenig, wenn der Nutzer bereits alle benötigten Informationen hat.

Bereits Google hat eine Dynamik in Gang gesetzt, die Ben Thompson in seinem Stratechery‑Artikel „FiveThirtyEight and the End of Average“ ausführlich beschreibt: Im digitalen Zeitalter herrscht kein harmonisches Mittelfeld mehr. Stattdessen wirken Power‑Gesetze, bei denen die besten 1 % der Inhalte überproportional profitieren, während der breite Durchschnitt zunehmend unsichtbar wird. Plakativ gesagt: Wer nicht ganz oben spielt, wird gar nicht mehr wahrgenommen.

Generative KI verschärft dieses Phänomen massiv. Während Google bereits das Mittelfeld verdrängt hat, übernehmen nun Chatbots diesen Prozess: Sie kuratieren, synthetisieren und veredeln Inhalte so effizient, dass selbst hochwertige Artikel immer häufiger gar nicht mehr direkt angeklickt werden. Nutzer bekommen die Antwort ohne Zwischenstation – und der Link zum Publisher bleibt irrelevant. Wenn ohnehin alles Nötige geliefert wird, verliert sogar die Crème de la Crème der Inhalte an Einfluss – während der Rest komplett vom Radar verschwindet. Die Content‑Landschaft wird also nicht nur zu einer Winner‑takes‑all‑Welt, sondern zu einer, in der selbst Gewinner Verluste hinnehmen müssen, weil das Gesamtökosystem sie kaum noch benötigt.

Noch ist der Traffic-Verlust durch ChatGPT geringer als jener durch Google. Aber der Trend ist eindeutig: Immer mehr Nutzer beginnen ihre Recherche direkt in der KI – nicht mehr bei Google (+80% Wachstum im Vergleich zu 2024: 55 Milliarden vs. 30 Milliarden Visits). Und das verändert nicht nur die Quellenwahl, sondern langfristig auch die Ökonomie des Journalismus.

01

ChatGPT als Traffic-Quelle: Warum das Wachstum täuscht

In vielen Branchenberichten ist in den letzten Monaten von einem beeindruckenden Wachstum des Traffics durch ChatGPT die Rede. Tatsächlich zeigt eine Analyse von Chartbeat und Similarweb, dass die Verweise von ChatGPT auf Publisher-Websites zwischen Januar 2024 und Mai 2025 um über 1.200% gestiegen sind.

Was dabei jedoch oft untergeht: Das absolute Volumen bleibt weiterhin extrem gering. Selbst große Medienmarken verzeichnen im besten Fall niedrige sechsstellige Monatsbesuche, also einen Bruchteil dessen, was früher über Google oder Social Media kam.

Kernaussage: Das Wachstum ist real – aber nicht annähernd ausreichend, um die strukturellen Trafficverluste durch KI-gestützte Google-Suchergebnisse zu kompensieren. (In Box hervorheben.)

    Um den nachfolgenden Inhalt zu sehen, tragen Sie bitte Ihre Firmen-E-Mail-Adresse ein.

    02

    Wie ChatGPT Inhalte anzeigt – und warum das Klickpotenzial so gering ist

    Der grundlegende Unterschied zwischen Google und ChatGPT liegt in der Art der Darstellung von Inhalten:

    Bei einer klassischen Google-Suche sehen Nutzer mehrere Ergebnisse und klicken meist auf ein oder zwei Seiten, um tiefer einzusteigen. ChatGPT hingegen liefert eine vermutlich vollständige Antwort direkt im Interface – oft ohne, dass der Nutzer das Bedürfnis verspürt, weiter zu klicken.

    Wenn Quellen genannt werden (z. B. in eckigen Klammern mit Link), wirken sie wie Fußnoten – hilfreich für die Validierung, aber nicht klicktreibend. Im Gegenteil: Die Antwort ist oft so formuliert, dass der Nutzer das Gefühl hat, die Information bereits vollständig verstanden zu haben.

    Drei technische Gründe für die geringe Sichtbarkeit in ChatGPT

    1. Keine strukturierte Content-Auszeichnung möglich:
      Im Gegensatz zu Google (Rich Snippets, Schema.org-Markup) können Inhalte nicht gezielt für ChatGPT optimiert werden. Es gibt derzeit keinen offiziellen Standard, mit dem Publisher Einfluss auf die Darstellung oder Verlinkung nehmen könnten.
    2. Proprietäre Content-Auswahl durch das Sprachmodell:
      ChatGPT entscheidet eigenständig, welche Quellen zitiert oder ob überhaupt Links eingebunden werden. Dabei fließen Kriterien wie Autorität, Neutralität oder historische Relevanz ein – allerdings
    3. Unklare Attribution bei gemischtem Content:
      Antworten entstehen oft durch die Verknüpfung mehrerer Quellen. Dadurch wird keine einzelne Publikation dominant dargestellt. Im schlimmsten Fall: Information extrahiert, Quelle ausgelassen.

    Was die Datenlage wirklich zeigt: Referral-Traffic im Kontext

    Ein Blick auf die Zahlen hilft, die Dimension einzuordnen:

    • Laut Chartbeat generierte ChatGPT im Mai 2025 etwa 25 Millionen Visits auf über 250 Publisher-Websites weltweit. Das klingt beeindruckend – bis man es mit Google vergleicht:
      • Noch 2023 lieferte Google über 2,3 Milliarden Visits pro Monat an dieselben Seiten.
      • Heute sind es – durch „AI Overviews“ – weniger als 1,7 Milliarden (rund –26 %).

    Das bedeutet: ChatGPT macht weniger als 2% dessen aus, was Publisher einst über Google bekamen. Selbst ein weiteres Wachstum um Faktor 5 würde nicht ansatzweise ausreichen, um die entstandene Lücke zu schließen.

    Sichtbarkeit ≠ Reichweite

    Viele Publisher freuen sich, wenn ihre Inhalte in ChatGPT-Antworten auftauchen. Das kann ein gutes Signal für Autorität und Relevanz sein. Doch aus SEO- und Reichweitensicht ist das eine gefährliche Illusion:

    • Sichtbarkeit in ChatGPT bedeutet nicht automatisch Traffic
    • Referrals sind nicht steuerbar, nicht messbar und nicht monetarisierbar
    • Es entsteht ein strukturelles Ungleichgewicht: Die KI nutzt Inhalte – aber sie sendet kaum Nutzer zurück

    03

    ChatGPT vs. Google: Die doppelte KI-Bedrohung für den Journalismus

    Zwei Systeme, ein Effekt: Der Traffic versiegt

    Mit der Einführung von AI Overviews bei Google und dem Aufstieg von ChatGPT als Informationsquelle entsteht für Publisher ein beispielloses Szenario: Zwei dominante Systeme bieten Nutzern direkte Antworten – ohne dass ein Klick auf die Originalquelle notwendig ist.

    Während Google seine Rolle als Vermittler beibehält – zumindest oberflächlich –, agiert ChatGPT radikal anders: Es liefert kontextualisierte, sprachlich ausgefeilte Antworten, die nicht wie ein Suchergebnis, sondern wie ein Abschluss eines Rechercheprozesses wirken.

    Der gemeinsame Nenner beider Systeme: Sie verhindern den Klick. Die Nutzerreise endet vor der Zielseite.

    Systematische Unterschiede zwischen Google und ChatGPT

    Um die strategische Relevanz dieser Veränderung zu verstehen, ist ein präziser Vergleich notwendig:

    ChatGPT ist (noch) klein – aber strukturell gefährlicher

    Viele Publisher sehen ChatGPT bislang als „interessanten Zusatzkanal“, vielleicht sogar als künftigen Traffic-Lieferanten. Doch diese Sichtweise greift zu kurz – aus drei Gründen:

    1. Keine Suchintention, sondern Informationsabschluss:
      Nutzer gehen nicht zu ChatGPT, um einen Artikel zu finden, sondern um direkt eine Antwort zu bekommen. Das ist ein grundlegend anderes Verhalten als bei Google.
    2. Antwort statt Ergebnisliste:
      Die Konzeption von ChatGPT basiert darauf, Informationen zu synthetisieren – nicht zu verlinken. Selbst wenn Quellen angegeben werden, ist das semantisch keine Einladung zum Klicken, sondern eher ein Fußnotenverweis.
    3. Keine Plattformökonomie für Publisher:
      Anders als Google, das Seiten zumindest noch im Kontext der Suche darstellt, bietet ChatGPT keine kontrollierte Plattformstruktur. Es gibt keine Platzierungen, keine Analytics, keine bezahlten Sichtbarkeitsoptionen. Publisher haben keinen Hebel, um ihre Inhalte gezielt zu steuern oder zu monetarisieren.

    Die große Illusion: Attribution = Wertschöpfung?

    OpenAI und andere Anbieter betonen regelmäßig, dass Quellen „fair zitiert“ werden. Technisch ist das korrekt – viele Antworten enthalten Links. Doch aus Publisher-Sicht entsteht kein echter Gegenwert:

    • Keine Steuerbarkeit der Sichtbarkeit
    • Keine Performance-Daten zur Optimierung
    • Kein ökonomischer Rückfluss (etwa durch Werbung, Abos oder Leads)

    Selbst wenn eine Antwort einen Link enthält, ist dieser meist nicht prominent genug oder eingebettet in einen abgeschlossenen Antworttext – das heißt: Der kognitive Impuls zum Klicken fehlt.

    Ergebnis: Die Attribution erzeugt eine Schein-Transparenz – aber keine reale Reichweite.

    ChatGPT ist nicht nur eine neue Plattform – es ist ein neues Paradigma

    Google verändert, wie Inhalte gefunden werden.
    ChatGPT verändert, ob Inhalte überhaupt gefunden werden müssen.

    Der Übergang vom „Link-basierten Web“ zum „Antwort-basierten Interface“ ist keine evolutionäre Weiterentwicklung – sondern ein Paradigmenwechsel. Und dieser Wandel gefährdet nicht nur den Traffic, sondern die Grundlogik des Journalismus im Web.

    04

    Daten, Rankings & Realität: Wie stark beeinflusst ChatGPT den Traffic wirklich?

    Wachsende Aufmerksamkeit, geringe Relevanz

    Zahlreiche Branchendienste berichten seit Anfang 2025 über das wachsende Referral-Potenzial von ChatGPT – und das zu Recht: Im Mai 2025 verzeichneten mehr als 250 internationale Medienmarken erstmals über 25 Millionen Visits pro Monat durch Verweise aus ChatGPT-Antworten. Das klingt imposant – doch für die Einordnung ist Kontext entscheidend.

    Vergleichszahl: Im selben Monat lieferte Google – trotz Rückgang durch AI Overviews – noch immer 1,65 Milliarden organische Visits an Publisher weltweit.
    Fazit: ChatGPT stellt derzeit weniger als 2% des Publisher-Traffics sicher.

    Deutschland: Erste Anzeichen im Schatten des Google-Verlusts

    In Deutschland gibt es bislang nur fragmentarische, inoffizielle Daten zum Anteil von ChatGPT am Referral-Traffic von Medienmarken. Dennoch lassen sich auf Basis öffentlich zugänglicher Similarweb-Daten, Drittanbieter-Analysen (Chartbeat, Parse.ly) und internen Hochrechnungen Tendenzen ableiten:

    📊 Geschätzter ChatGPT-Traffic bei führenden deutschen Gesundheitsplattformen (Stand: Juni 2025)

    Beobachtung: Der AI-basierte Referral-Traffic wächst bei Gesundheitsseiten exponentiell. DocMorris und Shop Apotheke dominieren das Segment mit gemeinsam über 70.000 monatlichen Besuchen über ChatGPT. Der Trend verdeutlicht eine zunehmende Sichtbarkeit von Apothekenmarken in KI-generierten Antworten – auch deutlich stärker als klassische Gesundheitsportale wie netDoktor oder die Apotheken Umschau.

    Hersteller- und Marken-Websites: Noch geringere KI-Sichtbarkeit

    Auch im Marken- und Unternehmenskontext ist die ChatGPT-Sichtbarkeit bisher marginal. Selbst große pharmazeutische oder technologische Hersteller wie Bayer, Siemens oder Zalando profitieren nur in Ausnahmefällen:

    • Gründe:
      • Content ist oft nicht in journalistischer Form aufbereitet
      • Technische Inhalte werden durch KI selten als „Antwortquelle“ priorisiert
      • Produktinhalte haben kaum semantischen Mehrwert für KI-generierte Erklärungen

    Eine Analyse von Similarweb zeigt: Der Referral-Traffic durch ChatGPT liegt für die meisten Unternehmensseiten deutlich unter 0,1%.

    Globale Publisher: Nur eine Handvoll profitiert wirklich

    International gesehen profitieren nur wenige große Medienhäuser – meist jene, die:

    1. regelmäßig von OpenAI als „verlässlich“ gerankt werden,
    2. in Englisch publizieren,
    3. explizit in Partnerprogramme (z.B. über Bing, Brave oder Perplexity) eingebunden sind.

    Top Pharma-Websites in Deutschland: Geschätzter ChatGPT‑Traffic (Juni 2025)

    Sichtbarkeit ≠ Relevanter Traffic – ein genauer Blick lohnt sich

    Zwar tauchen viele bekannte Pharma-Websites regelmäßig in ChatGPT-Antworten auf, der daraus resultierende Traffic bleibt jedoch bislang überschaubar. Selbst marktführende Marken wie Bepanthen oder Iberogast erzielen derzeit nur einen niedrigen einstelligen Prozentanteil ihres Gesamt-Traffics über ChatGPT – bei absoluten Zahlen im unteren vierstelligen Bereich.

    Drei zentrale Erkenntnisse:

    1. Der ChatGPT-Traffic ist im Verhältnis zum Gesamtaufkommen nach wie vor gering.
      Selbst bei stark frequentierten Marken-Websites liegt der geschätzte Anteil unter 2 %.
    2. Das absolute Wachstum darf nicht über die begrenzte Relevanz hinwegtäuschen.
      Die Sichtbarkeit in KI-Antworten steigt zwar – der direkte Einfluss auf klassische Webmetriken wie Visits, Verweildauer oder Conversions ist jedoch aktuell noch begrenzt.
    3. Am stärksten profitieren Marken mit konkreten Produktnennungen oder hoher Informationsdichte.
      Websites wie Iberogast oder Aspirin erhalten besonders dann ChatGPT-Traffic, wenn ihre Produkte explizit als Lösung für bestimmte Beschwerden empfohlen werden – oder wenn sie als seriöse Quelle für gesundheitsbezogene Informationen bei informativen Suchanfragen genannt werden.

    05

    Warum viele Publisher ChatGPT unterschätzen – und was sie übersehen

    Der klassische Fehler: „ChatGPT ist (noch) kein Massenkanal“

    Viele Medienverantwortliche beruhigen sich mit der Argumentation, dass ChatGPT aktuell nur einen Bruchteil des Gesamt-Traffics ausmacht – typischerweise unter 1 %. Diese Beobachtung ist empirisch richtig, aber strategisch gefährlich.

    Denn: Disruption beginnt nie mit Masse, sondern mit Mechanik.

    Historischer Vergleich: Auch bei Google dauerte es fast ein Jahrzehnt, bis SEO als strategischer Hebel erkannt wurde. Doch wer früh investierte, dominierte das Spielfeld.

    Der Unterschied heute: ChatGPT skaliert exponentiell schneller. Neue Features wie Web-Search, persistent memory, Custom GPTs und Plugin-Ökosysteme verschieben das Nutzungsspektrum von reinem Prompt-Experimentieren zu tief verankerten Recherchegewohnheiten.

    Drei psychologische Trugschlüsse in Redaktionen und Geschäftsleitungen

    1. „Solange Google funktioniert, ist alles okay.“
      → Falsch. Google funktioniert – aber anders. Durch AI Overviews fließt Sichtbarkeit an maschinelle Zusammenfassungen, nicht mehr an Publisher-Inhalte. Der Nutzer klickt weniger, der Publisher verliert.
    2. „ChatGPT ist kein soziales Netzwerk – also auch kein Traffic-Kanal.“
      → Falsch. ChatGPT ist kein Kanal im klassischen Sinn, sondern ein semantischer Distributionsknoten. Inhalte werden nicht geteilt, sondern direkt rekombiniert – sichtbar, aber unkontrollierbar.
    3. „Attribution bedeutet Sichtbarkeit – und Sichtbarkeit bringt Vertrauen.“
      → Trügerisch. ChatGPT verweist auf Quellen, ja – aber so niedrig priorisiert, dass der Trust-Effekt beim Publisher kaum ankommt. Die Information bleibt, der Absender verblasst.

    Fehlende Analytics: Publisher fliegen blind

    Ein entscheidendes Problem: Es gibt keine verlässliche Messmethode für KI-basierten Referral-Traffic. OpenAI liefert (noch) keine API für Publisher, keine standardisierten Protokolle, keine Echtzeit-Metriken.

    Das führt zu zwei Konsequenzen:

    • Unsichtbarer Impact: Weder positive Erwähnungen noch entgangene Klicks sind messbar.
    • Keine Optimierung möglich: Wer nicht weiß, wo er auftaucht oder warum nicht, kann keine gezielten Anpassungen vornehmen.

    Der Blindflug betrifft nicht nur Journalisten, sondern auch SEO-Teams, Content-Marketer und Entscheider in Kommunikation & Strategie.

    Der strategische Irrtum: „Wir können uns der KI-Logik entziehen“

    Ein weiterer fundamentaler Irrtum besteht in der Annahme, man könne sich der Funktionsweise von Sprachmodellen entziehen – durch Paywalls, Noindex, robots.txt oder andere Schutzmaßnahmen.

    Doch das Gegenteil ist der Fall:

    • Sprachmodelle ziehen Informationen nicht nur aus HTML-Quellen, sondern zunehmend aus APIs, Datenbanken, vortrainierten Sätzen und sogar aus Plugins.
    • Selbst wenn ein Artikel technisch „geschützt“ ist, kann er über Drittnennungen, Aggregatoren oder Zitate rekonstruiert und verarbeitet werden.
    • Der strukturelle Einfluss von Publishern auf das Antwortverhalten von KI ist verschwindend gering.

    Wer also glaubt, durch Intransparenz seine Inhalte schützen zu können, opfert Reichweite ohne Gewinn an Kontrolle.

    ChatGPT ist keine klassische Plattform – sondern eine neue Infrastruktur

    Die zentrale Fehleinschätzung liegt darin, ChatGPT wie einen weiteren Kanal zu betrachten – neben Social Media, Google oder Newsaggregatoren.

    Aber: ChatGPT ist keine Plattform. Es ist ein Interface. Eine neue Infrastruktur der Informationsverarbeitung.

    • Kein Feed.
    • Kein klassisches Ranking.
    • Kein organisches Wachstum durch Algorithmustricks.
    • Nur Inhalt, Kontext und synthetische Auswahl durch das Sprachmodell.

    Publisher, die sich dieser Realität nicht stellen, verlieren nicht nur Sichtbarkeit – sie verlieren Relevanz in der Wahrnehmung zukünftiger Zielgruppen.

    Strategien für Publisher & Marken: Sichtbarkeit und Wirkung in der Ära der KI sichern

    Fundamentaler Paradigmenwechsel: Vom Klick zur Kontextpräsenz

    In der klassischen Weblogik war Sichtbarkeit an Klicks gebunden. Wer in Google rankte, erhielt Traffic. Wer auf Facebook geliked wurde, erreichte Reichweite. Doch in der KI-basierten Contentwelt entsteht ein neues Prinzip:

    Nicht der Klick zählt – sondern, ob du im Kontext der Antwort vorkommst.

    Die Frage ist also nicht mehr:
    „Wie viele Besucher generiere ich?“
    Sondern:
    „Wie häufig fließe ich in die Antworten ein, die andere lesen?“

    Damit wird Content nicht länger Distributionsobjekt, sondern Baustein in einem rekombinierten Informationsmodell. Die Konsequenz: Der Content selbst muss maschinenfähig, kontextklar und strukturintelligent werden.

    Handlungsebene 1: Inhaltlich-strukturelle Optimierung (Content Architecture)

    a) KI-lesbare Struktur schaffen

    • Verwendung klarer H1–H3-Hierarchien
    • Absätze in semantischen Einheiten (Problem, Kontext, Lösung)
    • Fragen und Antworten als Sub-Module (FAQ-Logik)
    • Tabellen, Aufzählungen, Bulletpoints zur Aufbereitung für Modelle

    b) Präzise Sprache mit semantischer Tiefe

    • Vermeidung redundanter Füllwörter
    • Fokus auf Begriffe mit hoher kontextueller Relevanz („Named Entities“)
    • Einsatz von Synonymen und Varianten, um Sprachmodelle zu „trainieren“


    c) Faktenbasierte Inhalte mit Quellenverweis

    • KI bevorzugt belegbare Aussagen mit klaren Bezügen
    • Ideal: Kombination aus Zahlen, Studien, Zitaten und narrativen Beispielen
    • Bonus: Verlinkung auf Primärquellen (z. B. PubMed, Statista, amtliche Daten)

    Ziel: Inhalte so aufbauen, dass ChatGPT & Co. sie nicht nur erfassen, sondern priorisieren und reproduzieren können – idealerweise mit Attribution.

    Handlungsebene 2: Distributionsmodelle neu denken

    a) Eigene Kanäle stärken

    • Aufbau von Newslettern mit exklusivem Content (z. B. Deep-Dives, Analysen)
    • Ausbau von Closed Communities (z. B. LinkedIn Groups, Premiumbereiche)
    • Entwicklung eigener Microportale (Themenhubs, Dossiers, Use-Case-Sites)


    b) API-first denken

    • Inhalte nicht nur als Website-Artikel, sondern auch als strukturiertes Format bereitstellen (z. B. via JSON-LD, OpenGraph, RSS, GraphQL)
    • Ziel: Maschinenlesbarkeit und Integration in externe KI-Systeme (z. B. Plugins, Chatbots, Corporate GPTs)

    c) Prompt-Integration testen

    • Erstellung eigener GPT-Instanzen oder Custom Tools auf Basis eigener Inhalte
    • Kooperationen mit Plattformen (z. B. über Bing Content Partnerships oder Perplexity-Syndikation)
    • Einsatz von Prompt Libraries für interne Teams

    Handlungsebene 3: Monitoring & Attribution neu definieren

    a) Neues Tracking-Framework entwickeln

    Klassische Metriken (Sessions, Bounce Rate) reichen nicht mehr

    Ergänzung durch:

    • Keyword-Kontrolllisten (erscheinen wir in KI-Antworten?)
    • Snippet-Screenings (werden wir korrekt zitiert?)
    • Mentions ohne Klicks (z. B. über OpenAI memory)

    b) Experimentelle Attribution

    • Aufbau eines „Attribution Dashboards“ mit Hypothesen-basiertem Traffic-Mapping
    • Ergänzung durch Nutzerumfragen: „Wie hast du von uns erfahren?“ (offen für KI)

    c) Tracking von GPT-Plattformzugriffen

    • Implementierung von Logfile-Monitoring und Reverse-DNS-Analyse, um GPT-Access zu identifizieren
    • Nutzung von Services wie GPTBot-Tracking und serverseitige Log-Analyse

     

    Handlungsebene 4: Monetarisierung & Positionierung neu aufstellen

    a) KI-resistente Geschäftsmodelle forcieren

    Paywalls werden nicht reichen – erforderlich sind Inhalte, die nicht ohne Kontext extrahierbar sind. Beispiele hierfür sind:

    • Interaktive Tools (z. B. Risiko-Rechner, Dosierungsassistenten)
    • Exklusive Bewertungen, Benchmarks, Experteneinschätzungen
    • Inhalte mit starker visueller oder emotionaler Einbettung

    b) Reputation für KI stärken

    Aufbau einer redaktionellen „AI Readiness“:

    • Technische Redaktion
    • Prompt Engineering
    • Semantisches Publishing

    Ziel: Von KI bevorzugt zitiert werden – weil man als „vertrauenswürdiger Knotenpunkt“ gilt

    c) Corporate GPTs als Distributionskanal

    • Entwicklung eigener GPT-basierter Chatbots für Kund:innen, Ärzt:innen, Medien
    • Integration interner Wissensdatenbanken in offene Interfaces (z. B. HealthGPT, PharmaGPT)

    Wer KI denkt wie SEO, verliert. Wer KI denkt wie Infrastruktur, gewinnt.

    Die neue Informationslogik basiert nicht auf Sichtbarkeit, sondern auf Verfügbarkeit im Antwortprozess. Nur wer maschinenkompatibel, semantisch präzise und strukturell intelligent publiziert, wird in Zukunft Teil der Informationsströme bleiben – egal ob auf ChatGPT, Perplexity, Google Gemini oder Bing Copilot.

    06

    ChatGPT und das stille Ende des Journalismus – ein Weckruf für Publisher & Marken

    Das KI-Dilemma: Sichtbar, aber wirkungslos

    Noch nie war es so leicht, in digitalen Antworten aufzutauchen – und noch nie war die Sichtbarkeit so wirkungslos. ChatGPT nennt Quellen, fasst Inhalte zusammen, liefert Wissen in Sekunden – aber der Nutzer bleibt, wo er ist: im Interface der KI.

    Die klassische Erwartung, dass Sichtbarkeit zu Klicks, Klicks zu Nutzern und Nutzer zu Umsatz führen, bricht hier systematisch zusammen. Wer in der KI-Welt keine Rolle spielt, verliert Reichweite. Wer darin vorkommt, aber nicht verlinkt oder geklickt wird, verliert dennoch den ökonomischen Hebel.

    Die Wahrheit ist unbequem: ChatGPT nutzt Inhalte – aber es ersetzt ihren Ursprung.

    Warum Publisher strukturell im Nachteil sind

    Die Medienbranche steht vor einem Systemwechsel, auf den sie nicht vorbereitet ist:

    • Es gibt keine einheitlichen Standards für KI-Attribution
    • Keine regulatorische Kontrolle über Datenverwendung
    • Keine belastbaren KPIs für KI-Sichtbarkeit
    • Keine etablierte Monetarisierungslogik im Kontext generativer Antworten

     

    Stattdessen agieren Publisher in einem Umfeld, in dem sie zwar gebraucht, aber nicht belohnt werden. Ihre Inhalte sind das Fundament vieler Antworten – aber der Wert fließt in andere Systeme.

    Die Illusion des Zwischenkanals: ChatGPT ist keine Brücke – es ist ein Ziel

    Viele Medienstrategen behandeln ChatGPT derzeit wie einen „Zwischenkanal“ – ähnlich wie früher Facebook Instant Articles oder Google News. Doch der Unterschied ist fundamental:

    • ChatGPT ist nicht Verteiler – es ist Konsumraum.
    • Nicht: Dort lesen sie von uns – sondern: Dort endet ihr Informationsbedarf.

     

    Diese neue Realität erfordert ein radikales Umdenken in Redaktionsprozessen, Content Design, Business Development und Reporting.

    Der Weg nach vorn: Vier Lehren für Entscheider

    1. KI verstehen heißt, Distributionsmacht neu bewerten
      Wer nicht im „Promptflow“ vorkommt, existiert nicht. Sichtbarkeit ist nicht mehr redaktionell, sondern rechnerisch.
    2. Inhalte neu denken: für Menschen UND Maschinen
      Nur wer verständlich, kontextstark und strukturiert publiziert, wird in der KI überhaupt zitiert – und vielleicht geklickt.
    3. Technologische Unabhängigkeit schaffen
      Abhängigkeit von Google war problematisch – die Abhängigkeit von KI-Systemen ohne Feedbackschleifen ist fatal. Eigene APIs, GPTs, Wissensräume schaffen Souveränität.
    4. Jetzt handeln – nicht in der nächsten Budgetrunde
      Jede Verzögerung erhöht den Abstand zur Spitze. Wer erst 2026 mit KI-Strategien beginnt, wird auf Jahre unsichtbar sein.

     

    Der Journalismus stirbt nicht an der KI – aber am Zögern

    ChatGPT, Google Gemini und ihre Nachfolger werden den Informationsmarkt nicht zerstören. Aber sie werden ihn fundamental neu ordnen. Und in dieser Neuordnung wird nicht Platz für jeden sein.

    Die Herausforderung ist nicht technologisch – sie ist strategisch.
    Wer KI nicht aktiv gestaltet, wird von ihr geformt.
    Und wer in Antworten nicht vorkommt, wird bald keine Fragen mehr stellen dürfen.

    Text – Autor/in:

    Marc Sommerkamp
    SEO Manager

    Veröffentlicht am:
    21.08.2025

    Shares
    Julia-Hahn-1

    Sie möchten mehr Informationen zu diesem Thema?

    Dann nehmen Sie direkt Kontakt zu unserer Expertin auf: julia.hahn@drkaske.de

      Sie haben Fragen? Wir beraten Sie gerne.

      Fabian-Kaske-2

      Fabian Kaske

      Managing Director

      Hi,

      ich bin Fabian und Managing Director von Dr. Kaske und in allen relevanten Projekten mit Herz und Seele involviert. Neben der Unternehmensführung promoviere ich extern an der Universität Augsburg zum Thema Online-Marketing-Kommunikation. Vor dem Einstieg in die väterliche Agentur sammelte ich Erfahrung in der Unternehmensberatung Oliver Wyman sowie bei Procter & Gamble. Davor absolvierte ich ein Managementstudium in Oestrich-Winkel (EBS), Singapur (NUS), Paris (ESCP) und Hong Kong (CUHK). Somit schuf ich mir die Voraussetzungen Experte in meinem Fachgebiet zu sein und gehe als gutes Beispiel für die Mitarbeiter voran.

      Funfact über Fabian: Als Kind hatte ich langes und strohblondes Haar – einige Frauen sind sicher neidisch gewesen. 

      So können Sie Fabian erreichen: