KI-generierte Texte in der Gesundheits­kommunikation

Herausforde­rungen und aktuelle Grenzen der Nutzung

Home » Blog » KI-generierte Texte in der Gesundheitskommunikation

Lesedauer: 11 Minuten

Gutes Texten ist eine Kunst, die nur den Wenigsten wirklich leichtfällt. Mit dem Aufkommen von KI-Technologien wie ChatGPT, die gerne als digitale Schreibassistenten genutzt werden, keimte bei vielen die Hoffnung auf, mühsame Textarbeiten in unterschiedlichsten professionellen und privaten Kontexten ganz einfach an die KI auslagern zu können. Auch in der Pharmabranche wird die Rolle der KI bei der Erstellung von Produkttexten und anderen Kommunikationsmaterialien, wie beispielsweise zielgruppenspezifischen PR-Texten intensiv diskutiert und teilweise schon erprobt. Vertreter berichten von beeindruckenden Effizienz-Steigerungen – und doch kann die aktuelle KI den menschlichen Autor nicht vollkommen ersetzen. Gründe dafür liegen in den verschiedenen Problemfeldern, die bei KI-gesteuerten Erstellung von Texten immer wieder Thema sind. Eine kleine Sammlung dieser Herausforderung finden Sie in diesem Artikel, gefolgt von einer Hands-on-Checkliste zur Arbeit mit KI-generierten Texten.

01

Problem Nr. 1: Die „Muttersprache“ der Künstlichen Intelligenz

Vielleicht haben Sie schonmal versucht, einem internationalen Freund einen Wortwitz in der deutschen Sprache zu erklären. Dieses Unterfangen scheitert nicht selten daran, dass die Bedeutungsnuancen und Doppeldeutigkeiten nicht eins-zu-eins in eine andere Sprache übertragen werden können. Es ist notwendig, zu umschreiben und sich mit vielen Worten an Inhalt und Witz anzunähern. Sprachliche Eigenheiten und Ausdrücke ohne äquivalente Übersetzung machen auch den auf Sprachmodellen beruhenden KI-Systemen das Leben schwer, denn ihre Muttersprache ist meistens Englisch.

Stellen Sie sich ein KI-Sprachmodell bzw. Large Language Model (LLM) wie einen fleißigen Studenten vor, der sein ganzes Leben damit verbracht hat, unzählige Bücher, Artikel und Dokumente zu lesen. Durch diese umfangreiche Lektüre hat der Student gelernt, Muster und Strukturen in der Sprache zu erkennen. LLMs werden mit gigantischen Mengen an Texten aus dem Internet trainiert, wodurch sie lernen, wie Wörter und Sätze in einer Sprache normalerweise verwendet und miteinander verbunden werden.

Die Schwierigkeiten beim Entwickeln von KI-Systemen für andere Sprachen als Englisch ergeben sich hauptsächlich aus dem Mangel an qualitativ hochwertigen, digitalisierten Textdaten für das Training der Sprachmodelle [1]. Multilinguale Sprachmodelle, die mit Texten in mehreren Sprachen trainiert werden, sollen diese Lücke überbrücken. So wurde beispielsweise ChatGPT (OpenAI) mit Texten verschiedener Sprachen trainiert. Die vergleichsweise hohe Verfügbarkeit englischer Texte zeichnet sich aber trotzdem noch in den Ergebnissen ab. Multilingual trainierte KIs funktionieren nicht in allen Sprachen gleich gut und berücksichtigen oft nicht die Kontexte von Sprechern der lokalen Sprachen [2]. Die Leistung der KI ist in den Sprachen am besten, die in seinem Training am stärksten vertreten waren.

Weil die Daten in englischer Sprache einen sehr viel größeren Anteil am Training der bekannten Sprachmodell-KIs hatten, kann es bei Anfragen in deutscher Sprache zu sprachlichen und inhaltlichen Ungenauigkeiten sowie Fehlern kommen. Das offensichtlichste Phänomen ist, dass die KI trotz des auf Deutsch formulierten Prompts eine Antwort auf Englisch generiert. Weniger offensichtlich sind missverstandene Idiome und unnatürliche oder veraltete Formulierungen, die sich immer wieder einschleichen. Insbesondere im Kontext der Pharma-Branche ist außerdem zu betonen, dass Fachbegriffe nicht immer korrekt übersetzt werden. Beispielsweise kommt es vor, dass aus der englischen Sprache entlehnte stehende Begriffe noch nicht zuverlässig erkannt werden. Die automatisch übersetzten Bezeichnungen tragen nicht zur Glaubwürdigkeit des Textes bei und werden im schlechtesten Fall einfach nicht verstanden.

    Um den nachfolgenden Inhalt zu sehen, tragen Sie bitte Ihre Firmen-E-Mail-Adresse ein.

    02

    Problem Nr. 2: Das Echo der Trainingstexte

    Ein weiteres Problem ist der Mangel an Originalität. KI-Texte können sich anfühlen wie ein Echo, das immer wieder dieselben Phrasen und Konzepte wiederholt. Sie weisen eine geringere Variabilität in der Wort- und Phrasenwahl auf, neigen zu Wiederholungen und enthalten selten Wortneuschöpfungen oder ungewöhnliche Wortzusammensetzungen [3]. Bittet man ChatGPT eine E-Mail zu verfassen, wird man häufig auf eine einleitende Formel wie „Ich hoffe, diese E-Mail erreicht Sie wohlbehalten.“ stoßen. Sich wiederholende Phrasen und Formulierungen wie „ist essentiell“, „ist der Schlüssel“ oder „ist entscheidend“ fallen nach wiederholter Nutzung auf und entblößen schematisches Denken und mangelnde Kreativität. Auch die grammatischen Konstruktionen können unter Umständen eher pragmatisch wirken.

    Neben der sprachlichen Vielfalt fehlt auch kulturelle Sensibilität. Die Trainingsdaten bringen verbreitete Stereotypen und Klischees mit, die durch die KI immer wieder reproduziert werden. Nicht nur hat sie Schwierigkeiten, den Kontext oder kulturelle Besonderheiten korrekt zu erfassen und Antworten dementsprechend anzupassen, es kann auch passieren, dass auf Basis des Prompts Annahmen gemacht werden, die sich negativ auf die Inhalte auswirken. Bittet man die KI beispielsweise darum, Texte im Stil von etablierten Frauen-Magazinen zu schreiben, ohne im Prompt zu definieren, was genau damit gemeint ist, erhält man potenziell reißerische Inhalte, die veraltete Vorstellungen enthalten.

    03

    Problem Nr. 3: Wiederholungen und Polster-Sätze

    Die subtilen Doppelungen, bei denen derselbe Inhalt in anderer Formulierung präsentiert wird, fallen beim ersten Durchlesen eines KI-generierten Textes gar nicht auf. Ideen werden mehrmals mit unterschiedlichen Worten formuliert mit wenigen Zusatzinfos erneut wiederholt oder zusammengefasst und das führt zu einer Masse von Sätzen, die eigentlich keinen echten Mehrwert bieten, den Text unnötig aufblähen und eventuell sogar von der eigentlichen Botschaft ablenken.

    „Ibuprofen wirkt als Schmerzmittel, indem es die Produktion von Prostaglandinen im Körper hemmt. Prostaglandine sind chemische Substanzen, die für das Auslösen von Schmerz und Entzündungen verantwortlich sind. Durch die Verringerung dieser Prostaglandine lindert Ibuprofen Schmerzen und Entzündungen. Es ist ein nicht-steroidales entzündungshemmendes Medikament (NSAID), das effektiv bei der Behandlung von leichten bis mäßigen Schmerzen wirkt. Indem es die Aktivität des Enzyms Cyclooxygenase hemmt, vermindert es die Produktion von Prostaglandinen, was zu einer Reduzierung von Schmerz und Entzündung führt.“

    Um unter dem Radar schwimmende Doppelungen wie in diesem Beispieltext zu vermeiden, ist es wichtig, die von KI-Modellen erzeugten Texte kritisch zu lesen und auf ihre Relevanz und Prägnanz hin zu prüfen. Effektives Prompt Engineering kann hier helfen, indem es die KI anleitet, präzise und zielgerichtete Inhalte zu produzieren, die sich auf das Wesentliche konzentrieren und Wiederholungen vermeiden​.

    04

    Problem Nr. 4: Fehlende Autorschaft und fragwürdige Quellenangaben

    ChatGPT hat bereits an der Verfassung wissenschaftlicher Arbeiten mitgewirkt, was in der akademischen Welt verständlicherweise für Diskussionen sorgte [4]. Renommierte Fachzeitschriften lehnen Beiträge von Chatbots ab, da Autorenschaft auch Verantwortungsübernahme bedeutet. Das können KI-Modelle aktuell nicht leisten. Die korrekte Zitierweise in KI-generierten Texten, in denen bereits fehlerhafte oder erfundene Quellenangaben nachgewiesen wurden, ist nicht das einzige Problem bei der Sache. Im Kontext der Pharma-Branche kann die KI zur Erstellung von Inhalten genutzt werden, aber selbst wenn sie in der Lage ist, einen perfekten Text zu verfassen, bleibt die Notwendigkeit bestehen, dass ein Experte die Verantwortung für den Inhalt übernimmt. Dies beinhaltet die Prüfung auf Urheberrechtskonformität und die Gewährleistung, dass der Text fachlich richtig ist und sprachlichen und ethischen Standards entspricht.

    05

    Problem Nr. 5: Keine Garantie für Wahrheit und Genauigkeit

    Das letzte Problem dieser Sammlung ist vielleicht das wichtigste. Immer wieder wurde KI-Systemen vorgeworfen zu lügen oder Fakten und Quellen einfach zu erfinden. Wenn es darum geht, von ChatGPT zu erfahren, was der erste TV-Cartoon war, wird eine falsche Aussage vergleichsweise geringe Konsequenzen haben [5]. Anders sieht es bei medizinischen Fachtexten oder Informationen für Patienten aus. Vor allem wenn es um neuere Entwicklung geht, müssen mit dem Prompt die notwendigen Fakten und Hintergrundinformationen mitgeliefert werden. Selbstverständlich ersetzt das nicht die sorgfältige Prüfung der Inhalte und Fakten, auf die im generierten Text Bezug genommen wird. Wenn die KI-Zitate im Text integrieren soll ist besondere Vorsicht angesagt, denn sie erfüllt diesen Wunsch unter Umständen auch wenn keine passenden Äußerungen vorliegen.

    Besonders bei verschreibungspflichtigen Medikamenten muss die Konformität mit dem Heilmittelwerbegesetz gewährleistet sein und das bedeutet, dass Texte nicht irreführend oder ungenau sein dürfen, insbesondere in Bezug auf Wirksamkeit, Sicherheit und Anwendung der Produkte. KI-generierte Texte neigen dazu, Feinheiten und Bedeutungsnuancen in Formulierungen und Begriffen zu übersehen.

    06

    Prompt Engineering für die Texterstellung

    Die Qualität der Antwort hängt bei KI-Systemen nicht selten von der Präzision und Ausführlichkeit ab, mit denen die Anfrage gestellt wird. Die oben aufgeführten Probleme können mit einem gut gestalteten Prompt abgeschwächt werden. Die Entwicklung des „perfekten Prompts“ ist ein dynamisches Feld, das sich ständig weiterentwickelt und eng mit den Fortschritten in der KI-Technologie verknüpft ist​. Trotzdem folgt hier eine kurze Zusammenfassung von Elementen, die bei der Erstellung von Prompts zur Texterstellung berücksichtigt werden können.

    Ein Prompt kann ein Briefing sein, ähnlich wie man es einem professionellen Autor geben würde. Der Schlüssel liegt darin, so viel Kontext wie möglich zu bieten und spezifische sowie detaillierte Sprache zu verwenden. [6]

    Themen

    Im Prompt sollten bereits Fokus-Themen benannt werden, auf die die KI besonderen Wert legen soll.

    Rahmen

    Die Art des Textes muss definiert werden. Welches Format hat er und welche Textlänge? In welchem Stil ist er geschrieben? Wer ist die beabsichtigte Zielgruppe? Aus welcher Perspektive ist der Text geschrieben? Soll Fachjargon verwendet oder vermieden werden? Soll die Antwort in deutscher Sprache formuliert werden?

    Hintergrundwissen

    Gibt es Hintergrundwissen oder Informationen, die im Text vorkommen sollen? Gibt es aktuelle Infos, von denen die KI noch nichts wissen kann? Von Gesetzesregelungen bis zu Forschungsergebnissen, muss die KI mit dem notwendigen Hintergrundwissen zum Thema ausgestattet werden.

    Spezifizität

    Um präzisere Antworten von KI-Modellen zu erhalten, sollten Sie Ihre Prompts sehr spezifisch gestalten. Gibt es konkrete Details wie ein Jahr, eine spezifische Region oder einen Vergleichsrahmen? Gibt es Beispiele, Regeln und Einschränkungen? [7]

    Als Gespräch

    Viele KI-Systeme verwenden ein Chat-Fenster und können sich an frühere Teile des Gesprächs erinnern, ohne den Kontext neu etablieren zu müssen. Dieser iterative Prozess ermöglicht es, auf früheren Antworten aufzubauen. [8]

    07

    Fazit

    Bei der Verwendung von KI-Systemen zur Erstellung von Inhalten in der Gesundheitskommunikation muss der Nutzer immer selbst für die Einhaltung von Standards zur Herstellung von Glaubwürdigkeit und Konformität mit den gesetzlichen Regelungen sorgen – durch die Formulierung präziser Prompts, aber auch durch eine sorgfältige Überprüfung der sprachlichen und inhaltlichen Qualität. Die KI kann als Assistent betrachtet werden, der erste Entwürfe liefert, während Experten für die Feinabstimmung und die Einhaltung rechtlicher Vorgaben verantwortlich sind. ChatGPT & Co können als Werkzeug bei der Überwindung von Schreibblockaden helfen und Recherchelücken aufzeigen, können letztendlich aber keine Verantwortung für die Inhalte übernehmen.

    Shares

    Unsere AI-Checkliste bietet Ihnen einen umfassenden Einblick, wie Sie Artificial Intelligence  effektiv für Ihre Textproduktion nutzen können. Jetzt herunterladen und durchstarten!

    Julia-Hahn-1

    Sie möchten mehr Informationen zu diesem Thema?

    Dann nehmen Sie direkt Kontakt zu unserer Expertin auf: julia.hahn@drkaske.de

      Sie haben Fragen? Wir beraten Sie gerne.

      Fabian-Kaske-2

      Fabian Kaske

      Managing Director

      Hi,

      ich bin Fabian und Managing Director von Dr. Kaske und in allen relevanten Projekten mit Herz und Seele involviert. Neben der Unternehmensführung promoviere ich extern an der Universität Augsburg zum Thema Online-Marketing-Kommunikation. Vor dem Einstieg in die väterliche Agentur sammelte ich Erfahrung in der Unternehmensberatung Oliver Wyman sowie bei Procter & Gamble. Davor absolvierte ich ein Managementstudium in Oestrich-Winkel (EBS), Singapur (NUS), Paris (ESCP) und Hong Kong (CUHK). Somit schuf ich mir die Voraussetzungen Experte in meinem Fachgebiet zu sein und gehe als gutes Beispiel für die Mitarbeiter voran.

      Funfact über Fabian: Als Kind hatte ich langes und strohblondes Haar – einige Frauen sind sicher neidisch gewesen. 

      So können Sie Fabian erreichen: