Warum du noch nicht auf KI-Texte setzen solltest

1. Unzureichende Vertraulichkeit

"Interna haben in ChatGPT nichts zu suchen"

Wer hochwertige Inhalte produzieren möchte, muss eigene Erfahrungen und Fachkenntnisse nutzen. Die Nutzung von Sprachmodellen, die der Öffentlichkeit zur Verfügung stehen, ist jedoch diesbezüglich ausgesprochen heikel. 

Für Bekanntheit sorgte das Beispiel von Samsung, bei dem Mitarbeitende Firmengeheimnisse an OpenAI verraten haben. Auch wenn hier konkret Programmierer:innen beteiligt waren: Interna haben in ChatGPT nichts zu suchen.

Bei Texter:innen ist es viel leichter: Sie unterzeichnen ein NDA und dann können du oder deine Angestellten offen sprechen. Niemand muss Angst haben, dass er versehentlich vertrauliche Informationen herausgibt. 

Denn selbst, wenn dies geschieht, gelangen sie nicht an die Öffentlichkeit. ChatGPT kann hingegen alles nutzen, was du oder Mitarbeiter:innen dort eingeben – auch für die Konkurrenz.

Es gibt inzwischen die Möglichkeit, dass du ChatGPT und andere Sprachmodelle auf deinem PC installierst und von der Öffentlichkeit abschirmst. Zudem kannst du auch in den Datenschutzbestimmungen auswählen, dass du nicht möchtest, dass deine Daten zur Verbesserung genutzt werden. Du musst dich aber um die Sicherheit der Daten kümmern.

2. Qualitative Mängel

KI-Sprachmodelle entwickeln sich unfassbar schnell weiter und haben in den letzten Jahren enorme Fortschritte gemacht. Doch mit einem fundierten und durchdachten Text eines Profis kann die Qualität immer noch nicht mithalten. 

Das gilt für sämtliche Aspekte, die wichtig für die Wirkung des Textes sind: von der Argumentationsstruktur über die Quellenverwendung bis hin zu sprachlichen Feinheiten.

Zudem fehlt es Texten an fachlicher Tiefe oder die KI verrennt sich sehr schnell und tätigt falsche Aussagen.

3. Hohe Fehlerquote

Sprachmodelle erfinden Fakten. Du musst also für jeden Text alle Argumente und Tatsachen prüfen. Wenn du schon mal eine Quelle rückwärts gesucht hast, weißt du, wie zeitaufwändig das sein kann. In der Zeit hättest du den Text auch einfach selbst schreiben (lassen) können.

Inzwischen gibt es bei einigen Modellen die Möglichkeit, Quellen anzugeben. Die KI nutzt dann primär diese Informationen. Es können sich dennoch Fehler einschleichen, aber du kannst es so natürlich viel leichter kontrollieren. Das Problem ist dann allerdings eher, dass die Sprachmodelle, die das beherrschen, sprachliche Defizite haben. Das wird sich aber sicherlich früher oder später wieder ändern.

4. Fortgeschriebene Diskriminierung

ChatGPT ist schon relativ gut darauf trainiert, nicht diskriminierend zu sein.

Dennoch ergibt sich bei jeder KI das Problem, dass sie vor allem mit Daten der Mehrheitsgesellschaft gefüttert wurde.

Das ist beispielsweise auch der Grund dafür, dass ChatGPT bislang nicht vernünftig gendern kann. Für viele Zielgruppen sind die Texte deswegen nicht sensibel genug. Sie grenzen Menschen aus.

5. Fehlende Kreativität

Wirksame Texte zu schreiben, erfordert Fingerspitzengefühl und das Spiel mit Erwartungen: Ironie, Brüche, überraschende Wendungen, Humor oder einfach eine starke Meinung. Keiner der bekannten Textgeneratoren beherrscht dies bislang.

Im Gegenteil ist es gerade die Funktionsweise von KI-Sprachmodellen, Wahrscheinliches zu generieren. Nicht umsonst nennen Expert:innen sie auch „stochastische Papageien“: KI-Textmodelle versuchen immer das Wort zu wählen, das am wahrscheinlichsten passt.

Das erschwert es erheblich, mit KI-Texten einen Effekt zu erzielen, zu unterhalten und im Gedächtnis zu bleiben. Wer wirksame Texte benötigt, kann KI sehr gut als Sparringspartner nutzen – viel mehr aber bislang nicht.

6. Unklare rechtliche Lage

Die rechtlichen Aspekte bei der Erstellung mit KI von Texten und ihrer Verwendung sind noch unklar. Das gilt sowohl für die Datengrundlage als auch dafür, wer der Urheber der generierten Ergebnisse ist.

Werden Prompts rechtlich geschützt ? Dürfen die KI-Modelle langfristig auf dem Markt bleiben oder werden sie durch Urheberrechtsklagen stark unter Druck gesetzt? Welche Gesetze plant die EU in Bezug auf die Regulierung?

All diese Fragen sind derzeit noch nicht eindeutig genug beantwortet, um weitreichende strategische Entscheidungen zu treffen.

7. Zu unglaubwürdig

Wie bereits erwähnt, fabulieren KI-Sprachmodelle Fakten, was sie unglaubwürdig macht. Glaubwürdigkeit und Faktentreue sind jedoch ein hohes Gut in der Online-Kommunikation. Weil KIs dort derzeit noch sehr fehleranfällig sind, fehlt die Autorität. Zugleich solltest du aus Transparenzgründen immer angeben, wenn und wie eine KI an der Texterstellung beteiligt war.

Das bringt dich in den Zwiespalt, dass selbst der perfekte Text weniger Vertrauen genießt.

Fazit

KI-Texte gehören zukünftig sicherlich zu unserem Alltag. Die Technologie und die Rahmenbedingungen sind derzeit jedoch noch nicht so weit, dass du sie ohne wesentliche Abstriche einsetzen kannst.

Das erschwert es erheblich, mit KI-Texten einen Effekt zu erzielen, zu unterhalten und im Gedächtnis zu bleiben. Wer wirksame Texte benötigt, kann KI sehr gut als Sparringspartner nutzen – viel mehr aber bislang nicht.

Erfahre hier, wie du KI heute schon für bessere Texte nutzen kannst.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

WordPress Cookie Plugin von Real Cookie Banner