Alle Artikel von Zeilenhacker

Elfen wollen helfen: unsere Weihnachtstipps

Weihnachten naht und wir vom Zeilenhacker haben uns mithilfe von KI in Elfen verwandelt, die Tipps ausliefern: Was lohnt sich, übers Fest zu hören, zu lesen oder anzugucken? Jeder von uns hat eine Empfehlung für Sie …

 

Christoph
Mein Tipp:
Klaus.
Trailer

Cornelia
Mein Tipp:
Marias kleiner Esel.
Lesung

Dirk
Mein Tipp:
The Holdovers.
Trailer

Hannah
Mein Tipp:
Weihnachten bei Max und Mia.
Kinderbuch-Rarität

Hans
Mein Tipp:
Feuerzangenbowle.
Trailer

Jochen
Mein Tipp:
Loriot: Advent.
Gedicht

Jutta
Mein Tipp:
Der kleine Lord.
Trailer

Katrin
Mein Tipp:
Arenz: Unser verrücktes Weihnachtsfest.
Buch

Mathias
Mein Tipp:
Johann Sebastian Bach: Nun komm der Heiden Heiland.
Kantate

Olli
Mein Tipp:
JD McPherson: Socks.
Lied

Sebastian
Mein Tipp:
Palm Springs.
Trailer

Sonja
Mein Tipp:
Ein Junge namens Weihnacht.
Roman von Matt Haig

Stefan
Mein Tipp:
Ist das Leben nicht schön?
Trailer

 


Kann man KI-Texte noch entlarven?

Wer hat’s geschrieben – Mensch oder Maschine? KI-Detektoren wollen das bloßlegen. Ihr Gegenpart sind sogenannte KI-Humanizer, mit denen sie sich jetzt ein Katz-und-Maus-Spiel liefern.

Von Katrin Liffers

Image made by KI

Beim Lesen im Internet habe ich immer häufiger den Gedanken: „Moment … das klingt mir zu glatt. Das hat bestimmt die KI geschrieben!“ Beweisen kann ich das nicht wirklich – ich sammle bloß linguistische Indizien.

Eine neue Art von KI-Tools will dieses Identifizieren von KI-Inhalten objektivieren: sogenannte KI-Detektoren. Sie finden angeblich sicher heraus, ob ein Text aus einer menschlichen Feder stammt oder ob eine KI dahintersteckt. Das klingt immer praktisch und verlässlich („nur 0,6 Prozent Fehlerrate!“) – und es wäre besonders für Schulen und Hochschulen essenziell. Aber in der Realität scheinen mir die Versprechen der Hersteller bisher wackliger als ein Jenga-Turm nach der fünften Runde.

Was sind KI-Detektoren und wie gut sind sie?
KI-Detektoren analysieren Texte auf Muster, die häufig bei maschinell erzeugten Inhalten auftreten: gleichförmige Satzstrukturen, besonders brave Formulierungen oder statistische Auffälligkeiten in der Wortwahl. Bekannte Tools sind zum Beispiel GPTZero, OriginalityAI und Copyleaks.
Die Universität von Chicago hat in einer Studie die Leistung von vier Detektoren genauer unter die Lupe genommen: die kommerziellen Anbieter GPTZero, OriginalityAI und Pangram sowie den Open-Source-Detektor RoBERTa. Analysiert wurden deren Fehlerraten. Das Ergebnis: Die kommerziellen Tools schnitten deutlich besser ab als RoBERTa. Besonders niedrige Fehlerquoten lieferte Pangram – die falsche Zuordnung eines KI-Textes als menschlich beziehungsweise umgekehrt eines menschlichen Textes als künstlich lag bei mittleren und langen Texten fast bei null.

Humanizer sollen die Detektoren austricksen
Aber natürlich werden die KI-Modelle stetig besser. Sie erzeugen Texte, die menschliche Muster täuschend echt imitieren. Außerdem kommen immer mehr sogenannte KI-Humanizer auf den Markt, die KI-Detektoren gezielt austricksen sollen. Diese Humanizer drehen den Spieß um: Sie nehmen einen KI-Text und vermenschlichen ihn so stark, dass Detektoren ihn nicht mehr als künstlich erkennen. Tools wie Humanize AI Text, Undetectable AI oder der Gradually AI Humanizer verändern dazu Stil, Satzrhythmus und Wortwahl – nach dem Motto: mehr Chaos, weniger generischer Einheitsbrei. Es ergibt sich daraus ein Wettrennen zwischen den Detektoren und den Humanizern, dessen Ausgang noch offen ist.

Wie sieht das in Zukunft aus?

Manche Experten wie der Hamburger Medienwissenschaftler Stephan Weichert sind allerdings der Meinung, dass es nur eine Frage der Zeit sei, bis die KI-Modelle ihre Texte unserem persönlichen Stil perfekt angleichen können. In dem Podcast „Die Medienwoche“ sagte Weichert kürzlich: „Ich würde bezweifeln, dass es KI-Detektoren überhaupt noch gelingt, KI-Anteile aufzudecken.“ Wenn er sich mit hochrangigen Entwicklern unterhalte, glaube keiner, dass man mit eindeutiger Sicherheit KI-Inhalte identifizieren kann. Die KI produziere eben mittlerweile Inhalte, die kaum noch zu enttarnen seien. Weichert weiter: „Und selbst wenn es jetzt noch an manchen Stellen möglich ist, wird es das in einem Jahr überhaupt nicht mehr sein. Da bin ich ganz sicher.“

Weichert vergleicht die Entwicklung mit dem Sechs-Finger-Problem, das die KI anfangs bei Bildern hatte. Dieses Problem sei mittlerweile gelöst, eine zweifelsfreie Erkennung von KI-Fotos sei nun nicht mehr möglich. Was bedeutet das für uns? Vielleicht müssen wir uns daran gewöhnen, dass die Frage „Mensch oder Maschine?“ bald nicht mehr zu beantworten ist. Wir müssen eher lernen, mit dieser Ungewissheit konstruktiv umzugehen.
.


Seminare Icon

Neugierig geworden?

Wir von IMKIS lieben es, Entwicklungen rund um Kommunikation und Sprache zu durchleuchten – und geben dieses Wissen auch in Seminaren weiter. Vielleicht finden auch Sie etwas in unserem Portfolio?

UNSERE SEMINARE

Fauler Zauber mit Zahlen

Zahlen wirken objektiv. Sind sie aber nicht. Die Recherche einer Kollegin zeigt, wie fragwürdige Statistiken sich zu medialen Wahrheiten entwickeln – und warum KI das Problem verschärfen wird.

Von Stefan Brunn

Wenn sich die Zahl der Spielsüchtigen in Deutschland innerhalb von fünf Jahren versechsfacht hat, dann stimmt etwas nicht. Entweder an den Tatsachen – oder an den Zahlen. Die Redakteurin Kathi Preppner stellt dieses Beispiel ins Zentrum eines lesenswerten Artikels im Branchenmagazin „Journalist“. Sie zeigt darin, wie eine anders gewählte Umfragemethode die Zahlen im Glücksspielatlas Deutschland massiv verändert hat: von 200.000 auf 1,3 Millionen Betroffene. Viel schockierender aber ist, wie diese offenbar manipulierbaren Zahlen sich in der Öffentlichkeit ungeprüft verbreiten.

Falsche Zahlen auf 350 Websites – und keiner korrigiert sie
Dass dieser Fall nicht isoliert steht, sondern symptomatisch für den journalistischen (aber nicht nur diesen) Umgang mit Zahlen ist, demonstriert Preppner an einem noch drastischeren Beispiel: 385 Millionen Menschen sollen sich demnach jährlich mit Pestiziden vergiften, 11.000 sterben daran. Diese Zahlen stammen aus einer Schätzung von 2020, die der Wissenschaftsverlag Springer Nature später zurückzog – methodisch unhaltbar. Nachdem die Heinrich-Böll-Stiftung sie 2022 in ihrem Pestizidatlas zitierte, griffen viele Medien sie dennoch auf. Nun waren die Zahlen nicht mehr aus dem Netz zu kriegen. Preppner berichtet, dass sie weiterhin auf 350 Websites zu finden seien – von Tagesschau.de über die ZEIT bis zum Guardian. Mehr als zwei Dutzend Redaktionen seien angeschrieben worden, kaum jemand habe sich korrigiert. Und jetzt reproduzierten auch noch KI-Chatbots diese falschen Zahlen.

Die Lehre daraus: Das Zwei-Quellen-Prinzip ist tot
Früher lernten Journalisten, dass man keine Tatsache verbreitet, ohne mindestens zwei seriöse unabhängige Quellen nachweisen zu können. Das hilft längst nicht mehr, weil im Internet alle alles remixen – und KI künftig noch viel mehr und intransparenter. Eine skeptische Grundhaltung gegenüber Zahlen ist unabdingbar, auch bei seriösen Organisationen. Wichtig ist, die eigene Skepsis mitzutransportieren. Und manchmal, wenn Zahlen verdächtig erscheinen oder sich einfach nicht erhärten lassen, gilt der einfachste Rat: weglassen.


Seminare Icon

Neugierig geworden?

Wir von IMKIS lieben es, Entwicklungen rund um Kommunikation und Sprache zu durchleuchten – und geben dieses Wissen auch in Seminaren weiter. Vielleicht finden auch Sie etwas in unserem Portfolio?

UNSERE SEMINARE

Die 16-Wörter-Leitplanke und wo sie herkommt

Unser Arbeitsgedächtnis hat beim Textverstehen nur sehr begrenzte Kapazitäten: 16 Wörter pro Satz gelten als Obergrenze. Wir erklären, woher diese Zahl stammt und inwiefern Satzzeichen wie Kommata oder Doppelpunkte das Textverstehen beeinflussen.

Von Stefan Brunn

Texten kann man dann am besten folgen, wenn ihre Gedanken einer nach dem anderen leicht konsumiert werden können. „Fluid information“ heißt es in der Psychologie, wenn man den Infos live folgen kann – ohne Störungen, Unterbrechungen, Zurückspulen. Dabei stößt unser Arbeitsgedächtnis schnell an seine Grenzen: Mehr als 16 Wörter pro sinnvoll gebautem Satz lassen sich kaum gleichzeitig verarbeiten. Diese Zahl stammt aus speziellen Studien zum Textverstehen. Forscher (wie hier etwa Andreas Liebl von der Universität Eichstätt) haben sich dazu experimentell angeschaut, wie viele Wörter aufgenommen und verstanden werden. Und sie zeigen auch, wie sich diese Menge verändert, wenn die Wörter in einem Satz bzw. einem inhaltlichen Kontext stehen. Während es viel Forschung dazu gibt, wie viele Wörter man sich isoliert merken kann (etwa Katze, ächz, Datum, gähnen, sardonisch …), existieren viel weniger Erkenntnisse dazu, wie viele Wörter in einem Satz man noch sinnvoll wahrnehmen kann. Schade!

Natürlich hängt eine solche Grenze nicht nur von der reinen Wortzahl ab, sondern auch von Bedeutung und Struktur. Ein linearer 16-Wort-Satz mit vertrauten Wörtern wird natürlich besser vom Gehirn verarbeitet als ein verschachteltes 16-Wort-Gebilde voller Fachbegriffe. Das erklärt, warum auch ein Satz mit 20 einfachen Wörtern leicht verdaulich sein kann, während man manch anderen mit nur 10, aber dafür schwierigen Wörtern gedanklich kaum runterkriegt. Kurze Sätze allein sind also kein Allheilmittel für Texte. Und die Satzlänge von 16 Wörtern ist nur ein Richtwert.

Und dann wären da noch die Satzzeichen. Sie können Orientierung geben und für einen guten Rhythmus sorgen. Wir nutzen sie idealerweise, um Informationen zu kleineren Portionen zu verarbeiten und gleichzeitig keinen Stakkato-Stil zu bekommen. Für die einzelnen Satzzeichen gelten aber unterschiedliche Regeln:

Kommata: Nicht zu viele! Aber wenn man sie dosiert einsetzt, ermöglichen sie es, in einem schönen abwechslungsreichen Stil zu schreiben. Dann sind auch mal bis zu 25 Wörter pro Satz okay.

Doppelpunkte: Ein sehr schönes Mittel, wenn man es nicht übertreibt. Der Doppelpunkt signalisiert: Achtung, jetzt kommt was Anderes, was Besonderes, was Wichtiges.

Klammern: Für Ein-Wort-Erklärungen eine gute Sache. Nicht geeignet, um darin ganze Gedanken zu äußern, die eigentlich einen eigenen Satz verdient hätten. Wenn in einer Klammer ein Punkt auftaucht, sollte sofort der Alarm losgehen.

Gedankenstriche: Immer dann gut, wenn nur einer davon im Satz vorkommt. Dann kann er am Ende vom Satz noch mal einen Tusch setzen – und so für besondere Aufmerksamkeit sorgen. Zwei Gedankenstriche in einem Satz sind meist schlecht bzw. nur bei kurzen Sätzen und ganz kurzen Einschüben okay.

Semikolons: Selten hilfreich, eher irritierend. Irgendwo zwischen Komma und Punkt zu verstehen. Ganz selten sinnvoll, wenn man gerade kein Komma machen kann und keinen Punkt setzen will.

Fragezeichen: Schönes Mittel, das die Betonung ändert und zum Mitdenken einlädt. Funktioniert bei manchen Textsorten super (Reden), wirkt bei anderen unangemessen (Entscheidungsvorlagen). Insgesamt aber zu selten verwendet. Warum nicht mal ein Fragezeichen und damit den Rhythmus ändern? Wenn in Texten allzu viele Fragen auftauchen, drängt sich die Frage auf, ob der Text wirklich Antworten gibt oder uns nur befragt …


Seminare Icon

Neugierig geworden?

Wir von IMKIS lieben es, Entwicklungen rund um Kommunikation und Sprache zu durchleuchten – und geben dieses Wissen auch in Seminaren weiter. Vielleicht finden auch Sie etwas in unserem Portfolio?

UNSERE SEMINARE

Grisli im Duden: erlaubt oder erfunden?

Schikoree oder Tschips? Eine dieser Schreibweisen stand tatsächlich mal im Duden, bis sie dann irgendwann wieder gestrichen wurde. Unser Quiz zeigt, welche skurrilen Varianten es tatsächlich mal in den Duden geschafft haben – und welche wir Ihnen nur untergejubelt haben.

Von Hannah Molderings

.


Seminare Icon

Neugierig geworden?

Wir von IMKIS lieben es, Entwicklungen rund um Kommunikation und Sprache zu durchleuchten – und geben dieses Wissen auch in Seminaren weiter. Vielleicht finden auch Sie etwas in unserem Portfolio?

UNSERE SEMINARE

Lange Texte, lasche Leistung

Neue KI-Sprachmodelle werben damit, immer größere Mengen an Informationen verarbeiten zu können. Um das zu testen, wird gern der sogenannte Nadel-im-Heuhaufen-Test gemacht. Wir zeigen, wie er funktioniert und dass er bei längeren Texten dann doch versagt.

Von Katrin Liffers

Fast im Wochentakt erscheinen neue KI-Modelle, die sich gegenseitig an Größe, Schnelligkeit oder Präzision übertreffen wollen. Besonders häufig fällt dabei das Schlagwort Kontextfenster. Es beschreibt – grob gesagt – die Menge an Informationen, die ein Modell berücksichtigen kann. Vergleichbar ist das mit dem Arbeitsgedächtnis beim Menschen.

Die Größe dieses Fensters wird in Token angegeben. Während vor drei Jahren ein Kontextfenster von 16.000 Token als groß galt, versprechen neue Modelle von OpenAI oder Google inzwischen 200.000 bis 1.000.000 Token. Dabei entsteht leicht der Eindruck: Ganz gleich, ob ein Satz am Anfang oder am Ende eines Dokuments steht – das Modell verarbeitet ihn mit der gleichen Sorgfalt.

Der Nadel-im-Heuhaufen-Test
Genau das soll der Nadel-im-Heuhaufen-Test überprüfen. Die Idee: Man versteckt eine „Nadel“ – also eine eindeutige Information – in einem sehr langen Text („Heuhaufen“) und fragt das Modell danach. Kann es die Info zuverlässig wiedergeben, gilt das als Beweis, dass es mit langen Kontexten umgehen kann.

Wo der Test an seine Grenzen stößt
Das klingt zunächst plausibel. Doch unsere Erfahrungen mit langen Texten und neuere wissenschaftliche Untersuchungen zeigen: Dieser Test misst nur eine sehr einfache Fähigkeit – das Erkennen exakter Wortübereinstimmungen. Für solche Aufgaben würde aber ja meist sogar ein simpler Suchalgorithmus reichen.

In der Praxis aber erwarten wir von einer KI mehr: Da wollen wir zum Beispiel alle Textstellen finden, die sich mit einem bestimmten Thema befassen, oder wir wollen einen langen Text zusammenfassen lassen, ohne dass wichtige Inhalte verloren gehen. Und ob das möglich ist, belegt der Nadel-im-Heuhaufen-Test nicht.

Andere Tests, andere Ergebnisse
Tatsächlich zeigen neuere Studien, dass die Leistung vieler Modelle mit zunehmender Kontextlänge sinkt – und zwar deutlich vor dem eigentlichen Limit des Kontextfensters. Eine brandneue Untersuchung weist nach, dass die Modelle beim semantischen Suchen (also dem Erkennen inhaltlicher Zusammenhänge) weit schlechter abschneiden als beim reinen Wort-Matching. Eine andere Studie kommt zu dem Ergebnis, dass Sprachmodelle umso weniger zuverlässig zwischen relevanten und irrelevanten Inhalten unterscheiden können, je länger der Kontext wird.

Fazit
Der Nadel-im-Heuhaufen-Test liefert einen zwar einfachen, aber sehr eingeschränkten Blick auf die Fähigkeiten von KI-Modellen. Wer wirklich wissen will, wie gut sie mit langen Kontexten umgehen, muss ausführlichere Tests vornehmen – und sollte gegenüber vollmundigen Marketingversprechen skeptisch sein.


Seminare Icon

Neugierig geworden?

Wir von IMKIS lieben es, Entwicklungen rund um Kommunikation und Sprache zu durchleuchten – und geben dieses Wissen auch in Seminaren weiter. Vielleicht finden auch Sie etwas in unserem Portfolio?

UNSERE SEMINARE

Wie bezwingt man den K2?

Der Konjunktiv II ist für viele ein unbezwingbarer Gipfel im Grammatik-Gebirge. Wir liefern jetzt die richtige Ausrüstung, indem wir klären, wann man den K2 überhaupt braucht.

Von Katrin Liffers

Der Konjunktiv II gehört nicht zu den beliebtesten sprachlichen Formen der deutschen Sprache 😉 Das liegt vor allem daran, dass vielen nicht klar ist, wann man ihn überhaupt verwenden muss. Wir weisen deshalb in drei Etappen einen sicheren Weg:

Höflichkeit und Zurückhaltung – der sanfte Anstieg
Die erste Etappe ist noch gut begehbar und führt durch angenehmes Gelände: Der Konjunktiv II wird oft verwendet, um Bitten, Fragen oder Vorschläge höflicher und zurückhaltender zu formulieren. Dadurch wirken Aussagen weniger fordernd und respektvoller gegenüber dem Gesprächspartner:

Beispiele:

  • Könnten Sie mir bitte die Unterlagen schicken?
  • Wir sollten den Plan noch einmal überdenken.
  • Das könnte funktionieren.

Wünsche und Vorstellungen – Blick aufs Gipfelkreuz
Wenn der Weg zu anstrengend erscheint, hilft oft der Blick aufs Ziel – auch wenn es aktuell noch in der Ferne liegt. Um diese Vorstellungen und Wünsche zu versprachlichen, die (zumindest im Moment) nicht erfüllbar sind oder nicht der Realität entsprechen, verwendet man im Deutschen den Konjunktiv II – oft verbunden mit einem leichten Bedauern, dass die Realität anders aussieht.

Beispiele:

  • Ich wünschte, ich wäre schon fertig mit der Aufgabe.
  • Wenn ich mehr Zeit hätte, läse ich mehr Bücher.

Indirekte Rede – die Nebelpassage
Die letzte Etappe wird noch einmal anspruchsvoll und verlangt einen sicheren Blick für Kontext und Sprachgefühl. In der indirekten Rede kann der Konjunktiv II nämlich zwei unterschiedliche Funktionen erfüllen:

  1. Ausdruck von Zweifel: Er zeigt an, dass man Zweifel am Wahrheitsgehalt des Inhalts hat, den man wiedergibt.
  2. Vermeiden einer Formverwechslung: Wenn der Konjunktiv I identisch mit dem Indikativ ist, weicht man auf den Konjunktiv II aus, um Missverständnisse zu vermeiden.

Beispiel: Alex und Tina sagten, sie hätten keine Zeit.

Zweifel: Hätten kann bedeuten, dass man Alex und Tina nicht glaubt und ihnen unterstellt, dass sie eigentlich schon Zeit haben.

Formverwechslung: Hätten kann aber auch lediglich verwendet worden sein, um deutlich zu machen, dass es sich um indirekte Rede handelt. Denn der Konjunktiv I (haben) würde sich nicht vom Indikativ unterscheiden.

Welche Funktion im konkreten Fall vorliegt, lässt sich oft nur aus dem Kontext erschließen.

Mit dieser Ausrüstung fällt Ihnen die nächste Tour zum Konjunktiv-Gipfel hoffentlich leichter. Das Wichtigste sind Ausdauer und Übung!


Seminare Icon

Neugierig geworden?

Wir von IMKIS lieben es, Entwicklungen rund um Kommunikation und Sprache zu durchleuchten – und geben dieses Wissen auch in Seminaren weiter. Vielleicht finden auch Sie etwas in unserem Portfolio?

UNSERE SEMINARE

Saubere Texte auf Knopfdruck

Zwischen Copy & Paste lauert leider oft das Formatierungs-Chaos. Unser neues Tool schafft hier einfach und kostenlos Abhilfe: Die Textwaschmaschine entfernt selbst hartnäckige Formatierungen und poliert sogar die Typografie.

Von Katrin Liffers

Mal eben einen Text von einem Layout ins andere überführen, ohne dass einem die komplette Formatierung zerschossen wird: der Traum aller, die mit Texten zu tun haben. Viele Textverarbeitungsprogramme bieten diese Funktion an – wirklich klappen tut es aber in den seltensten Fällen. Regelmäßig muss man doch noch Schriftarten und -größen angleichen, Umbrüche entfernen und die Textausrichtung anpassen.

Wenn wir auf Nummer sicher gehen wollten, haben wir deshalb in der Vergangenheit auf Microsofts guten alten Text-Editor zurückgegriffen: Den Text einmal in die Software eingefügt und schon sind alle ursprünglichen Formatierungen verschwunden. Seit dem letzten Update des Text-Editors besitzt allerdings auch dieses Programm einige Textformatierungsoptionen, sodass der Trick nicht mehr so einfach klappt. Also haben wir nach einer neuen Lösung gesucht.

Gefunden haben wir allerdings keine – und deshalb eine eigene Lösung für diese Alltagsaufgabe programmiert: unsere Textwaschmaschine. Mit nur einem einzigen Waschgang bereinigt sie alle Texte, die man in die Trommel steckt.

Die Textwaschmaschine …
• vereinheitlicht Schriftart und -größe,
• setzt alles in linksbündigen Flattersatz,
• entfernt Hervorhebungen (fett, kursiv, unterstrichen),
• löscht Absatzeinzüge, Abstände, Linien sowie Tabellenfragmente und
• entfernt Bilder.

Und weil wir schon einmal dabei waren, haben wir unsere Maschine direkt mit ein paar zusätzlichen Waschgängen ausgestattet, die uns die Textarbeit erleichtern: Die Textwaschmaschine wandelt falsche Anführungszeichen in typografisch korrekte Anführungszeichen um, ersetzt zu kurze Gedankenstriche durch richtige und reduziert doppelte Leerzeichen auf einfache.

Was noch fehlt: dass die Texte stilistisch besser duften. Am Lenor der Rhetorik arbeiten wir noch. 😉

Ausprobieren kann man die Textwaschmaschine übrigens direkt hier oder auf textwaschmaschine.imkis.de:

 


Seminare Icon

Neugierig geworden?

Wir von IMKIS lieben es, Entwicklungen rund um Kommunikation und Sprache zu durchleuchten – und geben dieses Wissen auch in Seminaren weiter. Vielleicht finden auch Sie etwas in unserem Portfolio?

UNSERE SEMINARE

Tischlerei Morsch & Co: No jokes with names!

In einer Kleinstadt am Niederrhein kandidiert aktuell ein AfD-Politiker namens „Führer“ für das Bürgermeisteramt. Darf man darüber Witze machen? Und was bedeutet das alte journalistische Prinzip „no jokes with names“ eigentlich genau?

Von Stefan Brunn

1. Was darf man nicht?
Spott, Herabsetzung, Schmähungen auf Kosten des Namens – das alles ist tabu. Menschen können nichts für ihren Namen. Wer sich darüber lustig macht, kann Persönlichkeitsrechte verletzen und muss im Ernstfall mit hohen Schadenersatzforderungen rechnen. In einem damals öffentlich breit diskutierten Fall einer jungen Frau namens Lisa Loch, über die Stefan Raab vor 20 Jahren anzügliche Witze gemacht hatte, betrug der Schadenersatz 70.000 Euro.
Auch im Bundestag gab es entsprechende Grenzverletzungen. Herbert Wehner (SPD) kam aber mehrmals mit Rügen davon, wenn er zum Beispiel den CDU-Kollegen Jürgen Wohlrabe eine „Übelkrähe“ nannte oder Jürgen Todenhöfer als „Hodentöter“ verunglimpfte. Solche Wortspiele sind natürlich keine Schwerverbrechen (wie auch die häufigen Namens-Verballhornungen der Boulevardpresse), aber sie verstoßen schlicht gegen journalistische Standards und parlamentarische Umgangsformen – etwa die Regeln des Pressekodex oder des Bundestags.

2. Darf man denn gar nicht darüber berichten, wenn jemand einen besonders passenden oder unpassenden Namen trägt?
Doch, selbstverständlich – wir tun das hier ja auch. Und das Internet ist voll von Artikeln mit witzigen Namensbeispielen: dem Pressesprecher Bär vom Zoo Hannover, der Finanzberatung Abzieher, der Tischlerei Morsch, der Hebamme Storch, dem Zahnarzt Krone, der Tierärztin Dr. Schnurrer oder dem Friseursalon Breitschädel.
Solche Kombinationen dürfen natürlich erwähnt werden. Viele dieser Personen oder Betriebe profitieren vielleicht sogar von der Namens-Koinzidenz. Was allerdings tabu bleibt, sind spöttische Ableitungen oder Wortspiele zu Lasten der Betroffenen. Die Regel „no jokes with names“ dient also vor allem als Warnung vor der Versuchung, daraus Gags zu machen – besonders für junge Journalistinnen und Journalisten.

3. Muss der Name „Führer“ völlig unkommentiert bleiben?
Nein. Es ist journalistisch völlig legitim, einen Kandidaten mit seinem Namen zu nennen und dazu auch etwas zu schreiben. In Wachtendonk am Niederrhein steht Hans-Peter Führer ja ganz offiziell auf der Kandidatenliste für das Bürgermeisteramt. Dass der Name Assoziationen weckt, liegt auf der Hand – nur ergibt sich daraus kein Freibrief für ironische Kommentare.
In die Verlegenheit allzu kreativer Schlagzeilen wird die Presse ohnehin nicht kommen: Bei den letzten Kommunalwahlen 2020 erhielt die AfD in Wachtendonk nur 3,87 Prozent der Stimmen.


Seminare Icon

Neugierig geworden?

Wir von IMKIS lieben es, Entwicklungen rund um Kommunikation und Sprache zu durchleuchten – und geben dieses Wissen auch in Seminaren weiter. Vielleicht finden auch Sie etwas in unserem Portfolio?

UNSERE SEMINARE

KI verändert auch unsere Alltagssprache

Eine neue Studie zeigt, dass ChatGPT & Co. unser Sprechen im Alltag beeinflussen: Bestimmte Wörter werden seit dem Aufkommen der Chatbots deutlich häufiger verwendet. Wir nennen einige dieser Wörter und ergründen die Ursachen.

Von Stefan Brunn

In einer groß angelegten Studie hat ein Forscherteam des Berliner Max-Planck-Instituts Transkripte aus über 700.000 Stunden englischsprachiger Vorträge und Podcast-Gespräche analysiert. Dabei zeigte sich ein sprunghafter Anstieg in der Nutzung bestimmter Begriffe: So stieg etwa die Häufigkeit von „delve“ (englisch für „vertiefen“) um fast 50 Prozent. Bei anderen von ChatGPT überdurchschnittlich oft genutzten Ausdrücken lag der Anstieg zwischen 30 Prozent und 50 Prozent. Mit statistischen Kausalitäts-Analysen wurde sichergestellt, dass dieser Effekt tatsächlich mit dem Start von ChatGPT zusammenhängt. Im Vergleich mit alternativen Zeitpunkten vor 2022 zeigte sich kein ähnlicher Trendwechsel.

Warum ausgerechnet diese Wörter?
Besonders starke Zuwächse zeigten neben dem Wort „delve“ Wörter wie „comprehend“, „boast“, „swift“ und „meticulous“. Viele dieser Wörter weisen hohe „GPT-Scores“ auf, also eine starke Vorliebe von ChatGPT gegenüber menschlichem Originaltext. Die Forscher legen nahe, dass die KI solche Wörter favorisiert, die präzise und sachlich wirken und das Image von Strukturiertheit und Überzeugungskraft besitzen.

Manche Bereiche übernehmen die Wörter schneller
Die sprachliche Veränderung war in spontanen Podcast-Gesprächen signifikant messbar, besonders in den Kategorien Wissenschaft und Technologie, Wirtschaft und Bildung. In Bereichen wie Religion und Spiritualität oder Sport war der Effekt jedoch nicht signifikant. Dies deutet darauf hin, dass sich die Änderung der Wortwahl auf bestimmten Feldern schneller durchsetzt.

Ursprung: kulturelle Rückkopplungsschleifen
Die Wissenschaftler erklären den Einfluss damit, dass Menschen zunehmend die von KI-Modellen geprägten Formulierungen übernehmen. Maschinen, die zunächst mit menschlichen Texten trainiert wurden, prägen nun umgekehrt die menschliche Kommunikation – ein neues Phänomen einer zirkulären „kulturellen Rückkopplung“. Das Forscherteam warnt, dass durch die Verbreitung solcher KI-Sprachmuster die Vielfalt von Sprache leiden könnte, weil sich Normen weltweit angleichen. Langfristig bestehe sogar die Gefahr einer unbemerkten Massenmanipulation der öffentlichen Kommunikation.

Die Studie lässt sich im Volltext auf arXiv als PDF herunterladen.


Seminare Icon

Neugierig geworden?

Wir von IMKIS lieben es, Entwicklungen rund um Kommunikation und Sprache zu durchleuchten – und geben dieses Wissen auch in Seminaren weiter. Vielleicht finden auch Sie etwas in unserem Portfolio?

UNSERE SEMINARE