Wer hat’s geschrieben – Mensch oder Maschine? KI-Detektoren wollen das bloßlegen. Ihr Gegenpart sind sogenannte KI-Humanizer, mit denen sie sich jetzt ein Katz-und-Maus-Spiel liefern.
Von Katrin Liffers

Image made by KI
Beim Lesen im Internet habe ich immer häufiger den Gedanken: „Moment … das klingt mir zu glatt. Das hat bestimmt die KI geschrieben!“ Beweisen kann ich das nicht wirklich – ich sammle bloß linguistische Indizien.
Eine neue Art von KI-Tools will dieses Identifizieren von KI-Inhalten objektivieren: sogenannte KI-Detektoren. Sie finden angeblich sicher heraus, ob ein Text aus einer menschlichen Feder stammt oder ob eine KI dahintersteckt. Das klingt immer praktisch und verlässlich („nur 0,6 Prozent Fehlerrate!“) – und es wäre besonders für Schulen und Hochschulen essenziell. Aber in der Realität scheinen mir die Versprechen der Hersteller bisher wackliger als ein Jenga-Turm nach der fünften Runde.
Was sind KI-Detektoren und wie gut sind sie?
KI-Detektoren analysieren Texte auf Muster, die häufig bei maschinell erzeugten Inhalten auftreten: gleichförmige Satzstrukturen, besonders brave Formulierungen oder statistische Auffälligkeiten in der Wortwahl. Bekannte Tools sind zum Beispiel GPTZero, OriginalityAI und Copyleaks.
Die Universität von Chicago hat in einer Studie die Leistung von vier Detektoren genauer unter die Lupe genommen: die kommerziellen Anbieter GPTZero, OriginalityAI und Pangram sowie den Open-Source-Detektor RoBERTa. Analysiert wurden deren Fehlerraten. Das Ergebnis: Die kommerziellen Tools schnitten deutlich besser ab als RoBERTa. Besonders niedrige Fehlerquoten lieferte Pangram – die falsche Zuordnung eines KI-Textes als menschlich beziehungsweise umgekehrt eines menschlichen Textes als künstlich lag bei mittleren und langen Texten fast bei null.
Humanizer sollen die Detektoren austricksen
Aber natürlich werden die KI-Modelle stetig besser. Sie erzeugen Texte, die menschliche Muster täuschend echt imitieren. Außerdem kommen immer mehr sogenannte KI-Humanizer auf den Markt, die KI-Detektoren gezielt austricksen sollen. Diese Humanizer drehen den Spieß um: Sie nehmen einen KI-Text und vermenschlichen ihn so stark, dass Detektoren ihn nicht mehr als künstlich erkennen. Tools wie Humanize AI Text, Undetectable AI oder der Gradually AI Humanizer verändern dazu Stil, Satzrhythmus und Wortwahl – nach dem Motto: mehr Chaos, weniger generischer Einheitsbrei. Es ergibt sich daraus ein Wettrennen zwischen den Detektoren und den Humanizern, dessen Ausgang noch offen ist.
Wie sieht das in Zukunft aus?
Manche Experten wie der Hamburger Medienwissenschaftler Stephan Weichert sind allerdings der Meinung, dass es nur eine Frage der Zeit sei, bis die KI-Modelle ihre Texte unserem persönlichen Stil perfekt angleichen können. In dem Podcast „Die Medienwoche“ sagte Weichert kürzlich: „Ich würde bezweifeln, dass es KI-Detektoren überhaupt noch gelingt, KI-Anteile aufzudecken.“ Wenn er sich mit hochrangigen Entwicklern unterhalte, glaube keiner, dass man mit eindeutiger Sicherheit KI-Inhalte identifizieren kann. Die KI produziere eben mittlerweile Inhalte, die kaum noch zu enttarnen seien. Weichert weiter: „Und selbst wenn es jetzt noch an manchen Stellen möglich ist, wird es das in einem Jahr überhaupt nicht mehr sein. Da bin ich ganz sicher.“
Weichert vergleicht die Entwicklung mit dem Sechs-Finger-Problem, das die KI anfangs bei Bildern hatte. Dieses Problem sei mittlerweile gelöst, eine zweifelsfreie Erkennung von KI-Fotos sei nun nicht mehr möglich. Was bedeutet das für uns? Vielleicht müssen wir uns daran gewöhnen, dass die Frage „Mensch oder Maschine?“ bald nicht mehr zu beantworten ist. Wir müssen eher lernen, mit dieser Ungewissheit konstruktiv umzugehen.
.

Neugierig geworden?
Wir von IMKIS lieben es, Entwicklungen rund um Kommunikation und Sprache zu durchleuchten – und geben dieses Wissen auch in Seminaren weiter. Vielleicht finden auch Sie etwas in unserem Portfolio?
UNSERE SEMINARE