Schlagwort: Texte

Kann man KI-Texte noch entlarven?

Wer hat’s geschrieben – Mensch oder Maschine? KI-Detektoren wollen das bloßlegen. Ihr Gegenpart sind sogenannte KI-Humanizer, mit denen sie sich jetzt ein Katz-und-Maus-Spiel liefern.

Von Katrin Liffers

Image made by KI

Beim Lesen im Internet habe ich immer häufiger den Gedanken: „Moment … das klingt mir zu glatt. Das hat bestimmt die KI geschrieben!“ Beweisen kann ich das nicht wirklich – ich sammle bloß linguistische Indizien.

Eine neue Art von KI-Tools will dieses Identifizieren von KI-Inhalten objektivieren: sogenannte KI-Detektoren. Sie finden angeblich sicher heraus, ob ein Text aus einer menschlichen Feder stammt oder ob eine KI dahintersteckt. Das klingt immer praktisch und verlässlich („nur 0,6 Prozent Fehlerrate!“) – und es wäre besonders für Schulen und Hochschulen essenziell. Aber in der Realität scheinen mir die Versprechen der Hersteller bisher wackliger als ein Jenga-Turm nach der fünften Runde.

Was sind KI-Detektoren und wie gut sind sie?
KI-Detektoren analysieren Texte auf Muster, die häufig bei maschinell erzeugten Inhalten auftreten: gleichförmige Satzstrukturen, besonders brave Formulierungen oder statistische Auffälligkeiten in der Wortwahl. Bekannte Tools sind zum Beispiel GPTZero, OriginalityAI und Copyleaks.
Die Universität von Chicago hat in einer Studie die Leistung von vier Detektoren genauer unter die Lupe genommen: die kommerziellen Anbieter GPTZero, OriginalityAI und Pangram sowie den Open-Source-Detektor RoBERTa. Analysiert wurden deren Fehlerraten. Das Ergebnis: Die kommerziellen Tools schnitten deutlich besser ab als RoBERTa. Besonders niedrige Fehlerquoten lieferte Pangram – die falsche Zuordnung eines KI-Textes als menschlich beziehungsweise umgekehrt eines menschlichen Textes als künstlich lag bei mittleren und langen Texten fast bei null.

Humanizer sollen die Detektoren austricksen
Aber natürlich werden die KI-Modelle stetig besser. Sie erzeugen Texte, die menschliche Muster täuschend echt imitieren. Außerdem kommen immer mehr sogenannte KI-Humanizer auf den Markt, die KI-Detektoren gezielt austricksen sollen. Diese Humanizer drehen den Spieß um: Sie nehmen einen KI-Text und vermenschlichen ihn so stark, dass Detektoren ihn nicht mehr als künstlich erkennen. Tools wie Humanize AI Text, Undetectable AI oder der Gradually AI Humanizer verändern dazu Stil, Satzrhythmus und Wortwahl – nach dem Motto: mehr Chaos, weniger generischer Einheitsbrei. Es ergibt sich daraus ein Wettrennen zwischen den Detektoren und den Humanizern, dessen Ausgang noch offen ist.

Wie sieht das in Zukunft aus?

Manche Experten wie der Hamburger Medienwissenschaftler Stephan Weichert sind allerdings der Meinung, dass es nur eine Frage der Zeit sei, bis die KI-Modelle ihre Texte unserem persönlichen Stil perfekt angleichen können. In dem Podcast „Die Medienwoche“ sagte Weichert kürzlich: „Ich würde bezweifeln, dass es KI-Detektoren überhaupt noch gelingt, KI-Anteile aufzudecken.“ Wenn er sich mit hochrangigen Entwicklern unterhalte, glaube keiner, dass man mit eindeutiger Sicherheit KI-Inhalte identifizieren kann. Die KI produziere eben mittlerweile Inhalte, die kaum noch zu enttarnen seien. Weichert weiter: „Und selbst wenn es jetzt noch an manchen Stellen möglich ist, wird es das in einem Jahr überhaupt nicht mehr sein. Da bin ich ganz sicher.“

Weichert vergleicht die Entwicklung mit dem Sechs-Finger-Problem, das die KI anfangs bei Bildern hatte. Dieses Problem sei mittlerweile gelöst, eine zweifelsfreie Erkennung von KI-Fotos sei nun nicht mehr möglich. Was bedeutet das für uns? Vielleicht müssen wir uns daran gewöhnen, dass die Frage „Mensch oder Maschine?“ bald nicht mehr zu beantworten ist. Wir müssen eher lernen, mit dieser Ungewissheit konstruktiv umzugehen.
.


Seminare Icon

Neugierig geworden?

Wir von IMKIS lieben es, Entwicklungen rund um Kommunikation und Sprache zu durchleuchten – und geben dieses Wissen auch in Seminaren weiter. Vielleicht finden auch Sie etwas in unserem Portfolio?

UNSERE SEMINARE

Kann KI unsere Texte redigieren?

Wir stehen vor einer weiteren Revolution des Schreibens, so viel ist seit der Veröffentlichung von ChatGPT klar. Aber wie gut kann die KI schon jetzt unsere Texte redigieren? Wir haben ein qualitatives Experiment gewagt.

Von Stefan Brunn

Alle Welt überbietet sich derzeit darin, die Leistungen Künstlicher Intelligenz mit menschlichen Leistungen zu vergleichen. Wir haben das natürlich auch getan. Das erste Experiment (richtige Informationen liefern) ergab ein klägliches Scheitern: Wir haben drei der neuen Bots gefragt, wer 1978 Deutscher Meister im Handball war. Da sollte ja eine richtige Antwort eigentlich drin sein. Aber alle drei Bots gaben fälschlich den VfL Gummersbach an, richtig ist aber der TV Großwallstadt. Woher die Bots ihre falsche Info hatten – intransparent!

In unserem zweiten kleinen Experiment ging es um die Sprache, genauer: ums Redigieren. Wir haben den Chatbot von You.com gefragt, ob er uns helfen kann:

Sowas hören wir natürlich immer gern! 😉 Also gaben wir ihm einen ziemlich verschachtelten Text, den wir auch in unseren Seminaren gelegentlich redigieren lassen:

Hm, so hatten wir uns das allerdings nicht gedacht, die Inhalte waren ja regelrecht verstümmelt worden! Wir insistierten sofort:

Immerhin: Der Bot hat nun überhaupt die Aufgabe verstanden und versucht, den Text zu redigieren. Gut redigiert ist er aber keinesfalls – vor allem sind die Gedanken darin nicht sauber strukturiert. Da wären wir viel schneller gewesen, wenn wir Gedanken und Sätze selbst neu arrangiert hätten!

Wir glauben trotzdem, dass uns Künstliche Intelligenz zukünftig beim Redigieren viel Arbeit abnehmen kann. Bis das aber sauber klappt, wird man sich noch ein bisschen aneinander gewöhnen müssen …

5 Gründe, warum man englische Texte leichter versteht

Wie kann es sein, dass man oft fremdsprachliche Fachbücher leichter liest als deutsche? Gerade Bücher aus den USA versteht man schneller als solche in der eigenen Muttersprache. Fünf Thesen dazu nageln wir mal an unseren virtuellen Bücherschrank. 😉

Von Stefan Brunn

1. These: Wir haben die längeren Wörter!
Es ist unter Sprachwissenschaftler*innen unumstritten, dass man Texte mit kürzeren Wörtern leichter liest als solche mit längeren. Anders als etwa im Englischen kann man im Deutschen Wörter fast beliebig zusammenfügen, nicht zum Vorteil der leichten Lektüre. Ich sage nur: Pflanzenschutzmittelrückstandshöchstgehaltsüberschreitungen!

2. These: Wir haben die komplizierteren Sätze!
In anderen Sprachen stehen Subjekt und Prädikat immer zusammen. Im Deutschen können wir sie beliebig weit auseinanderziehen – und wenn am Ende das auflösende Verb folgt, weiß man oft schon nicht mehr, was vorn im Satz stand: „Am Nachmittag wird die Beamtin den Konferenzraum für die Abgeordneten des Parlaments für mindestens zwei Stunden …“ Ja, was nun? Aufschließen? Abschließen? Durchlüften? Im Englischen wüsste man es schon lange!

3. These: Wir haben mehr Fremdwörter!
Unsere Sätze enthalten schlicht mehr Fremdwörter als englische. Während die angelsächsischen Länder gefühlt alle 50 Jahre mal ein deutsches Wort einbürgern, tun wir das umgekehrt gefühlt alle 5 Tage. Das bereichert zwar unsere Sprache. Aber das macht es auch schwerer, alles zu verstehen. Da muss man schon ganz schön woke sein!

4. These: Wir treten weniger für verständliche Texte ein!
Besonders in den USA verfolgt man das Ziel, dass sich alle verständlich ausdrücken, viel vehementer. Der „plain language act“ von Barack Obama hat dieses Ziel auch formell verankert: Es gibt Behörden, die prüfen, ob die Texte anderer Behörden bürgerfreundlich formuliert sind. Bürgerinnen und Bürger haben einen Anspruch darauf! In Deutschland setzt man hingegen nicht auf eine verbindlich einfache Sprache für alle, sondern auf die sogenannte „Leichte Sprache“ für eine eng umrissene Zielgruppe – und nur für ganz wenige Texte.

5. These: Wir haben Angst, selbst zu einfach zu schreiben!
Viel mehr als alle vorgenannten Punkte schlägt aber etwas anderes durch: In Deutschland schrecken die Leute davor zurück, sich einfach auszudrücken. Dahinter stehen diverse Motive, die zu diskutieren hier zu weit führen würde. Aber eines wollen wir hier doch geraderücken:  Wer schwer verständliche Texte schreibt, den hält man eher nicht für intelligent. Diese Erkenntnis aus der Psychologie stammt allerdings – Sie haben es sicher vermutet – aus den USA. Daniel Oppenheimer hat dafür einen alternativen Nobelpreis gewonnen. Seine Forschungsarbeit (PDF) ist übrigens sehr witzig und liest sich ziemlich leicht …