Alle Artikel von Zeilenhacker

Wir werden uns beim Sodass nicht einig!

Wenn mehrere Leute an einem Dokument arbeiten, sollten sie auch die Wörter gleich schreiben. Manchmal kann man sich aber nicht auf eine Schreibweise einigen, wir zum Beispiel nicht bei „sodass“ oder „so dass“. Ein Pro und Contra von zwei Zeilenhackern.

Von Stefan Brunn und Katrin Liffers

Katrin findet: sodass

So dass? So bitte nicht! Seit 30 Jahren ist diese Schreibweise etabliert, vor 20 Jahren hat sie nach Duden den Kampf um die empfohlene Schreibweise gewonnen – wer diese Schreibweise heute trotzdem noch hinterfragt, erzählt wahrscheinlich auch noch gerne davon, dass man früher „bisschen“ mit ß und „Schifffahrt“ mit zwei f geschrieben hat. Aber genauso wie die D-Mark heute nicht mehr akzeptiert wird, akzeptiere ich die veraltete Schreibweise nicht mehr. Und ganz ehrlich: Das Leben ist schon komplex genug, warum es sich durch unnötige Leerzeichen noch schwerer machen? „So“ und „dass“ sind ja nicht zwei zufällig nebeneinanderstehenden Wörter. Sie bilden eine feste (Bedeutungs-)Einheit. Es schreibt ja auch keiner „ob wohl“ oder „in sofern“ – hoffe ich zumindest.

Also bitte, liebe Boomer: Lasst die Vergangenheit los und nehmt hin, dass sich Sprache wandelt.

Stefan findet: so dass

Nicht alles, was der Rat für deutsche Rechtschreibung oder der Duden empfehlen, ist gut für unsere Sprache. Erinnert sich noch jemand an den Grislibär und das Ketschup? So wollte es die Rechtschreibreform, aber die Leute haben es nicht mitgemacht – und inzwischen sind diese Schreibweisen wieder aus dem Duden verschwunden. Auch „sodass“ ist keine Katastrophe, zugegeben. Aber es ist eine Verschlechterung. Erstens, weil die Schriftsprache unser Sprechen ausdrücken soll. Wir sagen „so dass“ mit einer Minipause und eben nicht „sodass“. Zweitens soll die Sprache unser Denken abbilden: „So“ bildet die Ursache ab, „dass“ die Wirkung. Für mich ist das ein semantischer Unterschied. Ein bisschen wie bei „radfahren“ und „Rad fahren“ oder „Kopf stehen“ und „kopfstehen“, nur umgekehrt: Hier hat man die Wörter auseinandergenommen, die eigentlich zusammengehören. Man beachte bitte bei diesem letzten Wort den feinen Unterschied: Es heißt bewusst „zusammengehören“ und nicht „zusammen gehören“.

Hier geht es nicht um alt oder neu oder konservativ oder progressiv. Hier geht es darum, feine Nuancen unserer Sprache wahrzunehmen. Und trotzdem: Ich gebe bei dieser Schreibweise kleinbei! 🕊️ 🌈❤️

 


Seminare Icon

Neugierig geworden?

Wir von IMKIS lieben es, Entwicklungen rund um Kommunikation und Sprache zu durchleuchten – und geben dieses Wissen auch in Seminaren weiter. Vielleicht finden auch Sie etwas in unserem Portfolio?

UNSERE SEMINARE

Wie sieht das Korrektorat der Zukunft aus?

Wir haben den KI-Entwickler Alexander Seifert gefragt, der mit seiner Software Textshine an einem perfekten Korrektorat durch künstliche Intelligenz arbeitet. Im Interview spricht er auch darüber, wo die Grenzen des KI-Korrektorats liegen.

Alexander Seifert ist Gründer von Textshine, einer vollautomatischen Korrekturlösung für Textprofis. Seit 10 Jahren entwickelt er KI-basierte Lösungen, seit über 20 Jahren ist er verlegerisch tätig. Textshine hat er vor 6 Jahren zu entwickeln begonnen, um dem eigenen familiengeführten Publikumsverlag die Arbeit zu erleichtern. Seifert hat Informatik, Sprachwissenschaft und Philosophie studiert.

In Zeitungen finden wir immer noch ganz viele Rechtschreibfehler, obwohl die Verlage doch mit KI jetzt alles von Rechtschreibfehlern säubern können. Warum finden wir trotzdem noch diese Fehler?
Ich habe schon mit einer dreistelligen Anzahl von Redaktionen gesprochen und ich glaube, so gut wie alle haben es probiert. Abgesehen vom Problem der Integration in fremde Software und Arbeitsabläufe ist es mit KI halt häufig so, dass man mit einem einfachen Prompt zwar schnell ganz gute Ergebnisse bekommt. Aber zu einem zuverlässigen Korrektorat reicht es dann doch nicht, weil die letzten 10 oder 20 Prozent schwierig werden. Da geht es um Feinheiten. Zum Beispiel die Formatierungen beizubehalten. Oder um Verlässlichkeit: Was passiert, wenn die KI ausfällt oder einen Text zurückweist? Teilweise sagen die großen Modelle einfach: Nein, das korrigiere ich nicht, da geht es um Mord und Totschlag und das machen wir wegen unserer Content Policies nicht! Es gibt da einen Rattenschwanz an Problemen, die man alle lösen muss, damit so etwas wirklich zuverlässig funktioniert.

Wir machen oft die Erfahrung, dass die KI auch in Formulierungen eingreift, also eben nicht nur korrigiert, sondern redigiert …
Ja, das machen die Large Language Models sehr gerne, wenn man sie einfach promptet. Sie halten sich eben nicht immer an die Anweisungen und dann wird halt doch umgeschrieben. Unser Anspruch ist es, den Nutzer*innen all diese Dinge aus dem Weg zu räumen. Das funktioniert natürlich auch bei uns nicht zu 100 Prozent. Fehlerfrei korrigiert ja auch der Mensch nicht. Aber ich muss mich als Kund*in darauf verlassen können, dass nicht ungebührlich in den Text eingegriffen und umformuliert und halluziniert wird und dass die Formatierungen erhalten bleiben.

Gibt es denn Zeitungen, die inzwischen ihre Texte mit KI korrigieren lassen?
Ja, mittlerweile gibt es einige Tageszeitungen, die unseren Dienst einsetzen. Manche, um das Korrektorat zu entlasten. Andere haben gar kein Korrektorat mehr und wollen die Redakteur*innen freispielen, damit die wieder mehr Zeit haben für qualitätsvolle journalistische Arbeit.

Liefert Textshine inzwischen fehlerfreie Manuskripte?
Nein. Jeder, der viel mit Texten gearbeitet hat, weiß: Bei großen Mengen von Text ist Fehlerfreiheit unmöglich. Und das ist auch bei Textshine so. Wir sind aber mittlerweile an dem Punkt angelangt, wo wir häufig von Kund*innen das Feedback bekommen, dass Textshine besser ist als durchschnittliche Korrektor*innen. Aus dem Zeitungsumfeld kriegen wir regelmäßig das Feedback, dass unser Korrektorat zwischen dem Niveau guter Korrektor*innen und Redakteur*innen liegt. Gute Korrektor*innen, die die Hausregeln kennen, viel Erfahrung und ausreichend Zeit haben, sind schon noch besser. Aber die Menschen haben ein natürliches Limit. Am krassesten zeigt sich das in der Bearbeitungszeit. Einen Nachrichtentext zu korrigieren, dauert mit KI nur wenige Sekunden. Ein ganzes Buch, auch wenn das ein historischer Roman mit 800 Seiten ist, dauert vielleicht vier, fünf Minuten.

Woran genau beißen sich KI-basierte Korrektoratsprogramme noch die Zähne aus?
Die erste Baustelle ist, einen Text über längere Textpassagen hinweg konsistent zu korrigieren. Bei kurzen Nachrichtentexten ist das kein Problem, aber bei Romanen fällt das schon auf. Das hängt mit den Kontextlängen der Sprachmodelle zusammen. Selbst wenn die Hersteller versprechen, dass sie eine Million Tokens und mehr Kontext verarbeiten können, stimmt das in der Praxis nicht wirklich. Das bedeutet: Man muss den Text segmentieren. Und dann entsteht das Problem, dass die KI unterschiedliche Entscheidungen trifft. Es gibt ja von vielen Wörtern mehrere gültige Schreibweisen und dann kann es einfach passieren, dass die KI mal die eine Schreibweise wählt, mal die andere. Sagen wir: „Baltoro-Gletscher“, den schreibt sie dann einmal mit Bindestrich und einmal zusammen. Für solche Fälle gibt es auch keine Dudenempfehlung.

Du hattest von mehreren Baustellen gesprochen …
Ja, zweitens denke ich an wirklich komplexe Satzkonstruktionen, da ist die Fehlerquote höher. Ich finde das verblüffend, weil es wie beim Menschen ist. Wenn man einen wirklich komplexen Satz hat, zum Beispiel bei Kant oder in der Philosophie insgesamt, dann geht da schon mal ein Satz über ein oder zwei Seiten. Da weiß man am Ende des Satzes nicht mehr, mit welchem Wort vorne das Verb hinten kongruiert. Genauso geht es der KI auch. Das finde ich ganz spannend. Die dritte wichtige Baustelle ist für mich die Zeitenfolge. Da straucheln ja auch wir Menschen häufig. Da macht die KI auch manchmal Eingriffe, wo ich sagen würde, das sollte man im Präsens formulieren, das muss man jetzt nicht in die Vergangenheitsform stellen. Und dann gibt es da noch die Aussetzer. Die sind zwar selten, aber es kommt vor, dass die KI etwas Augenfälliges einfach übersieht.

Außerdem kann ja die KI nichts korrigieren, was außerhalb der Wissensbasis liegt, zum Beispiel im inhaltlichen Kontext. Zum Beispiel, wenn ich ein Pronomen in einem Satz habe – aber es ist gar nicht klar, auf was sich das Pronomen bezieht. Oder beim Gendern, wenn von drei Forschern die Rede ist – aber man erst im Internet nachschlagen müsste, ob da jetzt nur Männer oder nur Frauen oder beide dabei waren? Sowas können menschliche Korrektor*innen ja nachgucken, aber eine KI nicht. Oder gleicht die sowas auch mit einer Webrecherche ab?
Der zweite Fall wäre ja gar kein Korrektorat mehr, sondern eher eine Art Fact-Checking. Aber zum ersten Fall mit dem Pronomen: Unser Programm verwendet den textinternen Kontext. Es ist klug genug, die Referenz für ein Pronomen zu finden, so sie halt eindeutig ist – und dann auch solche Referenzen zu korrigieren.

Werden wir denn irgendwann auch ein KI-Korrektorat haben, bei dem die KI sogar im Web nachguckt, wie sich jemand wirklich schreibt und ob in einem Forscherteam Frauen und Männer dabei waren?
Aber so ein KI-Fact-Checking beim Korrektorat ist für uns aktuell out of scope. Textshine macht in seltenen Fällen durchaus solche Korrekturen, beispielsweise bei der Namensschreibweise berühmter Persönlichkeiten. Aber insgesamt haben beim Fact-Checking die guten Korrektor*innen definitiv die Nase voran, die halten da kurz inne und sagen: Moment, das Forschungsteam recherchiere ich schnell mal …

Und was ist, wenn der Name einer Person mehrfach vorkommt, aber erst so geschrieben und dann anders – irgendwie muss sich ja auch die KI entscheiden?
Tatsächlich macht unsere Maschine diese Form von Korrektur – und das erstaunt die Leute oft. Wir arbeiten für einen der ältesten Musikverlage der Welt. Bei deren Texten hat Textshine mal den Namen eines finnischen Geigers aus der zweiten Reihe des 19. Jahrhunderts korrigiert. Da waren sie alle ganz baff, das war ihnen selber entgangen. Der Name muss aber in den Trainingsdaten sein, also etwa bei Wikipedia. Namen in Lokalzeitungen, die kaum einer kennt, die kennt die KI nicht und kann sie deshalb auch nicht korrigieren.

Macht er das auch, wenn ein Name etwa zehn Mal richtig auftaucht und einmal falsch? Nehmen wir mal das Beispiel der ehemaligen deutschen Fußball-Nationalspielerin Célia Šašić, da ist es mit den Sonderzeichen ein bisschen kompliziert … wie entscheidet die KI das dann?
Okay, nehmen wir mal meinen eigenen Namen: Seifert. Wenn der in einem Text zweimal mit Doppel-f und einmal mit einem f vorkommt, dann würde Textshine vermutlich aufs Doppel-f korrigieren, um die dominante Form durchzusetzen. Wobei ich schon festgestellt habe, dass die erste Form ein bisschen mehr zählt.

Und was ist, wenn Célia Šašić zehn Mal falsch geschrieben wurde und nur einmal richtig?
Dann würde ich vermuten, dass er das eine richtige Mal korrigiert. Wenn es zehn Mal ohne Sonderzeichen geschrieben wird und einmal mit, dann kann es ja auch eine redaktionelle Entscheidung sein, all diese Sonderzeichen nicht zu verwenden. Glaubt es mir oder glaubt es nicht, aber ich kenne Redaktionen, die würden gern Sonderzeichen verwenden, haben aber nicht die Lizenz für alle Buchstaben. Oder die haben die Lizenz für den Fließtextfont, aber nicht für den der Überschrift. Da gibt es alle möglichen Spielarten.

Wo wir schon bei dem Zusammenwirken mit anderen Programmen sind: Wann wird denn Microsoft ein funktionierendes KI-Korrektorat einbetten?
Irgendwann kommt das sicher. Aber Microsoft macht Dinge für die breite Mehrheit, für die 99 Prozent der Benutzer*innen – und die brauchen kein Korrektorat auf so einem Niveau. Die schreiben vielleicht maximal eine Hausarbeit, vielleicht eine Geburtstagseinladung oder eine E-Mail.

Aber jeder möchte doch, dass sein Text richtig ist?
Naja, Schüler*innen möchten das. Die haben ein profundes Interesse daran, dass keine Rechtschreibfehler drin sind. Microsoft stellt sich aber sicher die Frage: Wie viel ist denen das denn wert? Schüler*innen haben keine Kaufkraft und die Eltern werden ihnen nicht die KI-Korrektur bezahlen für Hausarbeiten. Korrektorat auf hohem Niveau zu entwickeln und zu machen, ist teuer und dauert. Ich finde es ja absurd, wenn man den Co-Piloten von Microsoft bittet, einen Text zu korrigieren, und dann kriegt man Vorschläge, wohin man den Text hochladen soll – auf irgendwelche anderen Services.

In Word wäre es immerhin gut integriert, denn damit schreiben ja fast alle. Obwohl wir den Änderungen-nachverfolgen-Modus auch furchtbar finden …
Der Änderungen-nachverfolgen-Modus ist nicht unbedingt intuitiv. Er ist aber so eine Art Industriestandard. Alle kennen ihn, auch wenn ihn niemand liebt. Und er ist auch technisch robust. Ich kann mich darauf verlassen, dass jeder so ein Dokument öffnen und bei sich anzeigen lassen kann. Das war der Grund, warum wir uns dazu entschieden haben, diesen Modus zu verwenden. Da muss niemand irgendwas installieren und man muss nicht extra auf eine weitere Homepage gehen. Man kann das Dokument jemand anderem geben, auf dem USB-Stick speichern, archivieren – und wenn man es in zwanzig Jahren wieder aufmacht, ist halt trotzdem alles da.

Und wo steht das Textkorrektorat in, sagen wir mal, zehn Jahren?
Ich scheue mich ja sehr vor solchen Prognosen. Aber was ich mich traue zu sagen, ist, dass die Entwicklung der KI-Modelle weiter rasant fortschreiten wird. Im Korrektorat habe ich gesehen, wie viel besser wir in den letzten zwei Jahren geworden sind. Da ist auch kein Ende in Sicht. Wir werden sehr bald auf einem Niveau sein, wo wir beim rein sprachlichen Korrektorat besser sind als fast alle Korrektor*innen.

Und was machen dann die menschlichen Korrektor*innen?
Das ist natürlich ein sehr sensibles Thema. Ich denke, Korrektor*innen müssen sich dieser Entwicklung stellen und einen konstruktiven Umgang damit finden, um wettbewerbsfähig zu bleiben. Ich bin überzeugt, dass Korrektor*innen heute schon mithilfe von KI wesentlich mehr Aufträge annehmen können – manche meiner Kund*innen tun genau das. Und man kann das Korrektorat dadurch auch zu einem niedrigeren Preis anbieten und damit neue Zielgruppen erschließen. Oder eine Hybridlösung schaffen: Die KI macht Korrekturvorschläge und die menschliche Korrektor*in schaut noch mal drüber. Ich glaube, es wäre klug, sich solche Formen der Mensch-Maschine-Interaktion zu überlegen. Es ermöglicht neue Angebote und schafft zeitliche Freiräume für andere Arbeiten am Text, für die Higher-Level-Concerns. Man kann dann stilistisch arbeiten, an der Kohärenz, am Tempo und an all diesen Dingen, die einen Text wirklich besser machen.

 


Seminare Icon

Neugierig geworden?

Wir von IMKIS lieben es, Entwicklungen rund um Kommunikation und Sprache zu durchleuchten – und geben dieses Wissen auch in Seminaren weiter. Vielleicht finden auch Sie etwas in unserem Portfolio?

UNSERE SEMINARE

Tipp aus der Forschung: Danke statt Sorry!

Was kommt besser an, wenn man sich verspätet hat: eine Entschuldigung oder ein Dankeschön für die Geduld? Die Forschung liefert dazu interessante Ergebnisse. Wir nennen ein paar nette Details.

Von Katrin Liffers

Wenn etwas nicht nach Plan verläuft, bitten die meisten Menschen reflexartig um Entschuldigung – für die Verspätung, den umgekippten Kaffee oder die falsch berechnete Bilanz. Daran ist auch nichts falsch. Es kann jedoch noch besser sein, ein Danke zu äußern für das Verständnis oder für die Geduld des anderen. Eine Studie US-amerikanischer und chinesischer Marketingforscher zeigt jedenfalls, dass ein Dankeschön in solchen Situationen wirkungsvoller sein kann.

Der Grund? Eine Entschuldigung lenkt den Fokus auf den eigenen Fehler und die Unannehmlichkeiten für den anderen. Ein Dankeschön („Vielen Dank, dass Sie auf mich gewartet haben!“) hingegen hebt die positiven Eigenschaften des anderen hervor, wie zum Beispiel seine Geduld oder sein Verständnis. Das stärkt das Selbstwertgefühl und rückt die Probleme in den Hintergrund.

Aber aufgepasst: Voreiliges oder inflationäres Bedanken kann auch den gegenteiligen Effekt auslösen, wie die Studie hervorhebt. Das ist zum Beispiel in Situationen der Fall, in denen die andere Person gar keine Wahl hat. Ein „Danke, dass du das machst!“ kann schnell anmaßend wirken – nach dem doch sehr unschönen Motto: „Bitte, danke!“


Seminare Icon

Neugierig geworden?

Wir von IMKIS lieben es, Entwicklungen rund um Kommunikation und Sprache zu durchleuchten – und geben dieses Wissen auch in Seminaren weiter. Vielleicht finden auch Sie etwas in unserem Portfolio?

UNSERE SEMINARE

Schlecht gebrieft geht’s meistens schief!

Gut gebrieft dagegen ist halb gewonnen: Wer genau weiß, was er schreiben soll, tut sich leichter und erzielt die besseren Ergebnisse. Aber welche Informationen sollte man beim Briefing immer austauschen? Wir haben eine Systematik dafür!

Von Hannah Molderings

1. Ziel: Worum geht’s?

Ein unpräzises Briefing ist wie eine Fahrt ohne Ziel: Man braust los, aber wohin eigentlich? Je genauer das Ziel definiert ist, desto treffsicherer wird der Text. Mit diesen Fragen ist die Richtung von Anfang an klar:

• Was soll der Text bewirken? Soll er informieren, überzeugen oder unterhalten?
• Welche Reaktion wird angestrebt? Soll die Leserschaft sich eine Meinung bilden, etwas Neues lernen oder direkt handeln?

2. Zielgruppe: Wen soll der Text erreichen?

Eine klare Vorstellung von der Leserschaft ist entscheidend für den Erfolg des Textes. Dabei geht es vor allem um Wissen und Einstellung zum behandelten Thema:

• Welche Vorkenntnisse hat die Zielgruppe?
• Welche Haltung oder Meinung zum Thema herrscht in der Zielgruppe vor?

3. Kernbotschaft: Was soll hängenbleiben?

Damit ein Text prägnant wird, braucht er eine genaue Stoßrichtung. Wenn die von Anfang an klar ist, streut der Text inhaltlich nicht in verschiedene Richtungen. Das Briefing sollte daher präzise klären:

• Welche Kernbotschaft soll unbedingt ankommen?
• Welcher Tenor soll den Text prägen? Neutral, begeistert, kritisch?
• Welche Haltung zum Thema soll transportiert werden?

4. Reflexionsgrad: Wie soll an das Thema des Textes herangegangen werden?

Jeder Inhalt kann auf drei unterschiedlichen Ebenen bearbeitet werden, den sogenannten Reflexionsgraden: auf der Wissensebene, der Bewertungsebene und der Handlungsebene. Nicht jede Textsorte verlangt die Bearbeitung aller drei Ebenen. Fragen Sie sich deshalb vorher:

• Soll der Text den Inhalt nur neutral-beschreibend darstellen?
• Soll der Text den Inhalt auch bewerten und Stellung beziehen?
• Soll der Text sogar eine Handlungsempfehlung aussprechen?

5. Detailgrad: Wie genau muss es sein?

Nicht jeder Text braucht eine Flut an Zahlen und Details – mal reicht eine grobe Einordnung, mal ist Präzision gefragt. Wer das von Anfang an festlegt, vermeidet spätere Korrekturschleifen:

• Soll der Text nur eine grobe Einschätzung liefern oder mit exakten Zahlen arbeiten?
• Welche Argumente und Fakten müssen auf jeden Fall rein?
• Gibt es bestimmte Quellen oder Daten, die zwingend genannt werden müssen?

6. Ausarbeitungsgrad: Wie weit gehe ich?

Steinbruch oder Druckfertigkeit? Nicht jeder Text soll bereits perfekt und bis auf die Zeilenumbrüche genau ausgearbeitet werden. Manchmal geht es nur um eine erste Skizze, manchmal um einen Baustein für ein größeres Projekt. Je genauer der gewünschte Ausarbeitungsgrad definiert ist, desto weniger Nachbesserungen sind nötig und desto weniger Arbeit machen Sie umsonst:

• Dient der Text nur als Hintergrundmaterial oder soll er genau so veröffentlicht werden?
• Wird eine grobe Ideensammlung, ein erster Entwurf oder eine ausgearbeitete Endfassung erwartet?
• Ist der Text als eigenständiges Stück konzipiert oder wird er in einen größeren Kontext eingebunden?

7. Fristen und Formalia: Wie sind die Vorgaben?

Bestimmte Formalia müssen am Anfang des Schreibprozesses geklärt werden. Dabei geht es natürlich ums Format – aber auch Länge, Struktur und Abgabemodalitäten spielen eine Rolle:

• Bis wann genau muss der Text geliefert worden sein?
• In welcher Form wird der Text gewünscht? Word-Dokument, Powerpoint-Präsentation oder offen in einer E-Mail?
• Welche Formatierungsvorgaben gibt es? Zeichen- oder Seitenbegrenzung, spezielle Layoutwünsche? Fließtext oder Stichpunkte?

Fazit: Ein gutes Briefing spart Zeit, Nerven und Korrekturen
Ein präzises Briefing ist kein überflüssiger Formalismus, sondern die Grundlage für einen produktiven Schreibprozess. Wer am Anfang alle wichtigen Fragen klärt, sorgt dafür, dass der Text nicht nur schneller fertig wird, sondern auch genau ins Schwarze trifft.

 


Seminare Icon

Neugierig geworden?

Wir von IMKIS lieben es, Entwicklungen rund um Kommunikation und Sprache zu durchleuchten – und geben dieses Wissen auch in Seminaren weiter. Vielleicht finden auch Sie etwas in unserem Portfolio?

UNSERE SEMINARE

Spicken erlaubt: Schreibhilfe zum Download

Wie lang ist noch mal der Bis-Strich, zum Beispiel bei Jahresangaben? Ist das der Gedankenstrich? Solche orthografischen und typografischen Detailfragen kann man ganz fix auf unserem einseitigen Spickzettel nachschlagen.

Von Hannah Molderings

Wie lang ist noch mal der Bis-Strich, zum Beispiel bei Jahresangaben? Ist das der Gedankenstrich? Solche orthografischen und typografischen Detailfragen kann man ganz fix auf unserem einseitigen Spickzettel nachschlagen.

Unsere Spickzettel haben wir bei Präsenzveranstaltungen gedruckt auf dickem Karton als Geschenk dabei. Aber man kann sich seinen Spickzettel auch einfach hier herunterladen und ausdrucken – dann legt man ihn unter die Schreibtischauflage oder pinnt ihn an die Wand hinterm Monitor. 🦊

Download (PDF, 628 KB)

So sieht der Spickzettel im Ganzen aus:

Und hier nur die erste Spalte, um ein Beispiel zu zeigen:

 

 


Seminare Icon

Neugierig geworden?

Wir von IMKIS lieben es, Entwicklungen rund um Kommunikation und Sprache zu durchleuchten – und geben dieses Wissen auch in Seminaren weiter. Vielleicht finden auch Sie etwas in unserem Portfolio?

UNSERE SEMINARE

So landet der Emoji schneller im Text

🪂 Diesen Fallschirmspringer haben wir mit einer coolen Tastenkombination einfliegen lassen: Windows-Taste + Punkt. Mit diesem Shortcut öffnet sich eine riesige Auswahl an Emojis und Sonderzeichen. Das erlöst uns in vielen Anwendungen vom nervigen Copy & Paste.

Von Katrin Liffers

In welchen Programmen funktioniert der Shortcut?
Die Tastenkombination Windows + Punkt öffnet ein Panel, das in vielen weitverbreiteten Anwendungen genutzt werden kann, natürlich in Textverarbeitungsprogrammen wie Word, Google Docs, LibreOffice oder OpenOffice. Aber auch in E-Mail-Programmen wie Outlook oder Thunderbird und im Webbrowser (Chrome, Edge, Firefox etc.) lassen sich damit Emojis und diverse Sonderzeichen und Symbole direkt einfügen. Und bei vielen Apps mehr: einfach ausprobieren! Bitte bedenken Sie aber, dass der Gebrauch von Emojis unsere Texte zwar bunter und persönlicher macht. Er eignet sich aber nicht fürs bewusst seriöse Schreiben!

Wie sehen die Emojis in den Apps aus?
Manche Programme nutzen ihre eigenen Emoji-Fonts; dann sehen die Emojis etwas anders aus. Bei älteren und/oder extrem einfachen Anwendungen werden die Zeichen nur schwarz-weiß oder sogar nur als quadratisches Kästchen (⬜) angezeigt.

Auswahl an verfügbaren Zeichen:
Diese und weitere Zeichen finden Sie über den Befehl:

‣ · – — → ← ↑ ↓ § ¶ © ® ™ ∞ ≈ ≠ ≤ ≥ √ ∑ π Δ □ ■ ○ ● ★ ☆ ♠ ♣ ♥ ♦ ✓ ✗

⌚⌨☹♠♣♥♦⚒⚓⚖⚙⚽⚾⛏⛓⛪⛰⛲⛳⛵⛷⛸⛹✈️🀄🃏🌋🎙🎚🎛🎣🎥🎬🎮🎰🎱🎲🎾🎿🏀🏂🏄🏇🏈🏉🏊🏋🏌🏍🏎🏏🏐🏑🏒🏓🏔🏕🏖🏗🏘🏚🏛🏜🏝🏞🏟🏠🏡🏢🏣🏤🏥🏦🏨🏩🏪🏫🏬🏭🏯🏰🏷🏸🏹💎💒💡💰💳💴💵💶💷💸💻💽💾💿📀📖📚📝📡📰📱📲📺📻📽🔋🔌🔑🔖🔗🔦🔧🔨🔩🕌🕍🕯🕹🖥🖨🖱🖲🖼🗜🗝🗞🗺🗻🗼🗽🗿😀😁😂😃😄😅😆😉😊😋😍😎😏😐😑😓😕😖😗😘😙😚😛😜😝😞😟😠😡😢😣😤😥😨😩😪😫😭😮😯😰😱😲😳😴😶🙁🙂🙄🚀🚁🚄🚅🚇🚉🚊🚌🚎🚐🚑🚒🚓🚕🚗🚙🚚🚛🚜🚢🚪🚲🚴🚵🛋🛌🛎🛏🛕🛖🛠🛢🛣🛤🛴🛵🛶🛷🛸🛺🤐🤓🤔🤗🤣🤤🤨🤩🤪🤬🤯🤸🤽🤾🤿🥊🥋🥍🥎🥰🥱🥵🥶🧐🧩🧭🧯🧰🪁🪂🪑🪓🪔

 


Seminare Icon

Neugierig geworden?

Wir von IMKIS lieben es, Entwicklungen rund um Kommunikation und Sprache zu durchleuchten – und geben dieses Wissen auch in Seminaren weiter. Vielleicht finden auch Sie etwas in unserem Portfolio?

UNSERE SEMINARE

Neue Studie weckt Zweifel am Zweifel

Sind selbstbewusste Experten überzeugender als zweifelnde? Die Intuition sagt ja. Doch vor 15 Jahren zeigte eine vielbeachtete Studie: Etwas Unsicherheit steigert die Glaubwürdigkeit eher. Eine neue Studie zweifelt aber wiederum an dieser These …

Von Katrin Liffers

Stellen Sie sich vor, Sie sitzen in einem Restaurant und studieren die Speisekarte. Am Nebentisch sitzt zufällig ein bekannter Restaurantkritiker. Sie sind neugierig und fragen ihn nach seiner Einschätzung. Was würde Sie mehr überzeugen – wenn er mit absoluter Gewissheit „Das Rinderfilet hier ist definitiv erstklassig!“ sagt oder wenn er nachdenklich meint: „Ich war erst einmal hier, aber ich glaube, das Rinderfilet ist wirklich gut“?

Vermutlich vertrauen wir doch Menschen mehr, die sich ihrer Sache sicher sind! Wer glaubt schon einem zaudernden Ratgeber? Doch die Forschung hat diese intuitive Vermutung vor 15 Jahren widerlegt: 2010 stellten zwei Forscher diese Annahme auf den Kopf. Die These von Uma Karmarkar und Zakary Tormala (University of California) lautete damals: Gerade bei Experten wirkt ein Quäntchen Unsicherheit überzeugender.

Die Kraft der Unsicherheit

Doch stimmte wiederum diese These? Ein anderes Forscherteam um Erik Løhre von der BI Norwegian Business School wollte es zusammen mit Kolleg*innen der Singapore Management University und der University of Massachusetts im vergangenen Jahr genau wissen. Ihre kürzlich im „Journal of Experimental Social Psychology“ veröffentlichte Studie zeigt: Die „Kraft der Unsicherheit“ lässt sich nicht bestätigen. Im Gegenteil: Sowohl bei Experten als auch bei Laien waren selbstbewusste Aussagen überzeugender als zweifelnde.

Wie lässt sich dieser Widerspruch erklären? Die Forschenden vermuten, dass sich seit 2010 einiges verändert hat. In Zeiten von sozialen Medien und vielen Fake News seien wir skeptischer gegenüber Unsicherheit geworden. Wenn selbst Experten zweifeln: Wem können wir dann noch vertrauen?

Interessanterweise spielte auch die Persönlichkeit derer, die zuhörten, kaum eine Rolle. Die Forschenden vermuteten ursprünglich, dass Menschen mit einem hohen Bedürfnis nach klaren Antworten besonders allergisch auf Unsicherheit reagieren würden. Doch diese These bestätigte sich nicht.

Zweifel sind oft richtig und wichtig

Sollen Experten also nie mehr Zweifel äußern? So einfach ist es nun auch nicht. Die Studie zeigt zwar, dass selbstbewusstes Auftreten generell überzeugender wirkt. Aber es gibt Situationen, in denen ehrlich kommunizierte Unsicherheit wichtig und richtig ist – wenn etwa die Datenlage unklar ist oder verschiedene Interpretationen möglich sind.

Entscheidend ist der Kontext: Geht es um eine simple Restaurant-Empfehlung, mögen wir klare Ansagen bevorzugen. Bei komplexeren Themen wie Klimawandel oder Pandemie-Maßnahmen kann ein offener Umgang mit Unsicherheiten durchaus Vertrauen schaffen.

Die Studie regt auch zum Nachdenken an: Sicherlich liegt die Kunst der Expertise nicht darin, entweder immer selbstbewusst oder immer zweifelnd aufzutreten. Sondern darin, situationsangemessen zu kommunizieren – mal mit klarer Kante, mal mit nachdenklicher Differenzierung.

Eines jedenfalls zeigt die Forschung deutlich: Selbst simple Annahmen halten einer genauen Überprüfung nicht immer oder auf Dauer stand. Und das ist vielleicht die wichtigste Erkenntnis: Auch in der Wissenschaft braucht es den Mut, liebgewonnene Theorien kritisch zu hinterfragen. Es lebe der Zweifel!


Seminare Icon

Neugierig geworden?

Wir von IMKIS lieben es, Entwicklungen rund um Kommunikation und Sprache zu durchleuchten – und geben dieses Wissen auch in Seminaren weiter. Vielleicht finden auch Sie etwas in unserem Portfolio?

UNSERE SEMINARE

Topic Sentences: Wozu sind sie gut?

Für die Gliederung von Texten gibt es Strukturprinzipien, etwa den Gutachtenstil oder die Chronologie. Einzelne Absätze schreiben wir hingegen meist ohne jedes Prinzip. Das ist in den USA anders. Wir zeigen, wie dort der Absatzaufbau gelehrt wird.

Von Hannah Molderings

An amerikanischen Highschools und Colleges wird das Schreiben von Absätzen oft als zentraler Bestandteil des Schreibunterrichts vermittelt. An einigen Highschools kommen dabei praktische Übungen zum Einsatz, die visuelle Hilfsmittel beinhalten – ein Beispiel ist ein sogenanntes „Traffic Light System“. Bei dieser Methode markieren Schüler*innen den einleitenden Satz (Topic Sentence) beispielsweise grün, den Hauptteil (Supporting Sentences) gelb und den abschließenden Satz (Closing Sentence) rot, um die Struktur des Absatzes auf einen Blick erkennbar zu machen.

Auf College-Ebene wird der Absatzaufbau in der Regel weitergehend analysiert und verfeinert. Manche Schreibzentren wenden dabei Techniken wie das „Reverse Outlining“ an. Dabei extrahieren Studierende aus einem fertigen Text die Topic Sentences, um zu überprüfen, ob diese in der richtigen Reihenfolge einen schlüssigen roten Faden ergeben. Diese Methode kann dabei helfen, die Logik der eigenen Argumentation zu reflektieren und zu verbessern. 

Schauen wir uns an einem konkreten Beispiel an, wie so ein gut strukturierter Absatz aussieht:

Topic Sentence:
Kaffee kann mehr als nur wach machen.

Supporting Sentences:
Studien zeigen, dass regelmäßiger Kaffeekonsum das Risiko für Herzkrankheiten und bestimmte Krebsarten senken kann. Gleichzeitig steigert er die Konzentration und Produktivität. Neueste Forschungen weisen auch darauf hin, dass Kaffeetrinker ein geringeres Risiko für Typ-2-Diabetes und Lebererkrankungen haben. Besonders bemerkenswert ist dabei, dass diese positiven Effekte bereits bei moderatem Konsum von zwei bis drei Tassen täglich eintreten.

Closing Sentence:
Kein Wunder, dass Kaffee für viele unverzichtbar ist – er ist ein echter Alltagsheld.

In diesem Beispiel weckt der Topic Sentence zunächst Interesse. Er kündigt auch an, dass wir über verschiedene Wirkungen von Kaffee sprechen werden. Die Supporting Sentences liefern dann ausführlichere Informationen zum bereits angedeuteten Thema. Der Abschlusssatz fasst die Kernbotschaft schließlich zusammen und rundet den Absatz ab.


Seminare Icon

Neugierig geworden?

Wir von IMKIS lieben es, Entwicklungen rund um Kommunikation und Sprache zu durchleuchten – und geben dieses Wissen auch in Seminaren weiter. Vielleicht finden auch Sie etwas in unserem Portfolio?

UNSERE SEMINARE

Gepuscht, gelikt, gefakt: Anglizismen richtig schreiben

Der Rat für deutsche Rechtschreibung hat die Regeln zur korrekten Schreibung von Anglizismen erneut verändert. Wer es sich einfach machen will, passt sie knallhart an die deutsche Grammatik an – obwohl das manchmal fremd aussieht und die Aussprache konterkariert. Wir zeigen Beispiele und nennen die Regeln dazu.

Von Stefan Brunn

Wenn man Anglizismen verwendet, muss man wissen, wie man sie richtig in die deutsche Sprache überträgt. Das ist manchmal gar nicht so einfach.

Erster Bereich: Substantive, dazu drei Regeln:
•   Substantive werden (anders als im Englischen) immer groß geschrieben: Download
•   Bei Wörtern, die auf y enden, wird der Plural mit -ys gebildet, nicht mit -ies: Babys
•   Endet das Wort auf -er, dann gibt es keine Plural-Endung: Newsletter

Zweiter Bereich: zusammengesetzte Anglizismen. Hier gilt: zusammenschreiben! Entweder in einem Wort oder gekoppelt durch Bindestrich.
•   bei zwei Substantiven: Fulltimejob oder Fulltime-Job
•   bei Adjektiv und Partizip: hardwareabhängig oder Hardware-abhängig
•   bei Prädikat und Partikel: Knowhow oder Know-how

Dritter Bereich: die Schreibweise von Eigennamen und Fachbegriffen. Eigennamen, etwa Tower Bridge, werden nicht verändert! Das gilt aber wirklich nur für Eigennamen, damit sind nicht Fachwörter wie Collapse-Zone oder dergleichen gemeint. Will man diese unbedingt in der ursprünglichen Schreibweise belassen, verwendet man Anführungszeichen wie hier: „collapse zone“.

Vierter und letzter Bereich: die Schreibweise der Flexionsendungen von Fremdwörtern aus dem Englischen. Paragraf 21 des amtlichen Regelwerks sagt, dass Flexionsendungen in der Regel an die deutsche Laut-Buchstaben-Zuordnung angepasst werden.
Beispiele:
•   gepuscht
•   gelikt
•   gefakt
•   gejobbt
•   getimt

Weil das aber bisweilen ziemlich doof aussieht und überhaupt nicht zur Aussprache passt, lässt der Rat in manchen Fällen auch die der Herkunftssprache entsprechende Flexionsendung zu. Das aber gilt erstens nur bei Verben, deren Infinitive im Englischen auf ein stummes e enden. Formulierungen wie geliked oder gefaked wären also auch erlaubt.

Allerdings hört diese Freiheit dort ohnehin wieder auf, wo die Partizipien flektiert oder gesteigert werden. Dann ist wiederum ausschließlich die deutsche Endung zulässig:
•   gefakte Nachricht
•   relaxter als erlaubt

Kurzum: Wer englische Verben in einem deutschen Satz verwendet, passt sie knallhart an unsere Grammatik an, also faken, gefakt, fakende, gefakter. Man ist damit immer auf der korrekten Seite.


Seminare Icon

Neugierig geworden?

Wir von IMKIS lieben es, Entwicklungen rund um Kommunikation und Sprache zu durchleuchten – und geben dieses Wissen auch in Seminaren weiter. Vielleicht finden auch Sie etwas in unserem Portfolio?

UNSERE SEMINARE

Was zum Teufel ist ein Token?

Die Länge von Texten bemisst sich in Wörtern oder Zeichen, Zeilen oder Seiten. So war es bisher. In KI-Zeiten scheitern Textaufgaben aber oft daran, dass zu viele Token das sogenannte Kontextfenster überfordern. Aber was sind diese Token eigentlich?

Von Stefan Brunn

Es war einmal ganz einfach: Die Länge eines Textes (etwa des vorhergehenden Absatzes) konnte man nachzählen oder sich im Textverarbeitungsprogramm anzeigen lassen: 38 Wörter. Die Zeichenzahl inklusive Leerzeichen war oft das genauere Maß, mit dem man sich über eine vorgesehene Textlänge austauschen konnte. Nun ist eine andere Maßeinheit aufgetaucht, die immens wichtig ist für Textaufgaben, die man mithilfe von KI lösen will: die sogenannten Token.

Token sind die kleinste Grundeinheit, die KI-Modelle verwenden, um Texte aufzuteilen und zu verarbeiten. Diese Einheit ist aus mindestens zwei Gründen für alle relevant, die sich beim Schreiben von KI helfen lassen – und sei es nur in Form eines Korrektorats:

  1. Die Menge der verarbeitbaren Token ist je nach Modell oder sogar Aufgabe unterschiedlich. Viele Aufgaben lassen sich einfach nicht lösen, wenn zu viele Token dafür erforderlich wären. Zum Beispiel kann man in die meisten Chatfenster zwar 100-seitige PDF einspeisen – bloß wird der Inhalt dann nicht komplett verarbeitet. Wer also zum Beispiel nach irgendeinem Detail darin sucht, wird es nicht finden, weil die KI gar nicht so weit kommt. Die Menge an Token macht quasi das Gedächtnis der KI-Abfrage aus. Dabei zählen sowohl der Prompt als auch zusätzlich eingegebene Hintergrundinformationen und letztlich natürlich das erzeugte Textergebnis mit. Wenn das Eingabefenster (eher ist es das „Kontextfenster“) ein Maximum von 128.000 Token hat, man aber einen Text mit 100.000 Token eingibt, dann kann natürlich kein korrigierter Text mit 100.000 Token ausgespuckt werden.
  2. So wie früher freie Journalist*innen von Zeitungen oft nach geschriebenen Zeilen bezahlt wurden, bezahlen User heute oft nach genutzten Token, vor allem, wenn sie über eine Schnittstelle (API) darauf zugreifen. Das ist allerdings viel undurchsichtiger, weil zum Beispiel bei fortgeschrittenen Modellen auch der mehrfache Zugriff auf den Text („Reasoning“) kostet.

Überhaupt ist die Komplexität ein Token-Problem. Wie viele Token ein Text enthält, ist viel schwieriger zu ermitteln als bei Wörtern oder Zeichen. Es sind jedenfalls nicht die Buchstaben oder Silben, auch Satzzeichen oder Emojis zählen mit. Schon ein Wort wie „Hallo“ ist schwierig zu messen – das englische „hello“ hat 1 Token, das deutsche „hallo“ 2 Token. Sehen Sie es gerne im Tokenizer von OpenAI nach!

Es helfen einem aber Faustformeln oder Schätzwerte wie: Ein Wort im Deutschen macht ungefähr 1,75 Token aus. Auch kann man seinen Text von darauf spezialisierten Maschinen auszählen lassen. Wir von IMKIS haben einen eigenen Zeichenzähler programmiert, der sowohl Zeichen als auch Wörter und geschätzte Token für das Deutsche angibt. Um herauszufinden, ob eine bestimmte Aufgabe überhaupt mengenmäßig machbar ist, reicht das oft aus.

Wie viel Text passt nun in eine normale Textanfrage bei ChatGPT oder anderen Modellen? Hier die Rechnung an einem stark gerundeten Beispiel, nämlich einer Standardseite im Format DIN A4 mit 30 Zeilen je 60 Anschlägen – das ist das, was man in Redaktionen früher ein „Blatt“ nannte:

  • 1 Seite (oder eben „Blatt“)
  • 30 Zeilen (je 60 Zeichen)
  • 1.800 Zeichen inklusive Leerzeichen
  • etwa 270 Wörter
  • etwa 400 Token (im Deutschen)

Wer bei ChatGPT in das Fenster des Modells 4o etwas eingibt, dem stehen (Stand 1. Januar 2025) etwa 8.000 Token zur Verfügung. Wenn man also 10 Seiten nach obiger Definition zum Korrigieren eingibt, könnte man nicht mehr die Ausgabe des korrigierten Textes erwarten – man braucht ja auch noch einen Prompt. Oder, anders herum erklärt: Ich kann der KI 6 Seiten Ausgangstext liefern, dazu 2 Seiten mit genauer Aufgabenbeschreibung und 6 Seiten mit Regeln als PDF – und würde noch 6 korrigierte Seiten herausbekommen können: 20 Seiten mal 400 Token = 8.000 Token. Nachfragen dürfte ich dann allerdings nicht mehr stellen beziehungsweise ich dürfte jedenfalls nicht mehr damit rechnen, dass die KI sie noch adäquat beantwortet. 😉

Wer eine 30-seitige Studie ins Kontextfenster eingibt und die Ausgabe eines perfekt korrigierten Textes erwartet, wird derzeit noch enttäuscht werden. Allerdings prahlen die ersten Large Language Models schon damit, dass sie 100 Millionen Token verarbeiten können (siehe LLM Magic LTM 2 mini). Wie schnell wir diese Modelle für unsere Texte nutzen können und wie gut dann die Ergebnisse sind, steht aber noch in den Sternen. Im Moment muss man längere Texte oft noch teilen oder sich Tricks einfallen lassen …

 


Seminare Icon

Neugierig geworden?

Wir von IMKIS lieben es, Entwicklungen rund um Kommunikation und Sprache zu durchleuchten – und geben dieses Wissen auch in Seminaren weiter. Vielleicht finden auch Sie etwas in unserem Portfolio?

UNSERE SEMINARE