Schlagwort: schreiben

Selber, selber, lachen alle Kälber!

Wann sagt man „selbst“, wann „selber“? In geschriebenen Texten sollte es fast immer „selbst“ heißen. Es gibt aber Ausnahmen.

Von Stefan Brunn

Falls Sie sich manchmal fragen, wo eigentlich der Unterschied zwischen „selbst“ oder „selber“ liegt, dann seien Sie beruhigt: Semantisch gibt es gar keinen, die Wortbedeutungen sind gleich. Allerdings finden Sie in einschlägigen Stilratgebern den Rat, schriftlich immer nur „selbst“ zu schreiben. „Selber“ klingt umgangssprachlich und kommt manchem deshalb zu informell vor.

So weit, so gut. Es gibt aber einige wenige Ausnahmen, wir nennen hier mal zwei:

1. In feststehenden Kompositionen
In einigen Kompositionen ist „selber“ geläufiger als „selbst“ – etwa beim „Selbermachen“. Warum das so ist? Keine Ahnung! Aber so wie „Selbstgemachtes“ geläufiger ist als „Selbergemachtes“, ist „Selbermachen“ einfach verbreiteter als „Selbstmachen“.
2. In Kurzantworten
Es kommt fast nur im Mündlichen vor, dass wir jemandem auf eine Bemerkung mit so etwas antworten wie „Selber“ oder „Das musst Du schon selber machen“ oder „Merkste selber, oder?“. Aber wenn uns jemand beschimpft, dann passt die Ein-Wort-Antwort „selbst“ nicht, es muss „selber“ heißen!

Kurzum: Sie machen nichts falsch, wenn Sie schriftlich immer „selbst“ schreiben. Die beiden Ausnahmen fallen Ihnen garantiert ein, wenn Sie mal zufällig im Begriff sind, jemandem patzig zu antworten. 😉

Alles im grünen Bereich?

Mit dem Textometer hat IMKIS ein neues Tool entwickelt, das die Verständlichkeit von Texten bewertet – in Schuljahren und fünf Stufen von sehr einfach bis sehr schwierig. Das Tool kann kostenlos auf unserer Website oder lokal auf dem eigenen PC verwendet werden.

Von Hannah Molderings

Ausprobieren können Sie den Textometer direkt unter diesem Artikel oder auf textometer.de!

Möchte man die Verständlichkeit eines Textes überprüfen, kann man das unter anderem mit Verständlichkeits-Tools machen. Auf der Basis von mathematischen Formeln bewerten sie, wie (un)verständlich ein Text geschrieben ist. Der Vorteil dieser Tools: Ihre Ergebnisse sind objektiv und die Arbeit mit ihnen lässt sich ohne großen Aufwand in Arbeitsprozesse integrieren. Das hilft dabei, einen festgelegten Qualitätsstandard zu etablieren.

Bisher existierende Tools haben allerdings so ihre Schwachstellen. Manche sind nicht zuverlässig erreichbar, andere liefern unzuverlässige Verständlichkeitswerte und bei wieder anderen findet man das Eingabefeld vor lauter Werbung nicht.

Deshalb hat IMKIS in den letzten Monaten mithilfe Künstlicher Intelligenz ein eigenes Verständlichkeits-Tool entwickelt – den Textometer. Er liefert zuverlässig schlüssige Ergebnisse, ist intuitiv bedienbar und komplett werbefrei. Man kann sogar die Seite auf dem eigenen Rechner abspeichern und die Maschine lokal benutzen – das ist ein großer Vorteil für alle, die ihre Texte nicht im Internet eingeben wollen oder dürfen. Die Datenmenge des Downloads ist verschwindend gering, zuletzt lagen wir bei unter 50 Kilobyte!

Im Folgenden beantworten wir weitere wichtige Fragen:

Wie funktioniert der Textometer?
Der Textometer misst die Verständlichkeit von Texten auf der Basis einer Formel, die wir von IMKIS entwickelt haben. Ihr Ergebnis haben wir Brunn-Liffers-Index (BLIX) genannt. Die Formel selbst ähnelt klassischen Verständlichkeitsformeln, vereinfacht aber die Wortzählung (nur in Buchstaben) und bewertet lange Wörter erst ab einer Länge von 15 Buchstaben als schwer verständlich. Dieser Unterschied hat zur Folge, dass ein Text auch dann noch als einfach bewertet wird, wenn er unvermeidbar sperrige Wörter enthält. Die genaue Formel des BLIX ist kein Geheimnis – sie lautet: [Anzahl aller Wörter/Anzahl aller Sätze] + [Anzahl langer Wörter x 100/Anzahl aller Wörter]

Wie kommen die Einstufung nach Schuljahren und das beurteilte Verständlichkeitsniveau zustande?
In der Praxis hat es sich als sinnvoll erwiesen, den Benutzenden möglichst einfache Rückmeldungen zu ihren Texten zu geben. Der eine Wert, die Schuljahre, erleichtert die Zuordnung zu Niveaus aus dem realen Leben. Er gibt an, wie viele Schuljahre eine Person absolviert haben muss, damit sie den vorliegenden Text versteht. Der andere Wert, das Niveau in Worten, erleichtert es, sich selbst oder anderen Personen Zielvorgaben zu machen. Wir benutzen in unseren Seminaren sehr häufig eine der beiden Größen, um Texte besser zu machen. Zustande kommen die Rückmeldungen durch eine Einstufung nach dem gemessenen BLIX-Wert.

BLIX und Textometer insgesamt sind eine Gemeinschaftsentwicklung der beiden Germanisten Katrin Liffers und Stefan Brunn mit der Kognitionswissenschaftlerin Hannah Molderings und dem Datenjournalisten Sebastian Mondial.

Ausprobieren kann man den Textometer hier:

Unser Seminar: Einführung in das Schreiben mit KI

Künstliche Intelligenz verändert unsere Schreibprozesse in zunehmendem Maße. Unser Seminar legt die Verständnisgrundlagen, gibt einen Einblick in unterschiedliche KI-Tools und übt Schreibaufgaben ein. Nächster Termin: 9. Mai.

In unserem Seminar schaffen wir einen Überblick über die Möglichkeiten des Schreibens mit Künstlicher Intelligenz. Dazu blicken wir in einzelne Apps hinein und probieren sie aus, sehen uns viele Anwendungsfälle an und hinterfragen sie kritisch. Zudem vermitteln wir die wichtigsten Grundkenntnisse darüber, wie Inhalte und Sprache von der KI geformt werden und was das für die so entstandenen Texte bedeutet.

Wenn wir mit KI Texte verfassen, geht es nicht nur um Sprache – die ja mit KI in der Regel gut klingt. Das ist auch der Grund für den berühmten Eliza-Efekt, den wir im Seminar erklären. Es geht auch um Informationen und den Kontext der Schreibaufgabe. Beides ist für Maschinen, und nichts anderes sind ChatGPT & Co., viel schwieriger zu bewerkstelligen. Das hat für einen professionellen Umgang mit KI vielfältige Konsequenzen, die wir in unserem Seminar an vielen praktischen Beispielen aufzeigen.

Ein anderer wichtiger Aspekt in unserem Seminar ist die kritische Reflexion von KI-Apps. Manche Jobs erledigen sie unglaublich gut – IMKIS stellt das in Vergleichen immer wieder fest, zum Beispiel bei Korrektoraten, bei Transkripten oder bei Protokollen. In anderen Bereichen ist die KI (noch) unglaublich fehleranfällig oder sogar komplett unbrauchbar. Hier ein einziges Beispiel, stellvertretend für viele:

Die allermeisten Dialog-KIs versagen bei Rechercheaufgaben und können nicht mal einfachste Fragen wie die oben gezeigte richtig beantworten: Der VfL Gummersbach war in der fraglichen Saison nicht Deutscher Meister. Aber er war in den Jahren davor und danach oft Deutscher Meister. Und das erklärt, warum die KI auf diese Antwort kommt: Denn sie ist ein Wahrscheinlichkeitsautomat. Wenn wir uns aber derart wenig auf die von KI generierten Informationen verlassen können, warum sollten dann andere Fakten stimmen, die viel schwieriger als Fehlinformationen zu entlarven sind? Dieser und ähnlichen Fragen gehen wir in unserem Seminar intensiv nach.

Hier einige der Inhalte in Bulletpoints:

•   Überblick und Differenzierung: Wie wirkt sich der Einsatz von KI auf Texte aus?
•   Was ist Natural Language Processing, was sind Large Language Models?
•   Woher stammen die von einer Dialog-KI verwendeten Informationen?
•   Wo werden die Anfragen und Antworten gespeichert?
•   Potenziale einer besseren Information durch KI
•   Debunking, Debugging und Risikoreduktion
•   Überblick über Copywriting-Tools
•   Prompts: Wie formuliert man sinnvolle Anfragen?
•   Beispielhafte Anwendungen für Wirtschaft, Medien, Verwaltung und Politik
•   Ausblick: Was sind mögliche nächste Entwicklungsschritte für das Schreiben mit KI?

Das Seminar wird online mit Zoom durchgeführt und dauert einen Tag (9 bis 17 Uhr). Zu buchen ist es ganz unkompliziert über unsere Buchungsseite.

Kann KI unsere Texte redigieren?

Wir stehen vor einer weiteren Revolution des Schreibens, so viel ist seit der Veröffentlichung von ChatGPT klar. Aber wie gut kann die KI schon jetzt unsere Texte redigieren? Wir haben ein qualitatives Experiment gewagt.

Von Stefan Brunn

Alle Welt überbietet sich derzeit darin, die Leistungen Künstlicher Intelligenz mit menschlichen Leistungen zu vergleichen. Wir haben das natürlich auch getan. Das erste Experiment (richtige Informationen liefern) ergab ein klägliches Scheitern: Wir haben drei der neuen Bots gefragt, wer 1978 Deutscher Meister im Handball war. Da sollte ja eine richtige Antwort eigentlich drin sein. Aber alle drei Bots gaben fälschlich den VfL Gummersbach an, richtig ist aber der TV Großwallstadt. Woher die Bots ihre falsche Info hatten – intransparent!

In unserem zweiten kleinen Experiment ging es um die Sprache, genauer: ums Redigieren. Wir haben den Chatbot von You.com gefragt, ob er uns helfen kann:

Sowas hören wir natürlich immer gern! 😉 Also gaben wir ihm einen ziemlich verschachtelten Text, den wir auch in unseren Seminaren gelegentlich redigieren lassen:

Hm, so hatten wir uns das allerdings nicht gedacht, die Inhalte waren ja regelrecht verstümmelt worden! Wir insistierten sofort:

Immerhin: Der Bot hat nun überhaupt die Aufgabe verstanden und versucht, den Text zu redigieren. Gut redigiert ist er aber keinesfalls – vor allem sind die Gedanken darin nicht sauber strukturiert. Da wären wir viel schneller gewesen, wenn wir Gedanken und Sätze selbst neu arrangiert hätten!

Wir glauben trotzdem, dass uns Künstliche Intelligenz zukünftig beim Redigieren viel Arbeit abnehmen kann. Bis das aber sauber klappt, wird man sich noch ein bisschen aneinander gewöhnen müssen …

Ist Präteritum gleich Imperfekt?

„Sie schrieb mir gestern.“ In welcher Zeitform steht dieser Satz? Die einen nennen sie Imperfekt, die anderen Präteritum. Aber sind diese beiden Formen identisch und warum existieren dafür zwei Begriffe? Eine kurze Erklärung zu einer Zeitform, die in der gesprochenen Sprache beinahe ausgestorben ist.

Von Andrea Rayers

Wenn Sie gefragt werden: Welche Zeitform ist „ging“? Dann reicht es völlig aus, wenn Sie antworten: Imperfekt oder Präteritum. Im Alltag können Sie diese beiden Begriffe getrost synonym verwenden, wie es auch etliche Nachschlagewerke tun – Hauptsache, Sie grenzen sie von der zweiten Vergangenheitsform, dem Perfekt, ab. Fragen Sie hingegen einen Linguisten, wird der Ihnen in aller Regel antworten: „Wir sagen lieber Präteritum.“ Warum?

Imperfekt
Der Begriff Imperfekt stammt aus den romanischen Sprachen und bedeutet „unvollendete Vergangenheit“. Im Französischen zum Beispiel passt der Name „Imparfait“ gut: Damit werden sich wiederholende und andauernde Handlungen beschrieben, die noch nicht abgeschlossen sind und bis in die Gegenwart reichen. Im Deutschen ist das anders: „Ich ging über die Straße“ heißt nun mal, dass das Ereignis schon abgeschlossen ist und keineswegs „unvollendet“.

Präteritum
Das Präteritum entstammt dem Lateinischen und bedeutet schlicht „vergangen“. Und das drückt eben viel besser aus, was das Präteritum soll: eine Handlung skizzieren, die nicht unvollendet ist und bis in die Gegenwart reicht, sondern abgeschlossen hinter uns liegt.

Ob Präteritum oder Imperfekt: In der gesprochenen Sprache wird diese Vergangenheitsform heute ohnehin kaum noch gebraucht – höchstens bei Modal- und Hilfsverben wie „war“, „musste“, „hatte“ oder „sollte“. Nicht umsonst lernen Kinder den Unterschied so: Das Präteritum ist die schriftliche Vergangenheitsform, das Perfekt die mündliche.

Wann kommt zwischen Adjektive ein Komma?

Was gefällt Ihnen besser: das historische, prunkvolle Schloss oder die bekannte italienische Brücke? Als Weltenbummler:in haben Sie die Wahl, als Redakteur:in nicht: Ob ein Komma zwischen die Adjektive kommt, dafür gibt es klare Regeln. Wir verraten Ihnen eine Faustformel, mit der Sie sich den Unterschied leicht merken können.

Von Andrea Rayers

Ob zwei Adjektive durch ein Komma voneinander getrennt werden, richtet sich nach der Frage: Sind diese Adjektive gleichrangig oder nicht?

Mit Komma
Ein Komma brauchen wir bei gleichrangigen Adjektiven. Gleichrangig bedeutet, dass sich alle Adjektive in gleichem Maß auf das Substantiv beziehen, wie in einer Aufzählung. In diesem Fall darf das Komma nicht fehlen: ein historisches, prunkvolles, verwunschenes, … Schloss.

Ohne Komma
Kein Komma hingegen braucht man in folgendem Fall: wenn eine feste Verbindung aus Substantiv und Adjektiv vorliegt („italienische Brücke“), die durch ein weiteres Adjektiv näher bestimmt wird („bekannt“).

Als Faustregel können Sie den folgenden Test machen: Versuchen Sie, das Wörtchen „und“ zwischen die beiden Adjektive zu setzen. Klingt das noch sinnvoll? Dann sind die Adjektive gleichrangig und brauchen unbedingt ein Komma.

Nein, kryptische Texte machen nicht neugierig!

Wenn schlechte Autoren sich für unverständliche Passagen rechtfertigen wollen, greifen sie seit Menschengedenken zu folgender Ausrede: „Aber das macht doch neugierig!“ Das war und ist aber Unsinn. Wir liefern ein eindrucksvolles Beispiel und eine geniale Studie dazu …

Von Stefan Brunn

Wir verraten nicht, wer es ist. Aber der Autor des folgenden Reportage-Beginns ist ein preisgekrönter Journalist, der regelmäßig Lesungen seiner Texte veranstaltet:

„Eine Geschichte ist kein Abstraktum. Das wäre wie ein Film ohne Darsteller. Die Gefahr: Manchmal identifiziert man den Inhalt mit den Darstellern: Eine irgendwie untrennbare Verquickung entsteht.“

Sicherheitshalber haben wir mal herumgefragt, aber niemand versteht, was das heißen soll. Man nennt so einen Stil „kryptisch“, abgeleitet vom griechischen Wort „kryptikós“, was so viel wie „verborgen“, „rätselhaft“ oder eben „unverständlich“ heißt.

Die Annahme, dass wir so etwas gerne lesen oder es uns neugierig macht oder dass wir die Verfasser:in für intelligent halten, ist aber nachweislich falsch.

Eine Forschungsarbeit des amerikanischen Psychologie-Professors Daniel M. Oppenheimer (unter anderem tätig in Princeton und Stanford) zeigt eindeutig, dass man bei gleichem Informationsgehalt einfachere Texte lieber liest und deren Verfasser:innen auch für intelligenter hält.

Um es noch einmal zu betonen: Die Hoffnung, wegen unverständlicher Äußerungen für schlau gehalten zu werden, ist wissenschaftlich widerlegt. Oppenheimer, übrigens ein wirklich genialer Forscher, hat für seine Studie immerhin den alternativen Nobelpreis erhalten.

What? So what? What now?

Wenn amerikanische Manager:innen sich von ihrem Stab für Entscheidungen informieren lassen, geschieht das oft nach dem gleichen Schema. Dahinter steht ein einfaches, aber sehr intelligentes Reflexions-Modell. Wir erklären, woher es stammt und wie es funktioniert.

Von Andrea Rayers

What? So what? What now?“ – wer sich beim Schreiben diese drei Fragen stellt, schafft dadurch saubere Prüfroutinen für Texte aller Art. Die Fragen gehören zu einem Reflexions-Modell, das der amerikanische Lehrer Terry Borton 1970 aufgestellt hat. Man reflektiert damit auf den drei wichtigsten Ebenen:

  • Um was geht es eigentlich? Beschreibung
  • Was geht uns das an? Interpretation, Analyse, Bewertung, Handlungsoptionen
  • Was ist jetzt zu tun? Entscheidung und Vorschlag

Wir stellen Ihnen die einzelnen Dimensionen einmal anhand eines ganz fiktiven Beispiels vor:

What?
Die Wissensdimension. Zunächst einmal muss geklärt werden: Worum geht es überhaupt? Zum Beispiel, wenn wir unser Firmengebäude gegen Überflutung schützen müssen. Welche Probleme kämen dann auf uns zu, wie ist unsere derzeitige Ausgangslage?

So what?
Die Interpretationsdimension. Nun ist es Zeit zu bewerten: Was bedeutet diese Ausgangslage oder dieses Problem für mich? Wie hoch ist zum Beispiel die Chance, dass der Standort überflutet wird, was würde das finanziell und organisatorisch bedeuten? Welche weiteren Konsequenzen ergäben sich daraus? Und natürlich: Welche Optionen stehen uns zur Verfügung, wie teuer sind sie, wie effizient werden sie funktionieren?

What now?
Die Handlungsdimension. Abschließend lautet die Frage: Welche Empfehlung ergibt sich daraus, was sollten wir jetzt tun? Bauen wir einen Wall, ziehen wir um, schließen wir eine Versicherung ab?

„What? So What? What now?“ hilft zum Beispiel bei der Gliederung von Entscheidungsvorlagen oder Positionspapieren. Aber diese Reflexionsdimensionen helfen auch bei allen anderen Texten, in denen Entscheidungen getroffen, vorbereitet oder auch nur dargestellt werden sollen.

Was ist ein Gedanke und wann werden daraus zwei?

Pro Satz nur ein Gedanke! Diese Grundregel des Satzbaus gilt auch für unsere Gesetze. Darauf hat sich Deutschland offiziell festgelegt. Aber was ist eigentlich ein Gedanke, woran erkennt man einen zweiten im Satz? Wir haben dazu eine übersichtliche Liste erstellt.

Von Andrea Rayers

Die Bundesregierung lässt sämtliche Gesetze und Verordnungen auf verständliche Sprache hin prüfen und verbessern. Das erledigt ein Team aus Sprachwissenschaftlern namens „Redaktionsstab Rechtssprache“, angesiedelt beim Justizministerium. Für deren Textprüfung gibt es klare Regeln: Beispielsweise darf nur ein Gedanke pro Satz geäußert werden. Vorbild ist die Schweiz, die bereits seit 40 Jahren eine intensive Gesetzesredaktion macht.

Nun wollen Linguisten natürlich gern genau wissen, was das denn heißt: ein Gedanke pro Satz. Der Leiter des deutschen Sprachdienstes der Schweizerischen Bundeskanzlei, Stefan Höfler von der Universität Zürich, hat sieben Indikatoren identifiziert, die einen Gedanken kennzeichnen. Anders ausgedrückt: An welchen Kennzeichen erkennen Linguisten, dass es sich wohl um zwei Gedanken handelt?

1. Satz
Ein Punkt oder ein Strichpunkt („Semikolon“) kennzeichnet nicht nur das Ende eines Satzes, sondern auch das eines Gedankens. Hier stimmt: ein Gedanke, ein Satz.
Beispiel: Die Amtsdauer der Rektorin beträgt vier Jahre. Die Amtsdauer der Prorektoren beträgt zwei Jahre.

2. Satzreihe
Sind zwei aufeinanderfolgende Hauptsätze lediglich durch ein Komma, einen Gedankenstrich oder eine Konjunktion (zum Beispiel und, oder) abgetrennt, zählen wir sie als separate Gedanken. Hier spricht man von einer sogenannten Satzreihe: mehrere Gedanken in einem Satz.
Beispiel: Die Amtsdauer der Rektorin beträgt vier Jahre, die Amtsdauer der Prorektoren beträgt zwei Jahre.

3. Zusammengezogene Sätze
Manchmal müssen wir unterscheiden: Ist das eine Aufzählung zu ein und demselben Thema? Oder sind hier zwei Sätze zusammengezogen worden, die jeweils eine eigene Aussage und deshalb einen eigenen Satz verdient haben?
Beispiel: Das Grundstudium dient der Vermittlung der Grundlagen und bildet die Voraussetzung für das Hauptstudium.
Diese Sätze haben zwar das geiche Subjekt („Grundstudium“), aber sie machen Aussagen zu unterschiedlichen Themen. Zwei Gedanken in einem Satz!

4. Schaltsatz bzw. Parenthese
Alsbald wir einen Satz in einen anderen einschieben, haben wir zwei eigenständige Aussagen. Dieser Einschub heißt Schaltsatz oder Parenthese. Er wird meist von Gedankenstrichen, Kommata oder Klammern umgeben.
Beispiel: Laut Unfallstatistik des Bundesamtes – sie ist vor wenigen Tagen erschienen – sind Unfälle im letzten Jahr weiter zurückgegangen.

5. Weiterführende Nebensätze
Wird ein Nebensatz zum Beispiel mit was, wobei, womit, wohingegen, weshalb oder wodurch eingeleitet, kann man davon ausgehen: Hier folgt ein zweiter Gedanke. Man spricht dabei von sogenannten weiterführenden Nebensätzen, die man ohne Probeme als eigenständigen Satz formulieren kann:
Beispiel: Die berufliche Vorsorge wird durch die Beiträge der Versicherten finanziert, wobei die Arbeitgeber mindestens die Hälfte der Beiträge bezahlen.

6. Attribute
Sobald ein Substantiv durch ein Attribut näher beschrieben wird, müssen wir aufpassen: Oft ist das Attribut (etwa in Form eines Adjektivs oder Relativsatzes) ein eigener Gedanke – aber eben nicht immer.
Ein eigener Gedanke ist das Attribut, wenn es Informationen trägt, die nicht zwingend zur Hauptsaussage gehören und die sich in einen separaten Satz auslagern lassen:
Beispiel: Die Universitätsleitung setzt eine Berufungskommission ein, der mindestens zwei externe Expeten angehören.
Anders sieht es aus, wenn das Attribut inhaltlich unbedingt zur Hauptaussage gehört – dann ist es kein eigener Gedanke. In dem Fall wäre der Hauptgedanke ohne das Attribut unvollständig.
Beispiel: In das Berufungsverfahren können auch Personen einbezogen werden, die sich nicht beworben haben.

7. Präsupposition
Ein zweiter Gedanke kann in einem Satz mitschwingen, ohne dass er explizit ausformuliert wird – er wird einfach als gegeben vorausgesetzt. In dem Fall spricht man von einer Präsupposition.
Beispiel: Die Mitarbeiterin prüft, ob die Forschungsstätte nicht kommerziell ausgerichtet und ob sie beitragsberechtigt ist, nach folgenden Kriterien: …
In diesem Beispiel wird nicht gesagt, sondern lediglich impliziert, dass nur Forschungsstätten beitragsberechtigt sind, die nicht kommerziell ausgerichtet sind.

Den Leser zur Schnecke machen

Wenn wir chatten, was ist dann schneller zu lesen: ein geschriebenes Wort oder ein Bildzeichen? Forscher:innen mehrerer deutscher Unis haben das jetzt nachgemessen und klare Ergebnisse erzielt.

Von Stefan Brunn

Wer Emojis schreibt, macht das Lesen deutlich langsamer. Während die durchschnittliche Lesezeit für ein ausgeschriebenes Wort etwa 450 Millisekunden beträgt, benötigt man zur Lektüre eines entsprechenden Emojis zwischen 800 und 900 Millisekunden. Zu diesem Ergebnis kommt eine gemeinsame Studie der Ruhr-Universität Bochum, der Universität Potsdam und der Berliner Charité.

© RUB, Marquard

Die Forscher:innen hatten 61 deutschsprachigen Proband:innen (überwiegend Bachelor-Studierende an der Universität Potsdam) diverse Sätze vorgelegt und zweierlei geprüft: Ob das Verständnis jeweils auch mit Emojis funktioniert und wie lang der Leseprozess dauert. Ergebnis 1: Die Proband:innen verstehen die Emojis fast immer gut. Ergebnis 2: Sie brauchen deutlich länger, um den Inhalt aufzunehmen. Ein Beispiel für die zwei Vergleichssätze:

A: Wir sitzen im Auto und kommen bald nach Hause.
B: Wir sitzen im 🚗 und kommen bald nach Hause.

Tendenziell stimmen die Ergebnisse mit anderen Ergebnissen für Emoji-Lesezeiten überein.  Emojis selbst werden etwa 50 Prozent langsamer gelesen als Wörter. Das bedeutet jedoch nicht, dass der ganze Satz nur halb so schnell gelesen würde.

Differenzieren muss man auch zwischen sehr geübten Emoji-Nutzern und anderen. „Proband:innen, die nach ihrer Selbsteinschätzung Emojis häufiger verwenden, lesen die inhaltlich passenden Emojis durchschnittlich schneller“, erklärt die Studienleiterin Tatjana Scheffler, Juniorprofessorin für Digitale Forensische Linguistik an der Uni Bochum.

Die Studie „The processing of emoji-word substitutions“ wurde veröffentlicht in der Wissenschaftszeitschrift „Computers in Human Behavior“.