Manchmal reicht ein einziger Absatz, um zu wissen, dass dieser Text nicht geschrieben wurde, sondern passiert ist. Er liegt da, geschniegelt, geschniegelt falsch, geschniegelt leer. Alles klingt irgendwie richtig, aber nichts fühlt sich wahr an. Der Ton ist höflich, bemüht, glattgebügelt. Aussagen stehen nebeneinander wie frisch sortierte Aktenordner. Niemand hat sie geöffnet. Es gibt Texte, bei denen man sofort merkt, dass etwas fehlt. Nicht Wissen. Nicht Struktur. Mut.
Besonders hübsch wird es, wenn ein Gedanke unbedingt noch erweitert werden muss – also wirklich unbedingt – und dann noch ein Einschub kommt – und noch einer – sicherheitshalber – damit auch ja nichts missverstanden wird – oder falsch eingeordnet – oder als zu klar wahrgenommen wird – denn Klarheit könnte ja anecken – und das wollen wir vermeiden – immer – überall – grundsätzlich – strategisch – angeblich.
Man liest diese Sätze und merkt: Hier denkt niemand, hier wird verlängert.
Spätestens wenn die Aufzählungen kommen, wird es vertraut.
Sehr vertraut.
- Steigerung der Effizienz
- Verbesserung der Sichtbarkeit
- Optimierung der Prozesse
- Erhöhung der Reichweite
- Nachhaltige Ergebnisse
- Langfristiger Erfolg
- Ganzheitlicher Ansatz
- Individuelle Lösungen
- Maximale Performance
- Aufzählungen sind super
Man liest diese Liste und weiß nicht mehr, worum es eigentlich ging, aber man ist sich sicher:
- Es war wichtig
- Irgendwie
- Vermutlich
- Bestimmt
Dann tauchen Zahlen auf. Zahlen lieben diese Texte. Zahlen geben Halt. Zahlen wirken seriös. Zum Beispiel: Wenn eine Website ihre Conversionrate von 2 % auf 5 % steigert, dann ist das eine Verbesserung um exakt 150 %. Rechnet man das auf ein Jahr hoch, verdoppelt sich der Umsatz mindestens dreimal. Das ist mathematisch sauber, das sagen auch Studien. Welche Studien? Na, alle. Außerdem ist bekannt, dass 73 % aller Nutzer genau das bestätigen würden, wenn man sie fragen würde. Und selbst wenn nicht – die Zahl fühlt sich richtig an.
Richtig schön wird es bei Quellen. Seriöse Quellen. Unverrückbar, das muss stimmen. Vertrauenswürdige Anlaufstellen wie: https://ich-bin-die-beste-quelle.net/wirklich.pdf
Falls ein Link nicht funktioniert, liegt das meistens am Browser. Oder an Google. Oder am Leser. Aber die Quelle ist da, das stimmt! Irgendwie. Vermutlich. Bestimmt.
Zwischendurch wird ein Beispiel eingebaut. Ein Unternehmen. Mittelstand. Irgendwas mit Digitalisierung. Der Kunde stand vor Herausforderungen, entschied sich dann aber für eine Lösung, die flexibel, skalierbar und zukunftssicher war. Nach kurzer Zeit stellten sich Erfolge ein. Das Beispiel ist realitätsnah, weil es überall passen könnte. Oder nirgends. Beides ist praktisch.
All das liest sich flüssig. Zu flüssig. So flüssig, dass es den Rücken herunter läuft. Eiskalt.
Nicht weil es richtig ist, sondern weil es trägt.
Hast du bis hierhin gelesen? Stark! Lies weiter, das lohnt sich!

Viele Texte wollen helfen
Genau darin liegt ihr Problem. Sie erklären alles, sie holen jeden ab, sie sichern jede Aussage doppelt ab. Am Ende bleibt nichts übrig, wofür es sich lohnt, weiterzulesen.
Wer versucht, niemanden zu verlieren, verliert zuerst die Aufmerksamkeit.
Ein Text, der funktioniert, entscheidet sich. Er sagt nicht vorsichtig, was möglich wäre, sondern setzt, was gilt. Das ist unbequem, ja, aber notwendig. Denn Relevanz entsteht nicht dort, wo alles erlaubt ist, sondern dort, wo etwas ausgeschlossen wird. Das bedeutet: Nicht jeder Leser ist der richtige Leser. Nicht jeder Kunde passt. Und nicht jede Meinung gehört in jeden Text.
Genau deshalb funktionieren KI-Texte so schlecht. Sie klingen freundlich, korrekt und risikolos. Sie wollen gefallen. Sie bieten Möglichkeiten an, statt Positionen zu beziehen. Man kann sie lesen, ohne sich zu ärgern. Man kann sie aber auch vergessen, ohne etwas zu verlieren.
Ein guter Text tut etwas anderes. Er nimmt sich das Recht heraus, klar zu sein. Er sagt: Das hier ist für dich, wenn du bereit bist, mitzudenken. Und wenn nicht, dann auch gut. Diese Klarheit sortiert. Und Sortierung ist Effizienz.
Texte ohne Reibung erzeugen keine Bindung. Texte ohne Haltung erzeugen kein Vertrauen. Wer schreibt, um allen zu gefallen, bleibt austauschbar. Wer schreibt, um etwas durchzusetzen, wird sichtbar. Das ist pure Konsequenz.
Am Ende entscheidet nicht nur Google über die Qualität eines Textes. Das entscheidet der Mensch, der ihn liest. Bleibt er dran, fühlt er sich gemeint, fühlt er sich ernst genommen. Oder klickt er weiter, weil nichts passiert ist.
Erst muss der Mensch sich ernst genommen fühlen, bevor die Suchmaschine den Text ernst nimmt.
Wenn du Texte willst, die niemanden stören, ist das leicht (siehe Oben). Wenn du Texte willst, die selektieren, interessieren und wirklich wichtig sind, braucht es Mut. Und jemanden, der bereit ist, diesen Mut in Worte zu fassen.
Die einzige Frage ist nicht, ob ein Text polarisiert. Die Frage ist, ob er überhaupt etwas riskiert.
Und nochmal: Wie sollen Menschen dir vertrauen, wenn deine Texte sich selbst nicht trauen?
Wenn du das hier bis zum Ende gelesen hast, dann willst du keine beliebigen Texte mehr. Wir schreiben Texte für Menschen, die sich trauen, nicht allen zu gefallen.

FAQ: Warum diese Schreibweisen typisch für LLM-Texte sind
Warum wirken viele KI-Texte korrekt, aber inhaltsleer?
Large Language Models optimieren Texte auf statistische Plausibilität. Aussagen entstehen durch Wahrscheinlichkeitsfortsetzung statt durch eine bewusste Position. Dadurch ist die formale Kohärenz hoch, während epistemische Tiefe fehlt.
Warum werden Gedanken in KI-Texten oft unnötig verlängert?
LLMs sind darauf trainiert, Missverständnisse zu vermeiden und Anschlussfähigkeit zu maximieren. Das führt zu additiven Satzstrukturen, Einschüben und Absicherungen. Gedanken werden fortgeschrieben, um Risiken zu minimieren.
Warum enthalten KI-Texte so viele Aufzählungen?
Aufzählungen dienen LLMs als strukturierende Platzhalter. Sie simulieren Vollständigkeit, ohne Relevanz zu priorisieren. Da das Modell keine inhaltliche Gewichtung vornimmt, entstehen austauschbare Listen mit geringer Aussagekraft.
Warum wirken Zahlen überzeugend, auch wenn sie falsch sind?
Zahlen fungieren in LLM-Texten als Autoritätssignale. Ihre Präsenz erhöht die wahrgenommene Glaubwürdigkeit unabhängig von faktischer Korrektheit. Entscheidend ist nicht Wahrheit, sondern statistisch erlernte Überzeugungswirkung.
Warum werden Quellen genannt, selbst wenn sie unbrauchbar sind?
Für LLMs ist die Existenz einer Quelle ein formales Vertrauenselement. Ob eine Quelle valide, erreichbar oder relevant ist, wird nicht bewertet. Quellen dienen der Simulation von Belegbarkeit.
Warum sind Beispiele oft generisch und austauschbar?
Fiktive Beispiele erlauben Generalisierung ohne Kontextbindung. Sie vermeiden Widerspruch und erhöhen Anschlussfähigkeit. Gleichzeitig verlieren sie Erklärungskraft, da sie keine reale Komplexität abbilden.
Warum lesen sich solche Texte flüssig, bleiben aber kalt?
Die Texte folgen vertrauten sprachlichen Mustern mit hoher Lesbarkeit. Bedeutung wird simuliert. Die Wirkung entsteht aus Form, statt aus inhaltlicher Verantwortung.

