KI

Humanizer (Deutsch): KI-Texte erkennen und menschlicher machen

Der Humanizer (Deutsch) erkennt 45 typische KI-Schreibmuster in deutschsprachigen Texten. Open-Source Claude Code Skill mit Stimmkalibrierung, Severity-Ranking, Modus-System und 2-Pass-Workflow.

Du kennst das: Ein Text klingt irgendwie seltsam. Zu glatt. Zu perfekt strukturiert. Jeder Absatz hat exakt die gleiche Länge. Und dann steht da sowas wie „Es ist wichtig zu bemerken, dass..." – und du weißt: Das hat ChatGPT geschrieben.

KI-Texte sind nicht schlecht. Aber sie sind erkennbar. Und erkennbare KI-Texte wirken austauschbar und unglaubwürdig.

Ich habe deshalb den Humanizer (Deutsch) gebaut: ein Open-Source Claude Code Skill, das 45 typische KI-Schreibmuster identifiziert und dir zeigt, wie du sie loswirst. Mit optionaler Stimmkalibrierung aus eigenen Schreibproben, Severity-Ranking, drei Modi für unterschiedliche Textsorten und einem 2-Pass-Workflow, der auch die letzten KI-Reste aufspürt.

KI-generierte deutsche Texte sind anhand von 45 dokumentierten Sprachmustern erkennbar: darunter aufgeblähte Symbolik, mechanische Konjunktionen ("nicht nur ... sondern auch"), Trikolon, vage Autoritätsverweise, übermäßige Gedankenstriche und "heutige Welt"-Einstiege. Der Open-Source-Skill "Humanizer (Deutsch)" für Claude Code entfernt diese Muster in einem zweistufigen Verfahren: Erstdurchlauf, dann Anti-KI-Audit. Optional kalibriert er den Stil anhand eigener Textproben.

Direkt loslegen

github.com/marmbiz/humanizer-de — MIT-lizenziert, kostenlos, direkt einsetzbar.

git clone https://github.com/marmbiz/humanizer-de ~/.claude/skills/humanizer-de

Dann in Claude Code: /humanizer — fertig.

Was der Humanizer kann

Der Humanizer ist ein Claude Code Skill. Du rufst ihn mit /humanizer auf oder sagst einfach „Humanisiere diesen Text für mich".

Was du zurückbekommst:

  1. Einen ersten Entwurf ohne die gröbsten KI-Muster
  2. Ein kurzes Anti-KI-Audit mit den verbleibenden Tells
  3. Eine finale Version nach dem zweiten Durchlauf

Neu in v3: Stimmkalibrierung. Wenn du eine eigene Schreibprobe mitlieferst, analysiert der Skill deinen Satzrhythmus und deine Wortwahl – und übernimmt sie ins Rewrite. Statt generisch „sauberem" Text bekommst du Text, der nach dir klingt.

Drei Modi passen die Korrektur an den Kontext an:

Modus Wann Was passiert
Locker Blogposts, Social Media, Newsletter Persönlichkeit und Rhythmus kommen dazu
Sachlich Geschäftsberichte, Produktdoku, E-Mails KI-Tells werden entfernt, Ton bleibt neutral
Formal Wissenschaft, juristische Texte, Fachdoku Nur Tells entfernen, Struktur bleibt

Im Zweifel geht der Skill von Sachlich aus.

Neu in v3.2: Vier zusätzliche Muster und strukturelle Leitplanken:

  • Beleginkongruenz (HIGH): Eine Quelle existiert, belegt aber die Aussage im Text nicht. Klassischer Halluzinations-Indikator.
  • Versteckte Unicode-Zeichen (HIGH): Zero-Width-Space, Soft-Hyphen, Bidi-Kontrollen – unsichtbare Artefakte aus dem LLM-Output.
  • Standard-Kapitel ohne Substanz (MEDIUM): Generische Überschriften wie „Zukunftsperspektiven" mit unbelegtem Fülltext. Nicht kürzen, sondern konkretisieren oder integrieren.
  • Anglizismus-Strukturen (MEDIUM): Harte Calques („am Ende des Tages") und False Friends („eventuell" im Sinn von „schließlich").

Dazu harmonisierte Leitplanken: „Nie Substanz kürzen" statt „Nie kürzen" (Artefakte dürfen raus), 3+-Häufungs-Regel nur für weiche stilistische Muster, modusabhängige Stimmkalibrierung durchgängig konsistent.

Warum deutsche KI-Texte anders sind

Die meisten KI-Detector-Tools und Guides sind auf Englisch. Das Problem: Deutsche KI-Texte haben andere Muster.

Zum Beispiel:

  • Partizip-I-Konstruktionen wie „gewährleistend" oder „hervorhebend". Im Deutschen ein Alarmsignal.
  • Gedankenstriche überall. Ein Anglizismus, den Deutsche so nicht schreiben.
  • „Darüber hinaus" am Satzanfang. Drei Mal pro Absatz ist ein klares KI-Zeichen.

Die deutsche Wikipedia hat dafür eine eigene Dokumentation erstellt. Die englische Wikipedia hat eine vergleichbare Seite. Der Humanizer nutzt beide als Grundlage.

Die 45 KI-Muster in 8 Kategorien

Jedes Muster hat ein Severity-Ranking: HIGH (fast immer KI), MEDIUM (kontextabhängig) oder LOW (nur auffällig wenn gehäuft).

1. Sprache und Tonfall (12 Muster)

Muster Schwere Beispiel
Symbolik-Überladung HIGH „steht als Zeugnis für"
Werbesprache HIGH „atemberaubend", „einzigartig"
Meta-Kommentare HIGH „Es ist wichtig zu bemerken"
Mechanische Konjunktionen HIGH „Darüber hinaus", „Ferner"
Abschnitts-Zusammenfassungen HIGH „Insgesamt", „Zusammenfassend"
Partizip-I-Konstruktionen HIGH „gewährleistend", „hervorhebend"
Vage Autoritäten HIGH „Experten sagen", „Studien zeigen"
Unpassendes „Fazit" MEDIUM Fazit-Überschrift wo keine hingehört
Zu perfekte Schlussfolgerungen MEDIUM „Trotz X steht Y vor Z"
Negative Parallelismen MEDIUM „nicht nur... sondern auch", abgehackte Fragmente wie „kein Raten.", „keine Kompromisse."
Trikolon-Überbenutzung MEDIUM Dreiergruppen ohne echten Grund
Falsche Erweiterungen MEDIUM „von traditionellen bis modernen"

Vorher (KI):

Die atemberaubende Stadt mit ihrem reichen kulturellen Erbe steht als Zeugnis für die künstlerische Brillanz vergangener Generationen.

Nachher (Mensch):

Die Stadt hat eine lange Geschichte. Ihre Denkmäler zeigen die Handwerkskunst des Mittelalters.

Der Unterschied: weniger Adjektive, mehr Substanz.

2. Stil (4 Muster)

Muster Schwere Warum es KI verrät
Übermäßige Fettschrift MEDIUM KI macht alles wichtig
Falsche Listen LOW Bullet-Points wo keine hingehören
Emojis vor Überschriften LOW 🎯 Ziele, 📊 Daten, 🚀 Launch
Gedankenstriche-Überbenutzung MEDIUM Ersetzungshierarchie: Punkt > Komma > Doppelpunkt > Semikolon > Klammer > Umschreiben. Erkennt gepaarte Einschübe und Dash-Varianten (–, —, --)

3. Kommunikation (6 Muster)

Chatbot-Reste, die in Fachtexten nichts verloren haben:

Muster Schwere Beispiel
Briefartiges Schreiben HIGH „Betreff:", „Mit freundlichen Grüßen"
Kollaborative Kommunikation HIGH „Ich hoffe, das hilft!"
Hinweise auf Wissensgrenzen HIGH „Stand Januar 2024..."
Prompt-Ablehnung HIGH „Als KI-Modell kann ich nicht..."
Platzhaltertext HIGH „[Name einfügen]"
Links zu Suchanfragen HIGH Google-Suchen statt echten Quellen

4. Auszeichnungstext (6 Muster)

Technische Fehler, die KI macht:

  • Markdown statt Wikitext (MEDIUM)
  • Fehlerhafter Wikitext und KI-Artefakte wie oaicite-Tags, contentReference-Spans, turn0search0-Referenzen (MEDIUM)
  • Defekte Links (MEDIUM)
  • Zitatfabrikation: erfundene DOIs, halluzinierte Publikationen, nicht-existente Journals, utm_source-Parameter (MEDIUM)
  • Inkorrekte Referenzen-Formate (MEDIUM)
  • Falsche Kategorien (MEDIUM)

5. Verschiedenes (3 Muster)

  • Abrupte Abbrüche, also Text endet mitten im Satz (LOW)
  • Stilwechsel: plötzlich formal, dann wieder locker (MEDIUM)
  • Ich-Form in Metadaten: „Ich habe diesen Artikel verbessert" (LOW)

6. Rhetorik und Struktur (7 Muster)

Muster Schwere Beispiel
Persuasive Autoritäts-Floskeln MEDIUM „Im Kern", „In Wirklichkeit", „Die eigentliche Frage ist"
Signposting MEDIUM „Schauen wir uns an", „Hier ist, was Sie wissen müssen"
Fragmentierte Überschriften LOW Generischer Einzeiler direkt nach einer Überschrift
Rhetorische Fragen als Fake-Engagement MEDIUM „Aber was bedeutet das?", „Haben Sie sich jemals gefragt?"
Universelle Menschheitserfahrungs-Eröffnung MEDIUM „Seit jeher", „Seit Anbeginn der Zivilisation"
„In der heutigen X-Welt" Framing MEDIUM „In der heutigen digitalen Welt", „Im Zeitalter der..."
Aspirativer Unternehmensschluss MEDIUM „bestens aufgestellt", „die Möglichkeiten sind grenzenlos"

7. Argumentation und Evidenz (3 Muster)

Muster Schwere Beispiel
Passivkonstruktionen und subjektlose Fragmente MEDIUM „wurde durchgeführt", „Keine Konfiguration nötig." statt aktiver Formulierung
Konditional-Stapel MEDIUM Gehäufte „wenn/falls/sofern"-Klauseln in Schlussfolgerungen statt direkter Aussage
Fehlkalibriertes epistemisches Vertrauen MEDIUM Schwankt zwischen „grundlegend verändert" und „könnte eventuell"

LLMs verstecken den Akteur gern hinter Passiv und subjektlosen Sätzen. Gleichzeitig stapeln sie Bedingungen, wo eine direkte Aussage reichen würde. Am auffälligsten: der Wechsel zwischen Über-Behauptung („zweifellos", „revolutionär") und Über-Absicherung („scheint möglicherweise") innerhalb weniger Sätze.

8. Ergänzungen (4 Muster)

Seit v3.2 ergänzen vier Muster, die aus der Wikipedia-Leitlinie zu „Anzeichen für KI-generierte Inhalte" und dem Schnelltest KI stammen:

Muster Schwere Beispiel
Beleginkongruenz HIGH Quelle existiert, belegt aber nicht die Aussage
Versteckte Unicode-Zeichen HIGH Zero-Width-Space (U+200B), Soft-Hyphen, BOM, Bidi-Kontrollen
Standard-Kapitel ohne Substanz MEDIUM „Zukunftsperspektiven" + unbelegter Fülltext; nicht kürzen, sondern konkretisieren/integrieren
Anglizismus-Strukturen MEDIUM Harte Calques & False Friends: „am Ende des Tages", „eventuell" = „schließlich", „aktuell" = „tatsächlich"

Besonders „Beleginkongruenz" ist tückisch: Die Quelle existiert, der DOI ist gültig, der Autor hat die Publikation geschrieben – nur belegt das Papier die Aussage im Text nicht. Klassisches LLM-Halluzinationsmuster, das einfache Fact-Checking-Tools nicht aufspüren. False Friends wie „eventuell" (eventually = schließlich, nicht „vielleicht") werden beim Korrigieren unabhängig vom Modus korrigiert, weil sie semantische Fehler sind.

Vorher (KI):

In der heutigen digitalen Welt ist eine starke Online-Präsenz für Unternehmen unerlässlich. Aber was bedeutet das konkret? Mit dieser Strategie ist das Unternehmen bestens aufgestellt für die Zukunft.

Nachher (Mensch):

Ohne Website findet ein Handwerksbetrieb heute kaum Kunden unter 40. Ob die Strategie aufgeht, zeigt sich im nächsten Quartal.

Was der Humanizer NICHT ist

Der Humanizer schreibt nicht automatisch um. Er versteckt keine KI-Spuren.

Wenn du nur „KI-Spuren verstecken" willst, bist du hier falsch. Der Humanizer ist für bessere Texte gedacht, nicht für Tarnung.

Der Humanizer zeigt dir die Probleme, du entscheidest, was du änderst. Manchmal ist „darüber hinaus" okay. Manchmal ist ein Gedankenstrich genau richtig. Der Kontext entscheidet.

Die Philosophie dahinter

Gutes deutsches Schreiben hat Eigenschaften, die LLMs systematisch verfehlen:

  • Direktheit statt Metapher: „Die Stadt ist groß" statt „Die Stadt steht als Symbol für menschliche Ambition"
  • Konkrete Details: „50.000 Einwohner" statt „eine beachtliche Bevölkerung"
  • Verben statt Nominalisierung: „Die Wirtschaft wächst" statt „Das Wirtschaftswachstum ist evident"
  • Variabilität, also unterschiedliche Satzlängen und Strukturen

Menschliches Schreiben hat Ecken. KI-Schreiben ist glatt.

Für wen ist das?

  • Content-Ersteller, die KI nutzen aber authentisch klingen wollen
  • Marketing-Teams, die ihre Texte auf KI-Muster prüfen wollen
  • Wikipedia-Editoren, die eingereichte Artikel bewerten
  • Alle, die wissen wollen, woran man KI-Texte erkennt

Open Source und kostenlos

Der Humanizer ist MIT-lizenziert. Du kannst ihn nutzen, kopieren, verändern.

Er basiert auf:

GitHub: github.com/marmbiz/humanizer-de


Changelog

v3.2.4-de.1 (April 2026)
  • 4 neue Muster (42–45): Beleginkongruenz, Versteckte Unicode-Zeichen, Standard-Kapitel ohne Substanz, Anglizismus-Strukturen – neue Kategorie „Ergänzungen"
  • Basiert jetzt zusätzlich auf der Wikipedia-Leitlinie Erkennung KI-Einsatz und dem Schnelltest KI
  • Leitplanken harmonisiert: „Nie Substanz kürzen" (statt „Nie kürzen"), explizite Ausnahmeliste für Artefakt-Bereinigung
  • 3+-Häufungs-Regel begrenzt auf weiche stilistische Muster; HIGH, Strukturbefunde, Belege und False Friends sind bei jedem Vorkommen zu korrigieren
  • Modus-System konsistent gemacht: „Stimme einbringen" voll im Locker, dezent im Sachlich, nicht im Formal
  • Operative Präzisierungen in Muster 21, 22, 25, 26: Externe Recherche liegt außerhalb des Skill-Umfangs; stattdessen markieren
  • 45 Muster in 8 Kategorien
v3.1.0-de.1 (April 2026)
  • 3 neue Muster (39–41): Passivkonstruktionen, Konditional-Stapel, Fehlkalibriertes epistemisches Vertrauen — neue Kategorie „Argumentation und Evidenz"
  • 4 erweiterte Muster: Negative Parallelismen (+Verneinungsfragmente), Gedankenstriche (Ersetzungshierarchie), Fehlerhafter Wikitext (+KI-Artefakte), DOIs (→vollständige Zitatfabrikation)
  • „Nie kürzen"-Regel: Ausgabe deckt alles ab, was das Original enthält
  • Gedankenstrich-Scan: Eigener Workflow-Schritt
  • Quick Checklist: 7-Punkte-Audit vor der Ausgabe
  • 41 Muster in 7 Kategorien
  • Integriert 6 PRs aus dem englischen Original (blader/humanizer): #79, #80, #84, #85, #94, #96
v3.0.0-de.1 (März 2026)
  • Stimmkalibrierung: Schreibstil des Benutzers aus eigenen Proben übernehmen
  • 4 neue Muster (35–38): Rhetorische Fake-Fragen, Menschheits-Eröffnungen, „heutige Welt"-Framing, Aspirative Unternehmensschlüsse
  • 38 Muster insgesamt
v2.3.0-de.1 (März 2026)
  • 3 neue Muster (32–34): Persuasive Autoritäts-Floskeln, Signposting, Fragmentierte Überschriften
  • Severity-Ranking (HIGH / MEDIUM / LOW) für alle 34 Muster
  • Modus-System: Locker / Sachlich / Formal
  • Kurzreferenz-Tabelle für schnelles Scannen
  • „Nicht anfassen"-Regeln und Leitplanken
v2.2.0-de.2 (Februar 2026)
  • 2-Pass statt Einmal-Korrektur — Entwurf, Audit, Finalversion
  • Mehr Fokus auf Stimme — Rhythmus, Perspektive und Ton
  • Besseres Review-Format — drei getrennte Ausgabeblöcke

Die Ironie ist mir bewusst: Dieser Artikel wurde mit KI-Unterstützung geschrieben. Aber er wurde auch mit dem Humanizer überarbeitet. Hoffentlich klingt das Ergebnis nach Mensch – weil ein Mensch die finale Entscheidung getroffen hat.

🌐