Humanizer (Deutsch): KI-Texte erkennen und menschlicher machen
Der Humanizer (Deutsch) erkennt 45 typische KI-Schreibmuster in deutschsprachigen Texten. Open-Source Claude Code Skill mit Stimmkalibrierung, Severity-Ranking, Modus-System und 2-Pass-Workflow.
Du kennst das: Ein Text klingt irgendwie seltsam. Zu glatt. Zu perfekt strukturiert. Jeder Absatz hat exakt die gleiche Länge. Und dann steht da sowas wie „Es ist wichtig zu bemerken, dass..." – und du weißt: Das hat ChatGPT geschrieben.
KI-Texte sind nicht schlecht. Aber sie sind erkennbar. Und erkennbare KI-Texte wirken austauschbar und unglaubwürdig.
Ich habe deshalb den Humanizer (Deutsch) gebaut: ein Open-Source Claude Code Skill, das 45 typische KI-Schreibmuster identifiziert und dir zeigt, wie du sie loswirst. Mit optionaler Stimmkalibrierung aus eigenen Schreibproben, Severity-Ranking, drei Modi für unterschiedliche Textsorten und einem 2-Pass-Workflow, der auch die letzten KI-Reste aufspürt.
KI-generierte deutsche Texte sind anhand von 45 dokumentierten Sprachmustern erkennbar: darunter aufgeblähte Symbolik, mechanische Konjunktionen ("nicht nur ... sondern auch"), Trikolon, vage Autoritätsverweise, übermäßige Gedankenstriche und "heutige Welt"-Einstiege. Der Open-Source-Skill "Humanizer (Deutsch)" für Claude Code entfernt diese Muster in einem zweistufigen Verfahren: Erstdurchlauf, dann Anti-KI-Audit. Optional kalibriert er den Stil anhand eigener Textproben.
Direkt loslegen
github.com/marmbiz/humanizer-de — MIT-lizenziert, kostenlos, direkt einsetzbar.
git clone https://github.com/marmbiz/humanizer-de ~/.claude/skills/humanizer-de
Dann in Claude Code: /humanizer — fertig.
Was der Humanizer kann
Der Humanizer ist ein Claude Code Skill. Du rufst ihn mit /humanizer auf oder sagst einfach „Humanisiere diesen Text für mich".
Was du zurückbekommst:
- Einen ersten Entwurf ohne die gröbsten KI-Muster
- Ein kurzes Anti-KI-Audit mit den verbleibenden Tells
- Eine finale Version nach dem zweiten Durchlauf
Neu in v3: Stimmkalibrierung. Wenn du eine eigene Schreibprobe mitlieferst, analysiert der Skill deinen Satzrhythmus und deine Wortwahl – und übernimmt sie ins Rewrite. Statt generisch „sauberem" Text bekommst du Text, der nach dir klingt.
Drei Modi passen die Korrektur an den Kontext an:
| Modus | Wann | Was passiert |
|---|---|---|
| Locker | Blogposts, Social Media, Newsletter | Persönlichkeit und Rhythmus kommen dazu |
| Sachlich | Geschäftsberichte, Produktdoku, E-Mails | KI-Tells werden entfernt, Ton bleibt neutral |
| Formal | Wissenschaft, juristische Texte, Fachdoku | Nur Tells entfernen, Struktur bleibt |
Im Zweifel geht der Skill von Sachlich aus.
Neu in v3.2: Vier zusätzliche Muster und strukturelle Leitplanken:
- Beleginkongruenz (HIGH): Eine Quelle existiert, belegt aber die Aussage im Text nicht. Klassischer Halluzinations-Indikator.
- Versteckte Unicode-Zeichen (HIGH): Zero-Width-Space, Soft-Hyphen, Bidi-Kontrollen – unsichtbare Artefakte aus dem LLM-Output.
- Standard-Kapitel ohne Substanz (MEDIUM): Generische Überschriften wie „Zukunftsperspektiven" mit unbelegtem Fülltext. Nicht kürzen, sondern konkretisieren oder integrieren.
- Anglizismus-Strukturen (MEDIUM): Harte Calques („am Ende des Tages") und False Friends („eventuell" im Sinn von „schließlich").
Dazu harmonisierte Leitplanken: „Nie Substanz kürzen" statt „Nie kürzen" (Artefakte dürfen raus), 3+-Häufungs-Regel nur für weiche stilistische Muster, modusabhängige Stimmkalibrierung durchgängig konsistent.
Warum deutsche KI-Texte anders sind
Die meisten KI-Detector-Tools und Guides sind auf Englisch. Das Problem: Deutsche KI-Texte haben andere Muster.
Zum Beispiel:
- Partizip-I-Konstruktionen wie „gewährleistend" oder „hervorhebend". Im Deutschen ein Alarmsignal.
- Gedankenstriche überall. Ein Anglizismus, den Deutsche so nicht schreiben.
- „Darüber hinaus" am Satzanfang. Drei Mal pro Absatz ist ein klares KI-Zeichen.
Die deutsche Wikipedia hat dafür eine eigene Dokumentation erstellt. Die englische Wikipedia hat eine vergleichbare Seite. Der Humanizer nutzt beide als Grundlage.
Die 45 KI-Muster in 8 Kategorien
Jedes Muster hat ein Severity-Ranking: HIGH (fast immer KI), MEDIUM (kontextabhängig) oder LOW (nur auffällig wenn gehäuft).
1. Sprache und Tonfall (12 Muster)
| Muster | Schwere | Beispiel |
|---|---|---|
| Symbolik-Überladung | HIGH | „steht als Zeugnis für" |
| Werbesprache | HIGH | „atemberaubend", „einzigartig" |
| Meta-Kommentare | HIGH | „Es ist wichtig zu bemerken" |
| Mechanische Konjunktionen | HIGH | „Darüber hinaus", „Ferner" |
| Abschnitts-Zusammenfassungen | HIGH | „Insgesamt", „Zusammenfassend" |
| Partizip-I-Konstruktionen | HIGH | „gewährleistend", „hervorhebend" |
| Vage Autoritäten | HIGH | „Experten sagen", „Studien zeigen" |
| Unpassendes „Fazit" | MEDIUM | Fazit-Überschrift wo keine hingehört |
| Zu perfekte Schlussfolgerungen | MEDIUM | „Trotz X steht Y vor Z" |
| Negative Parallelismen | MEDIUM | „nicht nur... sondern auch", abgehackte Fragmente wie „kein Raten.", „keine Kompromisse." |
| Trikolon-Überbenutzung | MEDIUM | Dreiergruppen ohne echten Grund |
| Falsche Erweiterungen | MEDIUM | „von traditionellen bis modernen" |
Vorher (KI):
Die atemberaubende Stadt mit ihrem reichen kulturellen Erbe steht als Zeugnis für die künstlerische Brillanz vergangener Generationen.
Nachher (Mensch):
Die Stadt hat eine lange Geschichte. Ihre Denkmäler zeigen die Handwerkskunst des Mittelalters.
Der Unterschied: weniger Adjektive, mehr Substanz.
2. Stil (4 Muster)
| Muster | Schwere | Warum es KI verrät |
|---|---|---|
| Übermäßige Fettschrift | MEDIUM | KI macht alles wichtig |
| Falsche Listen | LOW | Bullet-Points wo keine hingehören |
| Emojis vor Überschriften | LOW | 🎯 Ziele, 📊 Daten, 🚀 Launch |
| Gedankenstriche-Überbenutzung | MEDIUM | Ersetzungshierarchie: Punkt > Komma > Doppelpunkt > Semikolon > Klammer > Umschreiben. Erkennt gepaarte Einschübe und Dash-Varianten (–, —, --) |
3. Kommunikation (6 Muster)
Chatbot-Reste, die in Fachtexten nichts verloren haben:
| Muster | Schwere | Beispiel |
|---|---|---|
| Briefartiges Schreiben | HIGH | „Betreff:", „Mit freundlichen Grüßen" |
| Kollaborative Kommunikation | HIGH | „Ich hoffe, das hilft!" |
| Hinweise auf Wissensgrenzen | HIGH | „Stand Januar 2024..." |
| Prompt-Ablehnung | HIGH | „Als KI-Modell kann ich nicht..." |
| Platzhaltertext | HIGH | „[Name einfügen]" |
| Links zu Suchanfragen | HIGH | Google-Suchen statt echten Quellen |
4. Auszeichnungstext (6 Muster)
Technische Fehler, die KI macht:
- Markdown statt Wikitext (MEDIUM)
- Fehlerhafter Wikitext und KI-Artefakte wie oaicite-Tags, contentReference-Spans, turn0search0-Referenzen (MEDIUM)
- Defekte Links (MEDIUM)
- Zitatfabrikation: erfundene DOIs, halluzinierte Publikationen, nicht-existente Journals, utm_source-Parameter (MEDIUM)
- Inkorrekte Referenzen-Formate (MEDIUM)
- Falsche Kategorien (MEDIUM)
5. Verschiedenes (3 Muster)
- Abrupte Abbrüche, also Text endet mitten im Satz (LOW)
- Stilwechsel: plötzlich formal, dann wieder locker (MEDIUM)
- Ich-Form in Metadaten: „Ich habe diesen Artikel verbessert" (LOW)
6. Rhetorik und Struktur (7 Muster)
| Muster | Schwere | Beispiel |
|---|---|---|
| Persuasive Autoritäts-Floskeln | MEDIUM | „Im Kern", „In Wirklichkeit", „Die eigentliche Frage ist" |
| Signposting | MEDIUM | „Schauen wir uns an", „Hier ist, was Sie wissen müssen" |
| Fragmentierte Überschriften | LOW | Generischer Einzeiler direkt nach einer Überschrift |
| Rhetorische Fragen als Fake-Engagement | MEDIUM | „Aber was bedeutet das?", „Haben Sie sich jemals gefragt?" |
| Universelle Menschheitserfahrungs-Eröffnung | MEDIUM | „Seit jeher", „Seit Anbeginn der Zivilisation" |
| „In der heutigen X-Welt" Framing | MEDIUM | „In der heutigen digitalen Welt", „Im Zeitalter der..." |
| Aspirativer Unternehmensschluss | MEDIUM | „bestens aufgestellt", „die Möglichkeiten sind grenzenlos" |
7. Argumentation und Evidenz (3 Muster)
| Muster | Schwere | Beispiel |
|---|---|---|
| Passivkonstruktionen und subjektlose Fragmente | MEDIUM | „wurde durchgeführt", „Keine Konfiguration nötig." statt aktiver Formulierung |
| Konditional-Stapel | MEDIUM | Gehäufte „wenn/falls/sofern"-Klauseln in Schlussfolgerungen statt direkter Aussage |
| Fehlkalibriertes epistemisches Vertrauen | MEDIUM | Schwankt zwischen „grundlegend verändert" und „könnte eventuell" |
LLMs verstecken den Akteur gern hinter Passiv und subjektlosen Sätzen. Gleichzeitig stapeln sie Bedingungen, wo eine direkte Aussage reichen würde. Am auffälligsten: der Wechsel zwischen Über-Behauptung („zweifellos", „revolutionär") und Über-Absicherung („scheint möglicherweise") innerhalb weniger Sätze.
8. Ergänzungen (4 Muster)
Seit v3.2 ergänzen vier Muster, die aus der Wikipedia-Leitlinie zu „Anzeichen für KI-generierte Inhalte" und dem Schnelltest KI stammen:
| Muster | Schwere | Beispiel |
|---|---|---|
| Beleginkongruenz | HIGH | Quelle existiert, belegt aber nicht die Aussage |
| Versteckte Unicode-Zeichen | HIGH | Zero-Width-Space (U+200B), Soft-Hyphen, BOM, Bidi-Kontrollen |
| Standard-Kapitel ohne Substanz | MEDIUM | „Zukunftsperspektiven" + unbelegter Fülltext; nicht kürzen, sondern konkretisieren/integrieren |
| Anglizismus-Strukturen | MEDIUM | Harte Calques & False Friends: „am Ende des Tages", „eventuell" = „schließlich", „aktuell" = „tatsächlich" |
Besonders „Beleginkongruenz" ist tückisch: Die Quelle existiert, der DOI ist gültig, der Autor hat die Publikation geschrieben – nur belegt das Papier die Aussage im Text nicht. Klassisches LLM-Halluzinationsmuster, das einfache Fact-Checking-Tools nicht aufspüren. False Friends wie „eventuell" (eventually = schließlich, nicht „vielleicht") werden beim Korrigieren unabhängig vom Modus korrigiert, weil sie semantische Fehler sind.
Vorher (KI):
In der heutigen digitalen Welt ist eine starke Online-Präsenz für Unternehmen unerlässlich. Aber was bedeutet das konkret? Mit dieser Strategie ist das Unternehmen bestens aufgestellt für die Zukunft.
Nachher (Mensch):
Ohne Website findet ein Handwerksbetrieb heute kaum Kunden unter 40. Ob die Strategie aufgeht, zeigt sich im nächsten Quartal.
Was der Humanizer NICHT ist
Der Humanizer schreibt nicht automatisch um. Er versteckt keine KI-Spuren.
Wenn du nur „KI-Spuren verstecken" willst, bist du hier falsch. Der Humanizer ist für bessere Texte gedacht, nicht für Tarnung.
Der Humanizer zeigt dir die Probleme, du entscheidest, was du änderst. Manchmal ist „darüber hinaus" okay. Manchmal ist ein Gedankenstrich genau richtig. Der Kontext entscheidet.
Die Philosophie dahinter
Gutes deutsches Schreiben hat Eigenschaften, die LLMs systematisch verfehlen:
- Direktheit statt Metapher: „Die Stadt ist groß" statt „Die Stadt steht als Symbol für menschliche Ambition"
- Konkrete Details: „50.000 Einwohner" statt „eine beachtliche Bevölkerung"
- Verben statt Nominalisierung: „Die Wirtschaft wächst" statt „Das Wirtschaftswachstum ist evident"
- Variabilität, also unterschiedliche Satzlängen und Strukturen
Menschliches Schreiben hat Ecken. KI-Schreiben ist glatt.
Für wen ist das?
- Content-Ersteller, die KI nutzen aber authentisch klingen wollen
- Marketing-Teams, die ihre Texte auf KI-Muster prüfen wollen
- Wikipedia-Editoren, die eingereichte Artikel bewerten
- Alle, die wissen wollen, woran man KI-Texte erkennt
Open Source und kostenlos
Der Humanizer ist MIT-lizenziert. Du kannst ihn nutzen, kopieren, verändern.
Er basiert auf:
- Der deutschen Wikipedia-Analyse zu KI-generierten Inhalten
- Der englischen Wikipedia-Analyse zu AI-Schreibmustern
- Dem englischen Humanizer von blader
GitHub: github.com/marmbiz/humanizer-de
Changelog
v3.2.4-de.1 (April 2026)
- 4 neue Muster (42–45): Beleginkongruenz, Versteckte Unicode-Zeichen, Standard-Kapitel ohne Substanz, Anglizismus-Strukturen – neue Kategorie „Ergänzungen"
- Basiert jetzt zusätzlich auf der Wikipedia-Leitlinie Erkennung KI-Einsatz und dem Schnelltest KI
- Leitplanken harmonisiert: „Nie Substanz kürzen" (statt „Nie kürzen"), explizite Ausnahmeliste für Artefakt-Bereinigung
- 3+-Häufungs-Regel begrenzt auf weiche stilistische Muster; HIGH, Strukturbefunde, Belege und False Friends sind bei jedem Vorkommen zu korrigieren
- Modus-System konsistent gemacht: „Stimme einbringen" voll im Locker, dezent im Sachlich, nicht im Formal
- Operative Präzisierungen in Muster 21, 22, 25, 26: Externe Recherche liegt außerhalb des Skill-Umfangs; stattdessen markieren
- 45 Muster in 8 Kategorien
v3.1.0-de.1 (April 2026)
- 3 neue Muster (39–41): Passivkonstruktionen, Konditional-Stapel, Fehlkalibriertes epistemisches Vertrauen — neue Kategorie „Argumentation und Evidenz"
- 4 erweiterte Muster: Negative Parallelismen (+Verneinungsfragmente), Gedankenstriche (Ersetzungshierarchie), Fehlerhafter Wikitext (+KI-Artefakte), DOIs (→vollständige Zitatfabrikation)
- „Nie kürzen"-Regel: Ausgabe deckt alles ab, was das Original enthält
- Gedankenstrich-Scan: Eigener Workflow-Schritt
- Quick Checklist: 7-Punkte-Audit vor der Ausgabe
- 41 Muster in 7 Kategorien
- Integriert 6 PRs aus dem englischen Original (blader/humanizer): #79, #80, #84, #85, #94, #96
v3.0.0-de.1 (März 2026)
- Stimmkalibrierung: Schreibstil des Benutzers aus eigenen Proben übernehmen
- 4 neue Muster (35–38): Rhetorische Fake-Fragen, Menschheits-Eröffnungen, „heutige Welt"-Framing, Aspirative Unternehmensschlüsse
- 38 Muster insgesamt
v2.3.0-de.1 (März 2026)
- 3 neue Muster (32–34): Persuasive Autoritäts-Floskeln, Signposting, Fragmentierte Überschriften
- Severity-Ranking (HIGH / MEDIUM / LOW) für alle 34 Muster
- Modus-System: Locker / Sachlich / Formal
- Kurzreferenz-Tabelle für schnelles Scannen
- „Nicht anfassen"-Regeln und Leitplanken
v2.2.0-de.2 (Februar 2026)
- 2-Pass statt Einmal-Korrektur — Entwurf, Audit, Finalversion
- Mehr Fokus auf Stimme — Rhythmus, Perspektive und Ton
- Besseres Review-Format — drei getrennte Ausgabeblöcke
Die Ironie ist mir bewusst: Dieser Artikel wurde mit KI-Unterstützung geschrieben. Aber er wurde auch mit dem Humanizer überarbeitet. Hoffentlich klingt das Ergebnis nach Mensch – weil ein Mensch die finale Entscheidung getroffen hat.