Sicherheit zuerst. Wie wir eure Daten vor externen KIs schützen.
Wer mit KI arbeitet, schickt Daten aus dem Haus.
Namen, Adressen, Telefonnummern, IBANs. Sobald eine Zeile an OpenAI, Anthropic oder Google geht, ist sie dort. Das ist die unausgesprochene Wahrheit hinter jedem KI-Assistenten im Arbeitsalltag.
Für uns war das nie eine Option. Deshalb haben wir einen eigenen Filter gebaut, der vor jedem Aufruf greift, und einen zweiten Prüfer, der kontrolliert ob der Filter wirklich gegriffen hat.
Wie der Schutz funktioniert
Jede Anfrage läuft durch unseren MCP-Interceptor. Der tauscht personenbezogene Daten gegen stabile Platzhalter, bevor die Anfrage das Haus verlässt.
- Pattern. E-Mails, Telefonnummern, IBANs, Kreditkarten, Umsatzsteuer-IDs. Über 30 Muster mit Prüfsumme.
- spaCy NER. Deutsches Sprachmodell für Personen, Orte, Organisationen. Lokal, nicht in der Cloud.
- Adresse. Strukturierte Adress-Erkennung über libpostal.
- Abkürzung. Firmen- und Abteilungskürzel im Unternehmenskontext.
[PERSON:6fb6f3ad] in [LOCATION:4449282a]. Die KI sieht nur die Kürzel. Auf dem Rückweg werden die echten Werte wieder eingesetzt. Für euch unsichtbar.Der Auditor. Die zweite, unabhängige Instanz.
Ein Filter allein ist nicht genug. Was, wenn er etwas übersieht?
Deshalb prüft ein zweites, lokal laufendes Sprachmodell jeden anonymisierten Text darauf, ob wirklich keine echten Daten mehr drin sind. Findet es ein Leak, passieren drei Dinge automatisch:
1. Das Muster landet in der Blacklist und wird beim nächsten Aufruf erkannt. 2. Alle Admins bekommen eine E-Mail mit Details. 3. Der Original-Text wird verschlüsselt gespeichert, damit wir den Vorfall rekonstruieren können. Gelöscht spätestens nach 30 Tagen.
Saubere Durchläufe werden nach einer Stunde gelöscht. Das ist kein Compliance-Archiv, das ist ein aktiver Selbstkontroll-Mechanismus. Der Filter wird jeden Tag besser, weil jedes Leak zurückfließt und das nächste verhindert.
Welche KI ihr nutzt, entscheidet ihr
Der Schutz ist client-agnostisch. Alles, was das Model Context Protocol spricht, erbt ihn automatisch:
- Claude Desktop, Claude Code von Anthropic
- ChatGPT Desktop von OpenAI
- Longdock. KI-Arbeitsplatz mit Zugriff auf interne Wissensquellen
- [Ambersearch](https://ambersearch.de). Deutsche Enterprise-Search, DSGVO-first
- Jeder weitere MCP-Client, der morgen dazu kommt
Das ist der Punkt: Ihr seid nicht an einen Anbieter gebunden. Wenn sich der Markt verschiebt, wechselt ihr den Client. Der Datenschutz bleibt.
Was euch das gibt
- Keine PII verlässt das Haus. Auch nicht versehentlich.
- Zweistufige Prüfung. Filter anonymisiert. Auditor kontrolliert. Lücken fließen automatisch zurück.
- Alles lokal. Filter, Sprachmodell, Auditor, Audit-Speicher. Kein AWS, kein Azure.
- Platzhalter stabil innerhalb der Session, automatisch gelöscht nach 24 Stunden.
- Verschlüsselte Audit-Ablage, mit definierten Löschfristen (1h sauber, 30 Tage bei Leak).
- 479 automatische Tests bei jedem Deploy. Kein Update geht raus, bevor jeder Detektor bewiesen hat, dass er greift.
- Über 70 MCP-Tools vom ersten Tag an geschützt.
- Gleicher Filter überall. Externer MCP-Client, interner Chat, Teams-Bot im Alltag. Ein Schutz, nichts zusätzliches zu konfigurieren.
Warum wir das selbst gebaut haben
Fertige PII-Filter am Markt sind englisch-zentriert, ignorieren deutsche Adressformate und arbeiten mit Zählern statt stabilen Hashes. Unser Filter erkennt "Müller-Lüdenscheid aus Hamburg-Eimsbüttel" genauso wie eine IBAN mit Schreibfehler. Er unterscheidet eine deutsche Firma von einer SQL-Abfrage. Und er prüft sich selbst, fortlaufend.
Was das für eure Organisation bedeutet
Wenn bei euch heute jemand ChatGPT öffnet und eine Kundenmail paraphrasieren lässt, sind die Namen draußen. Euer Datenschutzbeauftragter weiß das. Ihr wisst es auch.
Das müsst ihr nicht auf sich beruhen lassen. Ihr könnt KI-Produktivität haben, ohne dass Kundendaten zur Trainingsgrundlage werden. Ohne Aufpreis. Ohne monatelanges Projekt. Mit einem System, das sich selbst überwacht und euch den Nachweis liefert.
Nächster Schritt
Selbst testen. Wir haben den Filter öffentlich zugänglich gemacht. Kippt einen Text rein, seht was entfernt wird, bevor ihr redet.
[Zum PII-Anonymisierer →](https://schiller-partners.de/pii-anonymisierer)
Oder: 30 Minuten Live-Demo. Wir zeigen euch den Filter in Aktion, den Auditor bei der Arbeit, und beantworten die Fragen, die euer Datenschutzbeauftragter stellen wird. Kostenlos, unverbindlich, keine Folien.
[Termin vereinbaren →](https://schiller-partners.de/kontakt)
Oder schreibt direkt an [ki@schiller-partners.de](mailto:ki@schiller-partners.de).
