Warum Sie keine Kundendaten in ChatGPT eingeben sollten
KI-Assistenten wie ChatGPT, Claude und Gemini sind aus vielen Büros nicht mehr wegzudenken. Sie helfen beim Verfassen von Texten, beim Zusammenfassen von Dokumenten und beim schnellen Recherchieren. Doch ein Risiko wird dabei häufig unterschätzt: Was passiert eigentlich mit den Daten, die Sie eingeben?
Ihre Eingaben können für KI-Training genutzt werden
Die meisten KI-Anbieter behalten sich in ihren Nutzungsbedingungen vor, eingegebene Daten für das Training ihrer Modelle zu verwenden — sofern Sie dies nicht aktiv deaktivieren. Das bedeutet: Wenn Sie einen Vertragsentwurf mit echten Kundennamen oder Finanzzahlen einfügen, könnten diese Informationen in zukünftige Modellantworten einfließen.
DSGVO-Risiken für Professionals
Für Steuerberater, Wirtschaftsprüfer, Rechtsanwälte und HR-Fachleute ist das ein ernstes Problem. Die DSGVO verpflichtet Sie dazu, personenbezogene Daten Ihrer Mandanten und Mitarbeiter zu schützen. Das bloße Einfügen dieser Daten in einen externen KI-Dienst kann bereits einen Datenschutzverstoß darstellen, der mit empfindlichen Bußgeldern bestraft werden kann.
Konkret bedeutet das: Wenn Sie eine Lohnabrechnung, einen Mandantenvertrag oder eine Krankenakte in ChatGPT einfügen, ohne vorher alle personenbezogenen Daten zu entfernen, riskieren Sie:
- Verstöße gegen Art. 5, 6 und 44 DSGVO
- Bußgelder von bis zu 4 % des weltweiten Jahresumsatzes
- Vertrauensverlust bei Mandanten und Patienten
- Berufsrechtliche Konsequenzen (z. B. bei Anwälten oder Ärzten)
Das manuelle Schwärzen kostet zu viel Zeit
Die logische Konsequenz wäre, alle sensiblen Daten vor dem Einfügen manuell zu entfernen. In der Praxis scheitert das jedoch an zwei Dingen: Zeit und Zuverlässigkeit. Ein einziges übersehenes Feld — ein Nachname, eine IBAN, eine Steuernummer — kann ausreichen, um gegen die DSGVO zu verstoßen.
Die sichere Alternative: Lokale Anonymisierung
MaskBase löst dieses Problem, indem es Ihre Dateien lokal auf Ihrem Gerät anonymisiert, bevor irgendetwas an einen KI-Dienst gesendet wird. Namen werden durch Platzhalter ersetzt, Zahlen werden geschwärzt, interne Codes unkenntlich gemacht — alles nach Ihren eigenen Regeln und ohne dass Originaldaten Ihr Gerät verlassen.
So können Sie die Produktivitätsvorteile von KI voll ausschöpfen, ohne Ihre Compliance-Pflichten zu gefährden.
Fazit
KI und Datenschutz schließen sich nicht aus — aber sie erfordern einen durchdachten Umgang. Wer Kundendaten ungefiltert in externe KI-Tools eingibt, geht ein unnötiges Risiko ein. Lokale Anonymisierung ist der pragmatische Weg, beides zu vereinbaren.
MaskBase kostenlos testen
Automatische Schwärzung sensibler Daten — lokal auf Ihrem Gerät, bevor sie an KI-Dienste gehen.
Zur Startseite →