ChatGPT, Copilot & Gemini im DSGVO-Check: Welches KI-Tool ist wirklich datenschutzkonform?
Alexander Berkov
CTO & Mitgründer, DeutschlandGPT
KI-Tools wie ChatGPT, Microsoft Copilot und Google Gemini sind aus dem Arbeitsalltag kaum noch wegzudenken. Doch wer diese Werkzeuge im Unternehmenskontext einsetzt, muss sich eine entscheidende Frage stellen: Wie steht es um die DSGVO-Konformität — und was passiert mit den Daten, die Mitarbeiter tagtäglich in diese Systeme eingeben?
In diesem Artikel analysieren wir die drei meistgenutzten KI-Chatbots aus datenschutzrechtlicher Perspektive, erklären die zentralen Risiken und zeigen, worauf Unternehmen bei der Auswahl einer KI-Lösung wirklich achten müssen.
Warum DSGVO-Konformität bei KI-Tools kein Nice-to-have ist
Die DSGVO stellt klare Anforderungen an die Verarbeitung personenbezogener Daten. KI-Chatbots sind dabei besonders heikel: Nutzer geben im Gespräch oft deutlich mehr preis als in einem klassischen Webformular — von internen Prozessen über E-Mail-Entwürfe bis hin zu sensiblen Geschäftsdaten.
Die zentralen Fragen, die sich jedes Unternehmen stellen muss:
- Wo werden die Daten gespeichert? Nicht nur während der Verarbeitung, sondern vor allem: Wo liegt die persistente Datenspeicherung — also Chatverläufe, Nutzerprofile und hochgeladene Dokumente?
- Wer hat potenziell Zugriff? Unterliegt der Anbieter oder dessen Muttergesellschaft dem US CLOUD Act?
- Gibt es eine DSGVO-konforme Auftragsverarbeitungsvereinbarung (AVV)?
- Werden Nutzerdaten für das Training der Modelle verwendet?
Die drei großen KI-Chatbots im Vergleich
ChatGPT (OpenAI)
OpenAI ist ein US-amerikanisches Unternehmen mit Sitz in San Francisco. Das hat direkte Konsequenzen für den Datenschutz.
Datenspeicherung: Chatverläufe werden standardmäßig auf US-Servern gespeichert. OpenAI bietet zwar eine Enterprise-Version mit mehr Kontrolle, doch die Basisversion und die Plus-Variante, die viele Unternehmen nutzen, speichern Daten in den USA.
Training mit Nutzerdaten: In den Standardeinstellungen behält sich OpenAI das Recht vor, Nutzereingaben zur Verbesserung der Modelle zu verwenden. Diese Option lässt sich deaktivieren, ist aber standardmäßig aktiv — ein Risiko, das viele Nutzer nicht kennen.
AVV: OpenAI stellt ein Data Processing Addendum (DPA) bereit, das als AVV fungiert. Die Qualität und Reichweite dieses Dokuments wurde von Datenschutzexperten jedoch wiederholt kritisch bewertet.
CLOUD Act: Als US-Unternehmen unterliegt OpenAI dem CLOUD Act. US-Behörden können theoretisch jederzeit die Herausgabe von Daten verlangen — unabhängig davon, wo diese physisch gespeichert sind.
Worauf Sie achten sollten
Prüfen Sie in Ihrem OpenAI-Account unter „Data Controls", ob das Training mit Ihren Daten deaktiviert ist. In der Standard-Einstellung ist es aktiv.
Microsoft Copilot
Microsoft Copilot wird häufig als „sichere" Wahl wahrgenommen, weil viele Unternehmen ohnehin Microsoft 365 nutzen und Copilot nahtlos integriert ist. Doch wie steht es wirklich um die DSGVO-Konformität?
Datenspeicherung: Microsoft bietet die Speicherung innerhalb der EU an (EU Data Boundary). Daten können in europäischen Rechenzentren verarbeitet und gespeichert werden.
Aber: Microsoft ist ein US-amerikanisches Unternehmen. Die europäischen Tochtergesellschaften und Rechenzentren ändern nichts daran, dass Microsoft dem US CLOUD Act unterliegt. US-Behörden können auch auf Daten zugreifen, die auf europäischen Servern einer US-Muttergesellschaft liegen. Bei Chatdaten, in denen Mitarbeiter oft unbewusst sensible Informationen teilen, ist das ein nicht zu unterschätzendes Risiko.
Training: Microsoft gibt an, Copilot-Daten im Enterprise-Kontext nicht für Modelltraining zu verwenden. Dennoch bleibt das grundsätzliche Zugriffsproblem über den CLOUD Act bestehen.
AVV: Microsoft stellt umfangreiche DPA-Dokumente bereit, die in der Praxis gut ausgearbeitet sind und von vielen Datenschutzbeauftragten akzeptiert werden.
Google Gemini
Google Gemini ist Googles KI-Chatbot, betrieben von Alphabet — ebenfalls ein US-Konzern.
Datenspeicherung: Google bietet über die Google Cloud die Möglichkeit, Daten in europäischen Rechenzentren zu verarbeiten. Für die Consumer-Version von Gemini gelten jedoch die Standard-Google-Nutzungsbedingungen mit Datenspeicherung in den USA.
Training: In der kostenlosen Version werden Gespräche mit Gemini von Google ausgewertet und zum Training verwendet. Google weist explizit darauf hin, keine vertraulichen Informationen einzugeben. In der Enterprise-Version (Google Workspace) gibt es Opt-out-Möglichkeiten.
CLOUD Act: Wie bei OpenAI und Microsoft gilt: Alphabet ist ein US-Unternehmen und unterliegt dem CLOUD Act. Europäische Server schützen nicht vor US-behördlichen Zugriffsanfragen.
Der Kernpunkt: Warum EU-Server allein nicht reichen
Viele Unternehmen wiegen sich in Sicherheit, weil ihr KI-Anbieter „EU-Server" verspricht. Doch der entscheidende Punkt ist ein anderer.
Der US CLOUD Act (Clarifying Lawful Overseas Use of Data Act) verpflichtet US-Unternehmen und deren Tochtergesellschaften, Daten an US-Behörden herauszugeben — unabhängig davon, wo diese Daten physisch gespeichert sind. Das bedeutet:
- Azure EU-Server? Microsoft bleibt ein US-Unternehmen. Der CLOUD Act greift.
- Google Cloud Region Frankfurt? Alphabet bleibt ein US-Unternehmen. Der CLOUD Act greift.
- AWS Europe? Amazon bleibt ein US-Unternehmen. Der CLOUD Act greift.
Das Risiko betrifft dabei vor allem die persistente Datenspeicherung: Chatverläufe, Nutzerprofile, hochgeladene Dokumente — also genau die Daten, die am sensibelsten sind und am häufigsten personenbezogene Informationen enthalten.
Vergleichstabelle: Die wichtigsten DSGVO-Kriterien
| Kriterium | ChatGPT (OpenAI) | Microsoft Copilot | Google Gemini |
|---|---|---|---|
| Hauptsitz | USA | USA | USA |
| CLOUD Act Exposure | Ja | Ja | Ja |
| EU-Server verfügbar | Enterprise only | Ja (EU Data Boundary) | Enterprise only |
| Training mit Nutzerdaten | Standard: Ja | Enterprise: Nein | Consumer: Ja |
| AVV verfügbar | Ja (DPA) | Ja (DPA) | Ja (DPA) |
| Persistente Speicherung | US-Server (Standard) | EU möglich, CLOUD Act bleibt | US-Server (Standard) |
Worauf Unternehmen wirklich achten sollten
Wer KI-Tools DSGVO-konform einsetzen möchte, sollte bei der Evaluierung auf folgende Punkte achten:
1. Persistente Datenspeicherung auf nicht-US-Infrastruktur
Der Serverstandort allein reicht nicht — entscheidend ist, ob der Betreiber der Infrastruktur einem US-Konzern angehört. Wirklich DSGVO-sichere Speicherung erfordert einen Anbieter, der nicht dem CLOUD Act unterliegt. In Deutschland sind das beispielsweise die Open Telekom Cloud oder Hetzner — Infrastrukturen, die von deutschen Unternehmen betrieben werden.
2. Zero Data Retention (ZDR) bei der Modellverarbeitung
Für die eigentliche Verarbeitung durch das KI-Modell sollte eine Zero Data Retention-Vereinbarung bestehen. Das stellt sicher, dass nach der Verarbeitung keine Daten beim Modell-Anbieter verbleiben.
3. Geprüfte AVV
Eine Auftragsverarbeitungsvereinbarung sollte nicht nur existieren, sondern von unabhängigen Datenschutzbeauftragten und idealerweise von Fachanwälten geprüft worden sein.
4. Transparenz über den Datenfluss
Kann der Anbieter genau erklären, wohin Daten fließen — bei der Verarbeitung und bei der Speicherung? Ein seriöser Anbieter kann diese Frage klar und nachvollziehbar beantworten.
5. Zertifizierungen
Relevante Zertifizierungen wie ISO 27001 (Informationssicherheit), BSI C5 (Cloud-Sicherheit) oder SOC 2 geben zusätzliche Sicherheit.
Praxis-Tipp
Erstellen Sie für die KI-Tool-Evaluierung eine interne Checkliste mit diesen fünf Punkten. Anbieter, die eine oder mehrere Fragen nicht klar beantworten können, scheiden damit automatisch aus.
Fazit
ChatGPT, Copilot und Gemini sind leistungsstarke Werkzeuge. Doch für den Unternehmenseinsatz in Deutschland reicht es nicht, sich auf „EU-Server" oder „Enterprise-Version" zu verlassen. Solange die persistente Datenspeicherung auf Infrastruktur liegt, die dem US CLOUD Act unterliegt, bleibt ein rechtliches Restrisiko bestehen.
Die Lösung liegt nicht darin, auf KI zu verzichten, sondern darin, die richtige Architektur zu wählen: KI-Modelle über ZDR-Vereinbarungen anbinden, persistente Daten auf souveräner, deutscher Infrastruktur speichern und den gesamten Datenfluss transparent gestalten. Unternehmen, die diese Kriterien anlegen, können KI-Tools mit voller Leistung nutzen — ohne Kompromisse beim Datenschutz.
Wenn Sie wissen möchten, wie DSGVO-konform Ihr aktueller KI-Einsatz ist, gibt Ihnen unser KI-Readiness-Check in 2 Minuten eine erste Einschätzung.
Alexander Berkov
CTO & Mitgründer, DeutschlandGPT
Alexander ist CTO und Mitgründer von DeutschlandGPT. Er verantwortet die technische Architektur der Plattform mit Fokus auf Datensicherheit und DSGVO-konforme KI-Infrastruktur für den deutschen Mittelstand.