Ist ChatGPT DSGVO-konform? Die ehrliche Antwort für Unternehmen
Ist ChatGPT DSGVO konform? Kurze Antwort: Nein – ohne Maßnahmen. Was das konkret bedeutet, welche Risiken bestehen und welche Alternativen es gibt.
Von Christian Loth · Enterprise Architect · KI-Infrastruktur & Datenschutz · Leipzig
Was bedeutet DSGVO-konform bei KI-Tools?
Viele Unternehmen suchen nach der einfachen Aussage: "Tool X ist DSGVO-konform, ja oder nein." So einfach ist es nicht. DSGVO-Konformität hängt bei KI-Tools immer aus vier Bausteinen zusammen:
-
Datenstandort und Drittlandübermittlung
Personenbezogene Daten sollten idealerweise in der EU verarbeitet werden. Wenn Daten in die USA oder andere Drittländer gehen, brauchen Sie belastbare Schutzmaßnahmen (z. B. Standardvertragsklauseln). Genau hier liegt bei ChatGPT DSGVO oft das Hauptproblem. -
Rechtsgrundlage der Verarbeitung
Jede Verarbeitung personenbezogener Daten braucht eine Rechtsgrundlage nach Art. 6 DSGVO. "Wir wollten schneller arbeiten" ist keine Rechtsgrundlage. -
Auftragsverarbeitungsvertrag (AVV)
Wenn ein externer Anbieter Daten für Sie verarbeitet, brauchen Sie einen AVV. Ohne AVV fehlt die vertragliche Grundlage für den Einsatz in vielen Business-Szenarien. -
Ausschluss von Modelltraining mit Ihren Daten
Für Unternehmensdaten muss klar ausgeschlossen sein, dass Eingaben in das Modelltraining einfließen. Sonst steigen Risiko und Nachweispflicht massiv.
Kurz gesagt: DSGVO-konform bei KI bedeutet nicht "wir haben irgendwo ein Datenschutz-PDF", sondern technisch und vertraglich saubere Verarbeitung.
Ist ChatGPT DSGVO-konform? Die drei Varianten im Vergleich
Die wichtigste Unterscheidung: Nicht jedes ChatGPT-Produkt ist gleich. Wer "ChatGPT DSGVO" bewertet, muss Free/Plus, Team/Enterprise und Azure OpenAI trennen.
1) ChatGPT Free / Plus
- Serverstandorte: primär USA
- Training mit Eingaben: standardmäßig aktiv (Opt-out möglich, aber nicht als robuste Unternehmensstrategie geeignet)
- AVV: in der Regel nicht als vollständige Business-AVV-Struktur verfügbar
- Drittlandübermittlung: ja
- Urteil: Für Unternehmensdaten nicht DSGVO-konform
2) ChatGPT Team / Enterprise
- Serverstandorte: weiterhin US-bezogene Infrastrukturpfade
- Training mit Eingaben: deaktiviert
- AVV: verfügbar
- Drittlandübermittlung: ja, mit vertraglichen Sicherungen
- Urteil: Bedingt konform, branchen- und risikoprofilabhängig
3) ChatGPT via Azure OpenAI (EU-Region)
- Serverstandorte: EU-Regionen explizit auswählbar
- Training mit Eingaben: deaktiviert
- AVV: Microsoft-AVV verfügbar
- Drittlandübermittlung: bei sauberer Konfiguration minimierbar
- Urteil: DSGVO-konform möglich, aber technisch/organisatorisch anspruchsvoll
| Variante | EU-Server | Kein Training | AVV | DSGVO-konform |
|---|---|---|---|---|
| ChatGPT Free/Plus | ❌ | ❌ | ❌ | ❌ |
| ChatGPT Team | ❌ | ✅ | ✅ | ⚠️ |
| ChatGPT Enterprise | ❌ | ✅ | ✅ | ⚠️ |
| Azure OpenAI (EU) | ✅ | ✅ | ✅ | ✅ |
| KI-Workspace (self-hosted) | ✅ | ✅ | ✅ | ✅ |
Diese Tabelle ist der Kern der Frage "ist ChatGPT DSGVO konform". Für viele Mittelständler ist das Problem nicht der Prompt selbst, sondern wo und wie Daten verarbeitet werden.
Was passiert wenn Mitarbeiter ChatGPT mit Firmendaten nutzen?
Hier kommt die Insider-Perspektive: Das eigentliche Risiko entsteht selten in der IT-Abteilung, sondern im Tagesgeschäft. Das Stichwort heißt Shadow AI.
Shadow AI bedeutet: Mitarbeiter nutzen öffentliche KI-Tools ohne formale Freigabeprozesse oder klare Leitplanken. Nicht aus bösem Willen, sondern aus Effizienzdruck.
Typische Szenarien:
- Eine Buchhalterin kopiert Kundendaten in ChatGPT für eine schnelle Erklärung von Abweichungen.
- Ein Vertriebsmitarbeiter gibt eine Angebotskalkulation ein, um einen professionellen Textvorschlag zu erhalten.
- HR fasst Bewerbungsunterlagen mit ChatGPT zusammen.
Was dabei rechtlich und technisch passieren kann:
- Daten werden an externe Systeme übertragen.
- Bei Free/Plus können Eingaben für Training genutzt werden.
- Ohne passenden Vertrag fehlt die saubere AVV-Grundlage.
- Bei sensiblen Daten kann daraus ein meldepflichtiger Vorfall werden.
Wichtig: Die meisten Vorfälle sind kein Vorsatz. Sie sind Systemfehler: Teams bekommen KI-Druck, aber keine sichere Infrastruktur. Genau deshalb brauchen Unternehmen nicht nur "Verbote", sondern eine praktische Alternative.
Welche Daten dürfen nicht in ChatGPT eingegeben werden?
Diese Frage ist extrem relevant, weil sie direkt den Alltag betrifft. Wenn Sie eine interne Richtlinie aufsetzen, sollte diese Liste dort wörtlich stehen.
Nie ohne DSGVO-konforme Lösung eingeben
- Kundennamen, Adressen, E-Mail-Adressen, Telefonnummern
- Mitarbeiterdaten (inkl. Leistungsdaten, Gehalt, Abwesenheit, Krankmeldung)
- Vertrags- und Angebotsdaten mit Personenbezug
- Gesundheitsdaten / Patientendaten
- Finanzdaten mit Personenbezug
- Interne Strategie-, M&A- oder Preisdokumente mit vertraulichem Inhalt
In der Regel unkritisch
- Öffentliche Informationen ohne Personenbezug
- Allgemeine Recherchefragen
- Textentwürfe ohne Kundennamen und ohne interne vertrauliche Inhalte
Wenn Sie sich fragen "ChatGPT DSGVO konform – ja oder nein?", ist die praktischere Gegenfrage: Welche Daten gehen überhaupt hinein? Diese Entscheidung bestimmt 80 % Ihres Risikos.
ChatGPT DSGVO konform nutzen – drei Optionen
Option 1: ChatGPT Enterprise + interne Richtlinien
- Kosten: grob ~30 $/User/Monat
- Aufwand: Vertrag, Richtlinie, Schulung, laufende Kontrollen
- Risiko: Drittlandthema bleibt
- Geeignet für: Unternehmen, die schnell starten wollen
Praxisfazit: Schnell umsetzbar, aber keine perfekte Lösung für streng regulierte Umgebungen.
Option 2: Azure OpenAI mit EU-Rechenzentrum
- Kosten: nutzungsbasiert, schwerer planbar
- Aufwand: Azure-Architektur, Rollenmodell, Logging, Security-Konfiguration
- Risiko: bei sauberem Setup gering
- Geeignet für: IT-starke Unternehmen mit Microsoft-Stack
Praxisfazit: Sehr solide, aber komplexer als viele Teams zu Beginn erwarten.
Option 3: Eigene KI-Infrastruktur (KI-Workspace)
- Kosten: ab 149 €/Monat
- Aufwand: initiales Setup + klare Governance
- Risiko: minimal, da keine US-Standardpfade nötig
- Geeignet für: Mittelstand, der Datenschutz und Umsetzbarkeit gleichzeitig will
Insider-Einschätzung: Für viele Mittelständler ist Option 3 der praktikabelste Weg zu "ChatGPT DSGVO konform" im Alltag. Nicht weil es "cooler" ist, sondern weil Datenhoheit und Bedienbarkeit zusammenkommen.
Wenn Sie direkt sehen wollen, wie das in der Praxis aussieht: KI-Workspace ansehen.
Was sagen die Datenschutzbehörden zu ChatGPT?
Die Behördenlage ist kein Randthema, sondern zentral für Geschäftsführung und Datenschutzbeauftragte.
- Die italienische Datenschutzbehörde hatte ChatGPT 2023 temporär gesperrt und Verbesserungen eingefordert.
- Der Hamburgische Datenschutzbeauftragte hat wiederholt auf Risiken beim Unternehmenseinsatz ohne Schutzmaßnahmen hingewiesen.
- Auch auf Bundesebene wird Vorsicht empfohlen, vor allem bei personenbezogenen Daten und Drittlandübermittlung.
Die gemeinsame Linie ist deutlich: KI-Einsatz ja, aber mit klaren Schutzmechanismen.
Wer heute schon Prozesse mit personenbezogenen Daten in KI-Tools abbildet, sollte die technische und vertragliche Basis zeitnah prüfen.
Häufige Fragen zu ChatGPT und DSGVO
Ist ChatGPT DSGVO-konform für Unternehmen?
Nein – nicht in Free/Plus. Dort fehlen in typischen Setups zentrale Bausteine wie belastbare AVV-Strukturen für den Unternehmenseinsatz und klare Datenhoheit. Bei Enterprise verbessert sich die Lage, aber Drittlandfragen bleiben. Vollständig robust wird es meist erst mit EU-zentrierter oder eigener Infrastruktur.
Was passiert wenn Mitarbeiter ChatGPT mit Kundendaten nutzen?
Dann liegt ein konkretes Datenschutzrisiko vor. Je nach Inhalt und Rechtsgrundlage kann ein meldepflichtiger Vorfall entstehen. Unternehmen brauchen deshalb klare Nutzungsrichtlinien, Schulung und eine sichere Alternative für produktive Anwendungsfälle.
Welche ChatGPT-Alternative ist DSGVO-konform?
Azure OpenAI in EU-Regionen und eigene KI-Infrastrukturen sind die zwei praxistauglichsten Wege. Welche Option besser passt, hängt von IT-Reife, Budgetmodell und Governance-Anforderungen ab.
Darf ich ChatGPT im Unternehmen nutzen?
Für allgemeine Aufgaben ohne personenbezogene und vertrauliche Daten: oft ja.
Für reale Unternehmensdaten: nur mit sauberer rechtlicher und technischer Grundlage.
Was ist der Unterschied zwischen ChatGPT Enterprise und einer eigenen KI?
Enterprise reduziert Trainingsrisiken, löst aber nicht jede Drittlandfrage. Eigene KI-Infrastruktur bietet maximale Datenhoheit, höhere Governance-Kontrolle und kann zusätzlich interne Dokumente als Wissensbasis integrieren.
Welche Daten darf ich nicht in ChatGPT eingeben?
Alle Daten mit Personenbezug, sensible Geschäftsinformationen, vertrauliche Vertragsdetails, Gesundheitsdaten und HR-Dokumente sollten ohne abgesicherte Infrastruktur nicht in öffentliche KI-Tools eingegeben werden.
Hat der BfDI oder eine deutsche Behörde zu ChatGPT Stellung genommen?
Ja. Deutsche Datenschutzstellen und Behörden weisen regelmäßig auf Risiken hin, insbesondere bei personenbezogenen Daten und unklarer Drittlandübermittlung. Der Tenor ist konsistent: KI ja, aber nicht ohne Compliance-Architektur.
Praxis-Checkliste: So starten Unternehmen ohne Risiko
Wenn Sie in den nächsten 30 Tagen handlungsfähig werden wollen, hilft diese Reihenfolge:
- Ist-Aufnahme: Welche Teams nutzen bereits KI?
- Datenklassifizierung: Welche Datenarten sind betroffen?
- Richtlinie: Was ist erlaubt, was ist verboten, was ist freigabepflichtig?
- Tool-Entscheidung: Enterprise, Azure EU oder eigene Infrastruktur
- Technik + Vertrag: AVV, Rollenmodell, Logging, Datenpfade
- Schulung: Konkrete Beispiele statt abstrakter Policy-PDFs
- Monitoring: Regelmäßige Prüfung statt Einmalprojekt
Damit vermeiden Sie den klassischen Fehler: Technologie zuerst, Governance später.
Für wen ist welches Modell sinnvoll?
Kleines Team, wenig IT-Ressourcen, hoher Datenschutzdruck:
Eigene gemanagte KI-Infrastruktur ist oft der schnellste sichere Weg.
Größeres IT-Team, Microsoft-Umfeld, Cloud-Expertise vorhanden:
Azure OpenAI EU kann sehr gut passen.
Schneller Start ohne große Architekturentscheidung:
Enterprise-Modell plus strikte Richtlinie kann als Übergang funktionieren.
Die Antwort auf "ist ChatGPT DSGVO konform" ist deshalb immer auch eine Organisationsfrage: Wer übernimmt Verantwortung, wer kontrolliert Nutzung, wer dokumentiert Entscheidungen?
Warum dieses Thema 2026 für den Mittelstand noch kritischer wird
Der Druck steigt aus drei Richtungen gleichzeitig:
- Produktivitätsdruck: Teams wollen KI nutzen, um schneller zu arbeiten.
- Regulierungsdruck: Datenschutz- und Governance-Anforderungen werden strenger.
- Wettbewerbsdruck: Unternehmen ohne KI-gestützte Prozesse verlieren Geschwindigkeit.
Viele Unternehmen reagieren mit einem pauschalen "ChatGPT verbieten". Das stoppt kurzfristig Risiko, löst aber nicht das Grundproblem: Mitarbeiter brauchen KI-Unterstützung im Alltag.
Der nachhaltige Weg ist ein kontrolliertes Modell: zugelassene Anwendungsfälle, saubere Infrastruktur, klare Rollen und nachvollziehbare Prozesse.
ChatGPT DSGVO konform: Die ehrliche Schlussfolgerung
Ist ChatGPT DSGVO-konform?
Für Free/Plus im Unternehmenskontext: nein.
Für Enterprise: bedingt, je nach Risikoprofil.
Für EU-zentrierte oder eigene Infrastruktur: ja, wenn korrekt umgesetzt.
Damit ist die strategische Entscheidung klar:
Wenn Sie Unternehmensdaten sicher mit KI verarbeiten möchten, brauchen Sie mehr als ein Login. Sie brauchen ein Betriebsmodell.
ChatGPT ist DSGVO-konform nutzbar – aber nicht ohne Maßnahmen. Wer auf Nummer sicher gehen will ohne ein IT-Großprojekt zu starten, ist mit einer eigenen KI-Infrastruktur auf deutschen Servern am besten aufgestellt.
Der KI-Workspace von CLX Digital ist genau das: ChatGPT-ähnliche Oberfläche, deutsche Server, Ihre Firmendokumente integriert, ab 149 €/Monat.
Praxisbeispiel aus dem Mittelstand: Vom Schattenbetrieb zur sicheren KI-Nutzung
Ein typischer Fall aus Projekten in der DACH-Region: Ein Unternehmen mit knapp 70 Mitarbeitenden wollte schneller auf Kundenanfragen reagieren. Das Vertriebsteam hatte bereits angefangen, E-Mails, Gesprächsnotizen und Angebotsentwürfe in ChatGPT zu nutzen. Niemand hatte böse Absicht, aber es gab auch keine Richtlinie, kein Rollenmodell und keine klare technische Begrenzung.
Die Folge war ein klassischer Shadow-AI-Zustand:
- Unterschiedliche Teams nutzten unterschiedliche Tools.
- Niemand wusste sicher, welche Daten wohin gingen.
- Es gab keinen dokumentierten AVV-Pfad für alle Anwendungsfälle.
- Die Geschäftsführung ging davon aus, dass "nur allgemeine Fragen" gestellt würden – tatsächlich wurden auch personenbezogene Daten verarbeitet.
Wir haben den Prozess in vier Schritten stabilisiert:
- Datentypen sichtbar gemacht (Kundendaten, Vertragsdaten, interne Dokumente)
- Nutzungsfälle getrennt (harmlos, sensibel, verboten)
- Sicheren KI-Arbeitsbereich eingeführt (EU/DE-Hosting, Logging, Rollen)
- Klare Teamregeln aufgesetzt (inkl. Schulung mit echten Beispielen)
Nach sechs Wochen war das Ergebnis messbar:
- deutlich weniger Rückfragen im Datenschutzprozess,
- schnellere Bearbeitung von Standardanfragen,
- höhere Akzeptanz im Team, weil die Lösung nicht "verbietet", sondern ermöglicht.
Dieser Fall zeigt, warum die Frage "ist ChatGPT DSGVO konform" nicht nur juristisch ist, sondern operativ. Ohne Governance wird jede gute KI-Idee schnell zum Risiko. Mit sauberem Betriebsmodell wird aus Risiko echte Produktivität.
Leitfaden für Geschäftsführung und Datenschutzbeauftragte
Wenn Sie das Thema kurzfristig sauber aufsetzen wollen, helfen diese Leitfragen bei der Priorisierung:
1) Wo entstehen heute unkontrollierte KI-Nutzungen?
Nicht im Policy-Dokument, sondern real in Vertrieb, Service, HR, Buchhaltung. Der erste Schritt ist Transparenz, nicht Sanktion. Fragen Sie aktiv: Welche Tools werden genutzt? Welche Aufgaben werden ausgelagert? Welche Daten landen dort?
2) Welche Datenkategorien sind kritisch?
Viele Unternehmen unterschätzen, wie schnell scheinbar harmlose Eingaben personenbezogen werden. Schon ein Name in Kombination mit Vertragskontext oder Gesundheitsbezug reicht für ein hohes Risiko. Dokumentieren Sie klare Beispiele, nicht nur abstrakte Kategorien.
3) Welche Architektur passt zur Organisation?
- Enterprise-Modell: schnell, aber nicht in jeder Branche dauerhaft tragfähig.
- Azure-EU: robust, aber IT-intensiv.
- Eigene Infrastruktur: häufig der beste Kompromiss aus Kontrolle, Kosten und Geschwindigkeit.
Entscheidend ist nicht, was auf einer Folie modern klingt, sondern was bei Ihnen in zwei bis vier Wochen verlässlich produktiv wird.
4) Wie wird Compliance im Alltag abgesichert?
Nur ein AVV reicht nicht. Sie brauchen zusätzlich:
- Rollen- und Rechtekonzept,
- technische Leitplanken,
- nachvollziehbare Verantwortlichkeiten,
- regelmäßige Überprüfung statt Einmalfreigabe.
Genau dadurch wird aus dem Thema ChatGPT DSGVO eine tragfähige, auditierbare Arbeitsweise.
Entscheidungsmatrix: Welche Option passt zu welcher Unternehmenslage?
Damit die Auswahl nicht im Bauchgefühl endet, hilft eine einfache Matrix:
- Hoher Datenschutzdruck + geringe IT-Ressourcen: eigene gemanagte Infrastruktur
- Mittlerer Datenschutzdruck + starke Azure-Kompetenz: Azure OpenAI EU
- Schneller Pilot ohne sensible Daten: Enterprise mit klaren Grenzen
Wichtig: Diese Matrix ist kein Ersatz für Rechtsberatung. Sie ist ein praxisorientierter Startpunkt für Management-Entscheidungen. Die juristische Bewertung sollte mit Datenschutzbeauftragten und ggf. spezialisierten Juristen abgestimmt werden.
Häufige Fehlannahmen rund um ChatGPT und DSGVO
"Wenn Training ausgeschaltet ist, ist alles DSGVO-sicher"
Falsch. Training ist nur ein Baustein. Drittlandübermittlung, AVV, Rechtsgrundlage und Zugriffskontrolle bleiben eigenständige Themen.
"Unsere Mitarbeitenden geben ja nur wenig Daten ein"
Auch kleine Datenschnipsel können personenbezogen und sensibel sein. Risiko entsteht nicht nur durch Masse, sondern durch Kontext.
"Wir regeln das später, wenn die KI-Projekte größer werden"
Dann ist es meist teurer. Frühe Governance ist leichter als spätere Nachdokumentation und Incident-Management.
"Ein Verbot löst das Problem"
Kurzfristig ja, langfristig nein. Teams suchen trotzdem Effizienzwege. Ohne sichere Alternative wandert die Nutzung nur in intransparente Kanäle.
Fazit für die Praxis
Die Suchanfrage "ChatGPT DSGVO konform" wirkt wie eine Ja/Nein-Frage. In der Unternehmensrealität ist sie eine Architekturfrage plus Governancefrage. Wer nur auf das Tool schaut, übersieht den Betriebsrahmen. Wer den Betriebsrahmen sauber setzt, kann KI produktiv und rechtssicher nutzen.
Wenn Sie aktuell prüfen, ist ChatGPT DSGVO konform für Ihre Prozesse, sollten Sie nicht bei einer allgemeinen Antwort stehen bleiben. Entscheidend ist, welche Daten Sie verarbeiten, welche Verträge bestehen, welche technischen Pfade genutzt werden und wie Ihr Team im Alltag arbeitet.
Ein sicherer Start braucht keine monatelange Transformationsinitiative. Was Sie brauchen, ist ein klarer Scope, ein belastbares Setup und ein Betriebsmodell, das Mitarbeitende wirklich nutzen. Genau dort trennt sich Theorie von Umsetzung.
Klingt nach deinem Problem?
Kurze Nachricht genügt – ich melde mich innerhalb von 24 Stunden.
Direkt Termin buchen