DSGVO-konforme KI für Unternehmen — Der komplette Leitfaden
DSGVO-konforme KI im Unternehmen: rechtliche Anforderungen, EU AI Act, technische Maßnahmen und AWS-Architektur — praxisnah erklärt.
DSGVO konforme KI für Unternehmen — Der komplette Leitfaden
<p data speakable Die DSGVO verbietet KI nicht — sie verlangt, dass personenbezogene Daten verantwortungsvoll verarbeitet werden. Unternehmen, die KI kontrolliert einsetzen — mit Rechtsgrundlage, EU Datenresidenz (z. B. AWS eu central 1), Verschlüsselung und dokumentierten Prozessen — handeln datenschutzkonform. Unternehmen, die KI ignorieren, riskieren unkontrollierte „Shadow AI" durch Mitarbeiter, die ChatGPT mit Firmendaten nutzen. Dieser Leitfaden zeigt die rechtlichen Grundlagen (DSGVO + EU AI Act), die technische Architektur, vier Praxis Use Cases und eine Checkliste zur Selbstprüfung.</p
Warum DSGVO und KI kein Widerspruch sind
Viele Unternehmen verzichten auf KI, weil sie Datenschutz Verstöße fürchten. Gleichzeitig nutzen ihre Mitarbeiter längst ChatGPT, Google Gemini oder andere Consumer Tools — mit Firmendaten, ohne Wissen der IT Abteilung, ohne Auftragsverarbeitungsvertrag. Diese sogenannte "Shadow AI" ist das eigentliche Risiko.
Die DSGVO verbietet KI nicht. Sie schreibt vor, dass personenbezogene Daten verantwortungsvoll verarbeitet werden. Das ist ein Unterschied. Ein Unternehmen, das KI kontrolliert einsetzt — mit klarer Rechtsgrundlage, technischen Schutzmaßnahmen und dokumentierten Prozessen — handelt datenschutzkonform. Ein Unternehmen, das KI ignoriert und seine Mitarbeiter mit unkontrollierten Tools arbeiten lässt, handelt fahrlässig.
Die Frage ist nicht, ob Sie KI nutzen sollten, sondern wie Sie es richtig tun. Genau das behandelt dieser Leitfaden.
Die rechtlichen Grundlagen
DSGVO — Die 6 wichtigsten Artikel für KI Systeme
Die DSGVO ist seit 2018 in Kraft. Für KI Systeme, die personenbezogene Daten verarbeiten, sind sechs Artikel besonders relevant:
Artikel 5 — Datensparsamkeit und Zweckbindung. Sie dürfen nur die Daten verarbeiten, die für den konkreten Zweck erforderlich sind. Wenn Ihr KI System Rechnungen klassifiziert, braucht es die Rechnungsdaten — aber nicht die komplette Kundenhistorie. Dieser Grundsatz hat direkte Auswirkungen auf Prompt Design und Datenarchitektur: Je weniger personenbezogene Daten Sie in einen KI Prompt übergeben, desto geringer das Risiko.
Artikel 6 — Rechtsgrundlage. Jede Verarbeitung personenbezogener Daten braucht eine Rechtsgrundlage. Für KI Systeme im Unternehmenskontext kommen typischerweise drei in Frage: Vertragserfüllung (Art. 6 Abs. 1 lit. b), berechtigtes Interesse (Art. 6 Abs. 1 lit. f) oder Einwilligung (Art. 6 Abs. 1 lit. a). Die Rechtsgrundlage muss vor dem Go Live dokumentiert sein — nicht nachträglich.
Artikel 13 und 14 — Transparenzpflichten. Betroffene Personen haben das Recht zu wissen, dass ihre Daten durch ein KI System verarbeitet werden. Das betrifft Ihre Datenschutzerklärung, aber auch interne Richtlinien: Wenn Sie Bewerbungen mit KI vorfiltern, müssen die Bewerber darüber informiert werden. Wenn ein Chatbot Kundenanfragen beantwortet, muss erkennbar sein, dass es sich um ein automatisiertes System handelt.
Artikel 22 — Automatisierte Einzelentscheidungen. Dieser Artikel ist für KI Anwendungen besonders kritisch. Wenn ein KI System automatisch Entscheidungen trifft, die rechtliche Wirkung entfalten oder eine Person erheblich beeinträchtigen — Kreditvergabe, Bewerbungsablehnung, Versicherungstarifierung — hat die betroffene Person das Recht auf menschliche Überprüfung. Rein automatisierte Entscheidungen sind nur unter engen Voraussetzungen zulässig. In der Praxis bedeutet das: Implementieren Sie einen Human in the Loop. Das KI System empfiehlt, ein Mensch entscheidet.
Artikel 25 — Privacy by Design und Privacy by Default. Datenschutz darf nicht nachträglich aufgesetzt werden, sondern muss von Anfang an in die technische Architektur eingebaut sein. Für KI Systeme heißt das: Verschlüsselung als Standard, Zugriffskontrollen ab Tag eins, minimale Datenspeicherung, keine Datenübermittlung an Dritte ohne vertragliche Grundlage. Dieses Prinzip sollte die gesamte Architekturentscheidung leiten — von der Wahl des Cloud Providers bis zur Prompt Gestaltung.
Artikel 28 — Auftragsverarbeitung. Wenn Sie einen Cloud Provider für Ihre KI Infrastruktur nutzen — und das tun Sie in den meisten Fällen — brauchen Sie einen Auftragsverarbeitungsvertrag (AVV, englisch DPA). AWS stellt standardisierte Auftragsverarbeitungsverträge bereit, die den Anforderungen von Artikel 28 entsprechen. Lesen Sie den Vertrag trotzdem durch und prüfen Sie, ob er Ihre spezifischen Verarbeitungszwecke abdeckt.
EU AI Act — Was ab 2026 gilt
Der EU AI Act ist seit August 2024 in Kraft und wird schrittweise wirksam. Für Unternehmen, die KI einsetzen, sind vor allem die Risikokategorien relevant:
Unakzeptables Risiko (verboten). KI Systeme für Social Scoring, Emotionserkennung am Arbeitsplatz oder biometrische Echtzeit Identifikation im öffentlichen Raum. Diese Verbote gelten seit Februar 2025. Für die meisten Mittelstandsunternehmen sind diese Kategorien nicht relevant.
Hohes Risiko. KI Systeme, die in kritischen Bereichen eingesetzt werden: HR Entscheidungen (Bewerbungsauswahl, Leistungsbewertung), Kreditwürdigkeit, Versicherungstarife, Bildung, kritische Infrastruktur. Hochrisiko Systeme unterliegen ab August 2026 umfangreichen Anforderungen: Risikomanagement, Datenqualitätsstandards, technische Dokumentation, menschliche Aufsicht, Transparenzpflichten und Registrierung in einer EU Datenbank.
Begrenztes Risiko (Transparenzpflichten). KI Systeme, die mit Menschen interagieren — Chatbots, Deepfakes, KI generierte Texte. Hier gilt eine Kennzeichnungspflicht: Nutzer müssen wissen, dass sie mit einem KI System interagieren. Diese Pflicht gilt seit August 2025.
Minimales Risiko. Die meisten KI Anwendungen im Mittelstand fallen in diese Kategorie: Dokumentenverarbeitung, E Mail Klassifikation, interne Wissenssuche, Übersetzung. Für diese Systeme gelten keine speziellen Auflagen aus dem AI Act — die DSGVO Anforderungen bleiben aber unverändert bestehen.
Praktische Einordnung: Wenn Sie einen internen Dokumenten Chatbot oder ein E Mail Routing System betreiben, fallen Sie wahrscheinlich unter "minimales Risiko" mit Transparenzpflicht (weil ein Chatbot mit Menschen interagiert). Wenn Sie KI im Bewerbermanagement einsetzen, ist das "hohes Risiko" — und Sie müssen die entsprechenden Compliance Anforderungen erfüllen, sobald die Hochrisiko Regelungen im August 2026 greifen.
Datenschutz Folgenabschätzung (DSFA)
Eine Datenschutz Folgenabschätzung (DSFA, englisch DPIA) ist nach Artikel 35 DSGVO erforderlich, wenn eine Datenverarbeitung voraussichtlich ein hohes Risiko für die Rechte und Freiheiten natürlicher Personen mit sich bringt. Für KI Systeme ist eine DSFA in folgenden Fällen typischerweise erforderlich:
Automatisierte Entscheidungsfindung mit rechtlicher Wirkung (Art. 22) Systematische Überwachung (z.B. Verhaltensanalyse von Mitarbeitern) Umfangreiche Verarbeitung besonderer Kategorien personenbezogener Daten (Gesundheitsdaten, biometrische Daten) Innovative Technologien in Kombination mit umfangreicher Datenverarbeitung
Die DSFA dokumentiert: Welche Daten werden verarbeitet? Was ist der Zweck? Welche Risiken bestehen? Welche technischen und organisatorischen Maßnahmen mindern diese Risiken? Die deutschen Datenschutzbehörden (DSK) haben eine Liste von Verarbeitungstätigkeiten veröffentlicht, für die eine DSFA zwingend erforderlich ist.
Meine Empfehlung: Führen Sie bei jedem neuen KI System eine vereinfachte Risikobewertung durch, auch wenn keine formale DSFA Pflicht besteht. Das kostet einen halben Tag und schützt Sie im Ernstfall erheblich.
Technische Architektur für DSGVO konforme KI
Die rechtlichen Anforderungen übersetzen sich in konkrete technische Entscheidungen. Jede Architekturkomponente muss dazu beitragen, dass Daten geschützt, nachvollziehbar und kontrolliert verarbeitet werden.
AWS eu central 1: Daten bleiben in Frankfurt
Die Wahl der Cloud Region ist die erste und wichtigste Architekturentscheidung. Wenn Sie KI Workloads in AWS eu central 1 (Frankfurt) betreiben, bleiben Ihre Daten physisch in Deutschland. Es findet kein grenzüberschreitender Datentransfer statt — und damit entfallen die komplexen Fragen zu Standardvertragsklauseln und Angemessenheitsbeschlüssen, die bei US basierten Diensten relevant werden.
AWS betreibt in Frankfurt ein vollwertiges Rechenzentrum mit mehreren Availability Zones. Amazon Bedrock — der Managed Service für Foundation Models — ist in eu central 1 verfügbar. Sie können Claude, Titan und andere Modelle nutzen, ohne dass Ihre Daten die EU verlassen.
Zusätzlich bietet AWS die Möglichkeit, über Service Control Policies (SCPs) in AWS Organizations zu erzwingen, dass Ressourcen ausschließlich in zugelassenen Regionen erstellt werden können. Damit verhindern Sie, dass ein Entwickler versehentlich eine Lambda Funktion in us east 1 deployed und dort Kundendaten verarbeitet. Wie Sie einen AWS Account sicher für KI Workloads einrichten, beschreibe ich im Detail im Artikel AWS Account richtig einrichten für KI Workloads.
AWS Bedrock vs. ChatGPT: Datenschutz Vergleich
| Kriterium | AWS Bedrock (eu central 1) | ChatGPT Enterprise | ChatGPT Free/Plus | | | | | | | Datenresidenz | Frankfurt (Deutschland) | USA (Azure Rechenzentren) | USA | | Modelltraining mit Ihren Daten | Nein (standardmäßig ausgeschlossen) | Nein (vertraglich zugesichert) | Ja (Opt out möglich) | | Auftragsverarbeitungsvertrag (AVV) | Ja (AWS DPA) | Ja (OpenAI DPA) | Nein | | Verschlüsselung at rest | KMS (kundenverwaltete Schlüssel möglich) | Ja (Azure Standard) | Begrenzt | | Netzwerkisolation (VPC/PrivateLink) | Ja | Nein | Nein | | Audit Logging (CloudTrail) | Ja (lückenlos) | Begrenzt | Nein | | EU AI Act Konformität | Konfigurierbar | Teilweise | Nein | | Kontrolle über Modellauswahl | Ja (Claude, Llama, Mistral, Titan) | Nein (GPT 4 only) | Nein |
Für Unternehmen, die personenbezogene Daten verarbeiten, ist AWS Bedrock in eu central 1 die sicherste Option — volle Kontrolle über Datenfluss, Verschlüsselung und Netzwerkisolation.
VPC Isolation und PrivateLink
KI Modelle sollten nicht über das öffentliche Internet erreichbar sein. Die Architektur sollte so aussehen: Ihre Anwendung läuft in einer privaten VPC (Virtual Private Cloud). Der Zugriff auf Amazon Bedrock erfolgt über einen VPC Endpoint (AWS PrivateLink). Der gesamte Datenverkehr zwischen Ihrer Anwendung und dem KI Modell bleibt im AWS Backbone Netzwerk und verlässt nie das Internet.
Warum ist das wichtig? Erstens minimieren Sie die Angriffsfläche: Kein öffentlich erreichbarer Endpunkt bedeutet weniger Angriffsvektoren. Zweitens können Sie den Datenfluss über VPC Flow Logs vollständig protokollieren und nachweisen, dass keine unautorisierten Verbindungen bestehen. Drittens erfüllen Sie damit die Anforderungen von Art. 25 DSGVO (Privacy by Design) auf Netzwerkebene.
Die Konfiguration ist unkompliziert: Ein VPC Endpoint für bedrock runtime, eine Security Group, die nur ausgehenden Traffic auf Port 443 erlaubt, und eine VPC Endpoint Policy, die den Zugriff auf die benötigten Modelle beschränkt.
Verschlüsselung: KMS, TLS, S3 Server Side
Verschlüsselung ist kein optionales Feature, sondern eine Grundanforderung. Für DSGVO konforme KI Systeme gilt:
Daten in Ruhe (at rest). Alle Daten in S3, DynamoDB, EBS und anderen Speicherdiensten werden mit AWS KMS (Key Management Service) verschlüsselt. Sie können entweder AWS verwaltete Schlüssel oder kundenverwaltete CMKs (Customer Managed Keys) verwenden. Kundenverwaltete Schlüssel geben Ihnen volle Kontrolle über den Schlüssellebenszyklus — inklusive der Möglichkeit, Schlüssel zu rotieren oder zu widerrufen.
Daten in Transit. Alle Verbindungen laufen über TLS 1.2 oder höher. Das gilt für die Kommunikation zwischen Ihrer Anwendung und Bedrock ebenso wie für den Zugriff auf S3 oder andere AWS Services. Erzwingen Sie TLS über S3 Bucket Policies und Security Groups.
Prompt und Antwortdaten. Die Daten, die Sie an Bedrock senden (Prompts) und zurückbekommen (Completions), werden während der Verarbeitung im Arbeitsspeicher gehalten und nach Abschluss der Anfrage gelöscht. Sie werden nicht auf persistenten Speichern abgelegt — es sei denn, Sie aktivieren explizit Model Invocation Logging.
CloudTrail + Audit Logging
Nachvollziehbarkeit ist eine Kernanforderung der DSGVO. Sie müssen dokumentieren können, wer wann auf welche Daten zugegriffen hat. AWS CloudTrail protokolliert jeden API Aufruf in Ihrem Account — inklusive Bedrock Aufrufe. In Kombination mit S3 Access Logs und VPC Flow Logs erhalten Sie ein lückenloses Audit Trail.
Für KI Systeme empfehle ich zusätzlich ein anwendungsseitiges Logging: Welcher Benutzer hat welchen Prompt gesendet? Welche Daten wurden verarbeitet? Welches Ergebnis wurde zurückgegeben? Diese Logs sollten in einem separaten, schreibgeschützten S3 Bucket gespeichert werden — mit einer Retention Policy, die Ihren Aufbewahrungsfristen entspricht.
Wenn eine Datenschutzbehörde nachfragt, können Sie nachweisen: Welche Daten wurden verarbeitet, auf welcher Rechtsgrundlage, durch welchen Benutzer, zu welchem Zeitpunkt, und wo wurden sie gespeichert. Das ist der Unterschied zwischen "wir haben KI im Einsatz" und "wir haben KI DSGVO konform im Einsatz".
AWS Bedrock Data Policies