Datenschutzverstöße im KI-Training: Konsequenzen für das KI-System

PrintMailRate-it

​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​veröffentlicht am 27. Mai​​​ 2025 | Lesedauer ca. 3 Minuten


Künstliche Intelligenz (KI) verarbeitet Daten nicht erst im laufenden Betrieb, sondern bereits während des Trainings des KI-Systems. Werden dabei personenbezogene Daten unter Verstoß gegen die Datenschutz-Grundverordnung (DS-GVO) verarbeitet, steht nicht nur diese Handlung, sondern auch die rechtliche Zulässigkeit des Systems insgesamt auf dem Prüfstand. Die möglichen Folgen reichen von Bußgeldern über behördliche Nutzungsuntersagungen bis hin zu zivilrechtlicher Haftung. Dieser Artikel zeigt auf, weshalb datenschutzrechtliche Mängel die Verwendbarkeit eines KI-Systems erheblich beeinträchtigen können und warum Fragen der KI-Compliance frühzeitig in den Entwicklungsprozess einbezogen werden sollten.​



Rechtswidriges Training

Die DS-GVO entfaltet ihre Wirkung nicht erst bei der Anwendung eines KI-Systems, sondern bereits während des Trainingsprozesses. Werden dabei personenbezogene Daten ohne Rechtsgrundlage verarbeitet, etwa ohne Einwilligung, ohne sachgerechte Interessenabwägung oder unter Verletzung von Informationspflichten, ist nicht nur der Datenumgang rechtswidrig. Auch das KI-System, das auf dieser Grundlage entstanden ist, kann nicht bedenkenlos weiterverwendet werden.

Denn die Verarbeitung „steckt“ im KI-System: Die Strukturen, Gewichtungen und Vorhersagemuster wurden aus den rechtswidrig genutzten Daten abgeleitet, unabhängig davon, ob die Rohdaten später gelöscht werden. Besonders kritisch wird es, wenn personenbezogene Inhalte im System technisch nachvollziehbar bleiben, etwa bei Sprachmodellen mit speichernden Effekten (Memorization). Dann wird aus einem abstrakten Datenschutzproblem ein konkreter Angriffspunkt, mit rechtlichen und wirtschaftlichen Folgen.

Sanktionen und Haftung

Die Konsequenzen datenschutzwidrig trainierter KI-Systeme sind vielfältig und in ihrer Tragweite erheblich. Die folgenden drei Ebenen sind für Unternehmen besonders relevant: 
 

1. Aufsichtsrechtliche Maßnahmen​

​​​​ Aufsichtsbehörden können nach Art. 58 DS-GVO die Nutzung eines KI-Systems untersagen oder dessen Löschung anordnen, wenn die zugrunde liegende Datenverarbeitung rechtswidrig war. Im Ergebnis könnte das gesamte KI-System nicht mehr verwendet werden, selbst wenn dieses technisch einwandfrei funktioniert.

2. Bußgelder und wirtschaftliche Risiken

Verstöße gegen die Datenschutz-Grundverordnung können nach Art. 83 DS-GVO mit Geldbußen von bis zu 20 Mio. Euro oder 4 Prozent des weltweiten Jahresumsatzes sanktioniert werden. 

Ergänzend greifen ab dem 2. August 2025 die Sanktionsvorschriften der KI-Verordnung, die bei verbotenen KI-Systemen oder fehlender Transparenz, weitere Bußgelder vorsehen – mit einer Obergrenze von bis zu 35 Mio. Euro oder 7 Prozent des weltweiten Jahresumsatzes. Für datengetriebene KI-Systeme, welche extern bereitgestellt oder wirtschaftlich verwertet werden, kann dies zu einem erheblichen unternehmerischen Risiko werden, nicht nur finanziell, sondern auch strategisch.​

3. Zivilrechtliche Ansprüche und Reputationsschäden

Zusätzlich zu behördlichen Maßnahmen können betroffene Personen zivilrechtliche Ansprüche geltend machen, insbesondere Schadensersatz nach Art. 82 DS-GVO. Dies setzt voraus, dass sie Kenntnis davon erlangen, dass ihre personenbezogenen Daten unrechtmäßig verwendet wurden, etwa durch Datenschutz-Auskunftsersuchen, öffentliche Verfahren oder Medienberichte. Zwar ist es bei komplexen KI-Systemen für Betroffene oft nicht ohne weiteres erkennbar, ob und wie ihre Daten im KI-System verarbeitet werden. Dennoch genügt bereits ein nachweisbarer Bezug, um Ansprüche auszulösen wie z.B., wenn sich ein Personenbezug technisch rekonstruieren lässt oder das KI-System Inhalte generiert, die auf identifizierbare Daten zurückzuführen sind. 

Öffentlich bekannt gewordene Verstöße führen zudem oft zu Reputationsschäden – das Vertrauen von Kunden, Partnern oder Investoren kann nachhaltig beeinträchtigt werden, insbesondere wenn das KI-System bereits im Markt sichtbar ist.

Technische und rechtliche Maßnahmen

Ein rechtswidrig trainiertes KI-System lässt sich meist nicht durch einfache Korrekturen bereinigen. Selbst wenn unzulässige personenbezogene Daten nachträglich entfernt werden, können deren Einflüsse im Modell fortwirken, etwa durch trainierte Gewichtungen oder reproduzierbare Muster. Ob ein Re-Training ausreicht oder das KI-System vollständig neu aufgesetzt werden muss, hängt von der technischen Struktur und dem Umfang des Verstoßes ab. Vorteilhaft sind modular aufgebaute Systeme, bei denen einzelne Trainingsphasen gezielt wiederholt oder isoliert angepasst werden können. Wo immer möglich, sollte zudem mit anonymisierten oder aggregierten Daten gearbeitet werden, um das Risiko personenbezogener Rückwirkungen von vorneherein zu vermeiden.

Auch eine frühzeitige Datenschutz-Folgenabschätzung (DSFA) kann ein wichtiges Instrument zur Risikosteuerung sein. Sie ersetzt zwar keine rechtmäßige Datenverarbeitung, hilft aber, Risiken systematisch zu erkennen und dokumentiert zu belegen, dass rechtliche Anforderungen frühzeitig geprüft werden. Einen vertiefenden Überblick zur DSFA im KI-Kontext finden Sie in unserem vorherigen Artikel. 

Unternehmen, die technische und rechtliche Prüfprozesse bereits in der Entwicklung koordinieren, sichern nicht nur die Compliance, sondern auch die langfristige Tagfähigkeit der Modelle.

Fazit

Die Einhaltung datenschutzrechtlicher Vorgaben ist keine bloße Formalie, sondern ein zentraler Baustein jeder verantwortungsvollen KI-Strategie, insbesondere im Hinblick auf Trainingsprozesse, die häufig außerhalb des unmittelbaren Fokus operativer Kontrolle liegen. Unternehmen, die frühzeitig technische Strukturen, rechtliche Anforderungen und interne Kontrollmechanismen zusammenführen, schaffen nicht nur Rechtssicherheit, sondern reduzieren das Risiko regulatorischer Eingriffe und finanzieller Schäden. Letztlich schützen sie auch das Vertrauen in ihre Technologie, ein Faktor, der für die Akzeptanz und langfristige Nutzbarkeit von KI-Systemen entscheidend ist.

Kontakt

Contact Person Picture

Johannes Marco Holz, LL.M.

Rechtsanwalt, Fachanwalt für Informationstechnologierecht, Datenschutzbeauftragter (GDDcert.EU), Master of Laws Rechtsinformatik (Universität Passau)

Partner

+49 911 9193 1511

Anfrage senden

Profil

Contact Person Picture

Prishila Hanelli

Wirtschaftsjuristin, LL.M.

+49 521 2607 4834

Anfrage senden

Wir beraten Sie gern!

Mehr lesen?

 
Befehle des Menübands überspringen
Zum Hauptinhalt wechseln
Deutschland Weltweit Search Menu