BfDI startet öffentliche Konsultation zu KI-Modellen
15.07.2025
Entwicklung praxisrelevanter Ansätze durch Einbindung der Fachöffentlichkeit
KI-Modelle, insbesondere große Sprachmodelle (sog. LLMs - Large Language Modells) können personenbezogene Informationen wortgetreu und sinngemäß aus ihren Trainingsdaten wiedergeben. Ergebnisse aus KI-Systemen können dementsprechend Rückschlüsse auf bestimmte Personen zulassen. Dieses Problem beschäftigt Aufsichtsbehörden weltweit spätestens seit der Veröffentlichung von ChatGPT und der damit einhergehenden massiven Verfügbarkeit von neuen KI-Angeboten für Verbraucherinnen und Verbraucher.
Aus Sicht der BfDI ergeben sich auch im Jahr 2025 noch zahlreiche Fragen nach dem Schutz personenbezogener Daten beim Training von KI-Modellen.
Mit einem öffentlichen Konsultationsverfahren, das am 10.07.2025 gestartet ist und am 10.08.2025 endet, will die BfDI dazu beitragen, dass praktisches Wissen über KI-Modelle für die aufsichtsrechtliche Bewertung für alle zur Verfügung steht. Für die Entwicklung praktikabler und erfolgversprechender datenschutzrechtlicher Ansätze sollen Erfahrungen, Herausforderungen und Lösungen aus der Praxis sichtbar gemacht werden.
Damit unrealistische und unklare Regelungen vermieden werden, sei die Mithilfe der Anbieter und Forschenden erforderlich. Die BfDI nutzt öffentliche Konsultationen auch, um Rechtssicherheit für alle Beteiligten durch Transparenz und Dialog zu gewährleisten.
Im Bereich des Konsultationsverfahren "Schutz personenbezogener Daten in KI-Modellen" finden Sie alle weiteren Details.