KI-Verordnung: Zwischen Selbstverpflichtung und klaren Verantwortlichkeiten
Seit April 2021 wird in Brüssel ein Rechtsrahmen für KI, der Artificial Intelligence Act (AI Act), verhandelt. Dieser soll Regeln und Qualitätsvorgaben für Betreiber von KI-Systemen definieren. Der Rat hatte sich bereits am 6. Dezember 2022 auf eine Position zum AI Act geeinigt. Das Europäische Parlament folgte am 14. Juni 2023. Im Rahmen der Trilog-Verhandlungen fand am 24. Oktober 2023 die entscheidende Verhandlung zwischen Rat, Europäischem Parlament und Europäischer Kommission statt. Eine Einigung soll bis Ende 2023 erfolgen.
Jetzt scheine die Diskussionen über einen europäischen Rechtsrahmen für Künstliche Intelligenz (KI) einen kritischen Punkt zu erreichen. Im Trilog zwischen der Europäischen Kommission, dem Parlament und dem Rat hatte das Europäische Parlament am 14. Juni 2023 bedeutende Änderungen am Entwurf gefordert. Ein zentraler Punkt ist die Einbeziehung von Basismodellen, KI-Systemen, die auf breiten Datensätzen basieren und für verschiedene Aufgaben angepasst werden können.
Das Parlament schlägt vor, dass Anbieter von Basismodellen Mindestanforderungen erfüllen sollten, einschließlich Datenqualität, Erklärbarkeit und Cybersicherheit. Allerdings haben Deutschland, Frankreich und Italien in einem Positionspapier gegen verbindliche Vorgaben für Basismodelle plädiert und stattdessen ein Konzept der Selbstregulierung vorgeschlagen.
Die Datenschutzaufsichtsbehörden (DSK) betonen die Notwendigkeit einer klaren Zuweisung von Verantwortlichkeiten entlang der gesamten KI-Wertschöpfungskette im geplanten europäischen KI-Gesetz. Dies sei entscheidend, um die Grundrechte der Betroffenen zu schützen. Ähnliche Forderungen hatte bereits auch der die Verbraucherzentrale Bundesverband (vzbv) aufgestellt. Rechtsunsicherheiten könnten besonders kleinen und mittleren Unternehmen schaden, die die Hauptlast der rechtlichen Verantwortung tragen. Die KI-Verordnung sollte klare Regeln für alle Beteiligten, einschließlich Hersteller von Basismodellen, festlegen, um die beherrschbare Nutzung von KI zu gewährleisten. Eine einseitige Verlagerung der rechtlichen Verantwortung auf spätere Stufen der Wertschöpfungskette wäre datenschutzrechtlich und wirtschaftlich unangebracht.
Es müsse den KI-Betreibern und KI-Anwendern, darunter gerade auch den heimischen kleinen und mittleren Unternehmen, möglich sein, die Risiken korrekt zu identifizieren. Dies sei nicht nur Bedingung für Datenschutz-Folgenabschätzungen, sondern auch Grundlage, um die Anforderungen des Artikel 25 Datenschutz-Grundverordnung zu Datenschutz by Design und by Default zu erfüllen.
Letztes Update:03.12.23
Das könnte Sie auch interessieren
-
Neue Datenschutz‑Hilfen von Microsoft für M365 und Copilot
Microsoft hat im November 2025 ein Paket neuer Dokumentations‑ und Compliance‑Hilfen vorgestellt, das Unternehmen bei der datenschutzkonformen Nutzung von Cloud- und KI‑Diensten unterstützen soll. Inhalte der neuen Hilfsmittel Ziel und Selbstverständnis Microsoft gibt an, mit diesen Hilfen den Nachweis der DSGVO‑Konformität und Erfüllung von Rechenschaftspflichten zu erleichtern – gerade im Kontext von KI‑gestützten Anwendungen und
Mehr erfahren -
HBDI gibt grünes Licht für Microsoft 365 – unter Bedingungen
Der Hessische Beauftragte für Datenschutz und Informationsfreiheit (HBDI) hat mit seinem am 15. November 2025 veröffentlichten Bericht bestätigt, dass Microsoft 365 unter bestimmten Bedingungen datenschutzkonform genutzt werden kann. Hintergrund der Einschätzung Nach früherer Kritik der Datenschutzkonferenz (DSK), wonach das Vertragswerk (Data Protection Addendum, DPA) von Microsoft im Jahr 2022 nicht den Anforderungen des Art. 28 DS-GVO genügen
Mehr erfahren -
BSI: IT‑Sicherheitslage bleibt angespannt
Das BSI hat am 11. November 2025 den neuen Jahresbericht „Die Lage der IT-Sicherheit in Deutschland 2025“ veröffentlicht. Die Bewertung der Behörde fällt klar aus: Deutschland bleibt trotz Verbesserungen bei der Cyberresilienz weiterhin eine angreifbare Zielstruktur für Cyberkriminelle und staatlich organisierte Angreifer. Wachsende Schwachstellen und vergrößerte Angriffsflächen Cyberbedrohungen in Vielfalt und Professionalisierung Fortschritte – aber
Mehr erfahren

