KI-Verordnung: Zwischen Selbstverpflichtung und klaren Verantwortlichkeiten

chnatGPT_Questions

Seit April 2021 wird in Brüssel ein Rechtsrahmen für KI, der Artificial Intelligence Act (AI Act), verhandelt. Dieser soll Regeln und Qualitätsvorgaben für Betreiber von KI-Systemen definieren. Der Rat hatte sich bereits am 6. Dezember 2022 auf eine Position zum AI Act geeinigt. Das Europäische Parlament folgte am 14. Juni 2023. Im Rahmen der Trilog-Verhandlungen fand am 24. Oktober 2023 die entscheidende Verhandlung zwischen Rat, Europäischem Parlament und Europäischer Kommission statt. Eine Einigung soll bis Ende 2023 erfolgen.

Jetzt scheine die Diskussionen über einen europäischen Rechtsrahmen für Künstliche Intelligenz (KI) einen kritischen Punkt zu erreichen. Im Trilog zwischen der Europäischen Kommission, dem Parlament und dem Rat hatte das Europäische Parlament am 14. Juni 2023 bedeutende Änderungen am Entwurf gefordert. Ein zentraler Punkt ist die Einbeziehung von Basismodellen, KI-Systemen, die auf breiten Datensätzen basieren und für verschiedene Aufgaben angepasst werden können.

Das Parlament schlägt vor, dass Anbieter von Basismodellen Mindestanforderungen erfüllen sollten, einschließlich Datenqualität, Erklärbarkeit und Cybersicherheit. Allerdings haben Deutschland, Frankreich und Italien in einem Positionspapier gegen verbindliche Vorgaben für Basismodelle plädiert und stattdessen ein Konzept der Selbstregulierung vorgeschlagen.

Die Datenschutzaufsichtsbehörden (DSK) betonen die Notwendigkeit einer klaren Zuweisung von Verantwortlichkeiten entlang der gesamten KI-Wertschöpfungskette im geplanten europäischen KI-Gesetz. Dies sei entscheidend, um die Grundrechte der Betroffenen zu schützen. Ähnliche Forderungen hatte bereits auch der die Verbraucherzentrale Bundesverband (vzbv) aufgestellt. Rechtsunsicherheiten könnten besonders kleinen und mittleren Unternehmen schaden, die die Hauptlast der rechtlichen Verantwortung tragen. Die KI-Verordnung sollte klare Regeln für alle Beteiligten, einschließlich Hersteller von Basismodellen, festlegen, um die beherrschbare Nutzung von KI zu gewährleisten. Eine einseitige Verlagerung der rechtlichen Verantwortung auf spätere Stufen der Wertschöpfungskette wäre datenschutzrechtlich und wirtschaftlich unangebracht.

Es müsse den KI-Betreibern und KI-Anwendern, darunter gerade auch den heimischen kleinen und mittleren Unternehmen, möglich sein, die Risiken korrekt zu identifizieren. Dies sei nicht nur Bedingung für Datenschutz-Folgenabschätzungen, sondern auch Grundlage, um die Anforderungen des Artikel 25 Datenschutz-Grundverordnung zu Datenschutz by Design und by Default zu erfüllen.

Letztes Update:03.12.23

  • Informationen zur KI

    Bildung und Sensibilisierung zum Thema KI

    Das Bayerische Landesamt für Datenschutzaufsicht (bayLDA) möchte mit seinem neuen Informationsangebot zu Datenschutz und Künstliche Intelligenz seinem Sensibilisierungsauftrag in diesem Bereich gerecht werden. Dank der leicht und vielfältig nutzbaren Sprachmodelle wie „ChatGPT“ durchdringt das Thema „Künstliche Intelligenz“ immer mehr den Alltag von Bürgern, Schülern, Beschäftigten und durchdringt auch Arbeitprozesse von Organisationen. Der Zugang zu leistungsfähigen

    Mehr erfahren
  • Best Practice Chatbots

    BSI veröffentlicht Leitfaden zur sicheren Nutzung von KI-Systemen

    Nicht nur in den Deutschland werden neben den vielen Vorteilen von KI-Systemen, auch die mit der Entwicklung und Anwendung von KI-Systemen verbundenen Risiken gesehen. Mit Blick darauf, den identifizierten Gefahren und möglichen Bedrohungen verfügbaren Gegenmaßnahmen entgegen setzen zu können, hat sich das Bundesamt für Sicherheit in der Informationstechnik (BSI) mit seinen Partnerbehörden aus Australien, Israel,

    Mehr erfahren
  • Personenbeziehbarkeit

    Aktueller Stand: Wann sind natürliche Personen identifizierbar?

    Man sollte meinen, dass es gerade zu dieser Frage, die ja nun den Anwendungsbereich des Datenschutzrechts eröffnet, zwischenzeitlich „gesicherte Erkenntnisse“ gibt. Wenn jedoch der Bayerische Landesbeauftragte für den Datenschutz (BayLfD) die neueste Ausgabe seiner sog. „Aktuellen Kurzinformationen (AKI)“ dieser Frage widmet, darf davon ausgegangen werden, dass es genau zu dieser Frage immer noch keine klaren

    Mehr erfahren