Geprüfte KI-Anwendungen durch den HmbBfDI
Der Hamburgische Beauftragte für Datenschutz und Informationsfreiheit (HmbBfDI) hat im Berichtsjahr 2024/2025 mehrere KI-gestützte Systeme unter datenschutzrechtlichen Gesichtspunkten begleitet und bewertet. Die Anwendungen betreffen sowohl den öffentlichen Sektor als auch den Gesundheitsbereich und zeigen exemplarisch, welche Herausforderungen mit dem Einsatz lernender Systeme verbunden sind.
1. KI-gestützte Entlassbrief-Erstellung am UKE („ARGO CL“)
Das Universitätsklinikum Hamburg-Eppendorf nutzt mit „ARGO Clinical Letters“ ein KI-Sprachmodell zur automatisierten Erstellung von Arztbriefen. Grundlage des Systems ist ein LLM, das mit pseudonymisierten Behandlungsdaten aus der digitalen Patientenakte des UKE trainiert wurde. Die Datenschutzaufsicht prüft unter anderem:
- die datenschutzrechtliche Verantwortlichkeit (IDM/UKE),
- die Zulässigkeit des KI-Trainings auf Basis von Art. 9 Abs. 2 lit. j DSGVO i.V.m. § 12 HmbKHG,
- die Sicherstellung von Betroffenenrechten und
- die Qualität der Pseudonymisierung sowie Anonymisierung nach dem Training.
Besonderes Augenmerk gilt der wissenschaftlichen Zielsetzung des Projekts und der Pflicht zur transparenten Information der Betroffenen. Der Abschluss der Prüfung ist für 2025 vorgesehen.
2. „LLMoin“ – KI-Textassistent für die Hamburger Verwaltung
Der KI-Chatbot „LLMoin“, basierend auf GPT-4o, wird zur Textgenerierung und Recherche eingesetzt. Während zunächst keine personenbezogenen Daten verarbeitet werden durften, erlaubt die erweiterte Nutzung inzwischen deren Verarbeitung bei „normalem Schutzbedarf“. Der HmbBfDI bewertet laufend:
- die Verantwortlichkeitsverteilung zwischen Senatskanzlei und Fachbehörden,
- die Umsetzung von Betroffenenrechten, insbesondere im Prompting und bei Logdaten,
- die Notwendigkeit einer Datenschutz-Folgenabschätzung sowie
- die geplante zentrale Protokollierung und deren mögliche Verstöße gegen das Trennungsprinzip.
Positiv ist die frühzeitige Einbindung der Datenschutzaufsicht. Kritisch bleibt insbesondere die zentrale Speicherung von Logdaten mit möglichen Rückschlüssen auf Nutzerverhalten.
3. Erkennung von Ertrinkenden durch KI im Hamburger Schwimmbad
Im Bille-Bad testet die Stadt Hamburg das System „Lynxight“, das mithilfe maschinellen Lernens Bewegungsmuster erkennt, die auf drohende Ertrinkungsunfälle hinweisen. Der HmbBfDI begleitet den Pilotbetrieb unter besonderer Beachtung:
- der Zweckbindung und Datenminimierung,
- der räumlichen Begrenzung der Videoüberwachung,
- des Verzichts auf Cloud-Speicherung,
- der Gestaltung der Alarmierung (anonymisiert auf Smartwatch) sowie
- der datenschutzkonformen Kalibrierung.
Die Systeme sollen ausschließlich präventiv arbeiten und keine dauerhafte Videoauswertung zulassen. Eine kontinuierliche Beratung stellt sicher, dass offene datenschutzrechtliche Fragen eng begleitet werden.
(Foto: tippapatt – stock.adobe.com)
Letztes Update:06.04.25
Verwandte Produkte
Das könnte Sie auch interessieren
-
Folge 83: Psychologie im Spiegel der KI
Die Haltung der Menschen zu KI wandelt sich nach dem Befund des Psychologen Stephan Grünewald. Aus dem Zauberstab des „Allmachts-Boosters“ sei eine Bedrohung geworden. KI sei zwischen „persönlichem Heinzelmann und gefügigem Traumpartner“ gestartet: „Was kann ich noch selbst? Und wer bin ich überhaupt noch?“. Diese Fragen stellen sich für den Menschen. Wie hätte man vor
Mehr erfahren -
Folge 86: KI-Daten-Wirtschaft – Der Parlamentarische Abend der GDD im Rückblick
Im Dezember 2025 hat die GDD zum Parlamentarischen Abend in der Deutschen Parlamentarischen Gesellschaft in Berlin eingeladen. Unter der Schirmherrschaft von MdB Günter Krings haben Thomas Jarzombek, Parlamentarischer Staatssekretär im BMDS, Dr. Daniela Brönstrup, Vizepräsidentin der BNetzA, und DSK-Chef Tobias Keber, VAUNET-Chef Claus Grewenig, der Neuropathologe Felix Sahm und Kristin Benedikt diskutiert, moderiert von Rolf
Mehr erfahren -
EuGH: Banken haften auch ohne Verurteilung ihrer Organmitglieder
Der Europäische Gerichtshof hat mit Urteil vom 29. Januar 2026 (C-291/24) entschieden, dass die EU-Geldwäscherichtlinie einer nationalen Regelung entgegensteht, die Sanktionen gegen juristische Personen von der förmlichen Feststellung der Schuld natürlicher Personen abhängig macht. Das Urteil stärkt die Durchsetzbarkeit von Compliance-Anforderungen im Finanzsektor. Ausgangssachverhalt aus Österreich Die österreichische Finanzmarktaufsicht (FMA) hatte gegen die Steiermärkische Bank
Mehr erfahren




