Datenschutzrelevanz von Chatbots: Hinweise der Aufsichtsbehörde

Chatbots

Ein Chatbot ist eine computerbasierte Software oder künstliche Intelligenz, die entwickelt wurde, um mit Menschen in natürlicher Sprache zu kommunizieren. Chatbots werden oft in Messaging-Plattformen, sozialen Medien, Websites oder mobilen Apps eingesetzt, um menschenähnliche Konversationen mit Benutzern zu führen. Sie können dazu verwendet werden, Fragen zu beantworten, Aufgaben zu automatisieren, Informationen bereitzustellen oder sogar einfache Unterhaltungen zu führen.

Chatbots werden in verschiedenen Bereichen eingesetzt, darunter Kundensupport, E-Commerce, Gesundheitswesen, Finanzdienstleistungen, Marketing und viele andere. Sie können die Effizienz steigern, Kosten senken und die Benutzererfahrung verbessern, insbesondere wenn sie gut entwickelt und trainiert sind.

Chatbots können aus Datenschutzgründen problematisch sein, wenn sie nicht ordnungsgemäß entwickelt, implementiert und verwaltet werden. Hier sind einige der Gründe, warum Chatbots Datenschutzprobleme verursachen können:

  1. Datensammlung: Chatbots sammeln häufig Informationen über Benutzer, einschließlich persönlicher Daten wie Namen, Kontaktinformationen und Präferenzen. Wenn diese Daten nicht angemessen geschützt oder gespeichert werden, kann dies zu Datenschutzverletzungen führen.
  2. Sicherheitslücken: Schlecht gesicherte Chatbot-Systeme können anfällig für Hacking und Datenlecks sein. Angreifer könnten versuchen, auf die gesammelten Daten zuzugreifen, was die Privatsphäre der Benutzer gefährdet.
  3. Mangelnde Transparenz: Wenn Chatbots nicht klar kommunizieren, welche Daten sie sammeln und wie sie verwendet werden, kann dies das Vertrauen der Benutzer beeinträchtigen. Datenschutzrichtlinien sollten transparent sein und leicht zugänglich sein.
  4. Zweckentfremdung von Daten: Daten, die von Chatbots gesammelt werden, sollten nur für den vorgesehenen Zweck verwendet werden. Wenn diese Daten ohne Zustimmung des Benutzers für andere Zwecke genutzt werden, kann dies gegen Datenschutzgesetze verstoßen.
  5. Fehlende Einwilligung: In einigen Fällen kann die Einwilligung der Benutzer erforderlich sein, bevor Daten durch den Chatbot gesammelt oder verarbeitet werden dürfen. Das Fehlen einer klaren Einwilligung kann Datenschutzprobleme verursachen.
  6. Diskriminierung und Voreingenommenheit: KI-Chatbots können voreingenommen sein und unfaire oder diskriminierende Entscheidungen treffen, wenn sie auf unzureichenden oder voreingenommenen Daten trainiert wurden. Dies kann zu rechtlichen und ethischen Problemen führen.
  7. Aufbewahrung und Löschung von Daten: Die ordnungsgemäße Aufbewahrung und Löschung von Benutzerdaten sind wichtige Datenschutzaspekte. Wenn Daten nicht entsprechend den Datenschutzrichtlinien gelöscht werden, kann dies ein Risiko darstellen.

Die Datenschutzstelle des Fürstentums Liechtenstein hat sich dieser Thematik angenommen und eine Reihe nützlicher Hinweise für Verantwortliche in Interessierte veröffentlicht. Nach Auffassung der Datenschutzstelle muss der Verantwortliche zum Einen sicherstellen, dass die konkrete Datenverarbeitung durch den Chatbot auf die richtige Rechtsgrundlage gemäss Art. 6 Abs. 1 und ggf. Art. 9 Abs. 2 DS-GVO gestützt ist, und zum Anderen, dass die betroffenen Nutzer transparent über alle damit verbundenen Verarbeitungsvorgänge informiert werden.

Die Hinweise der Datenschutzstelle im Hinblick auf aktuelle Rechtsunsicherheiten bei (generativen) KI-basierten Chatbot-Systemen sowie eine Auflistung weiterführenden Informationsquellen runden die Veröffentlichung der Datenschutzbehörde ab.

Datenschutzstelle Fürstentum Liechstenstein

(Foto: AF DigitalArtStudio – stock.adobe.com)


Letztes Update:05.11.23

  • Wissenschaftspreis für Datenschutz und Datensicherheit

    GDD-Wissenschaftspreise für den akademischen Nachwuchs 2023

    Anlässlich der 47. Datenschutzfachtagung (DAFTA) wurden die Wissenschaftspreise der Gesellschaft für Datenschutz und Datensicherheit e.V. (GDD) verliehen. Jedes Jahr vergibt der wissenschaftliche Beirat der GDD unter Vorsitz von Prof. Dr. Tobias Keber den GDD-Wissenschaftspreis als Würdigung für herausragende wissenschaftliche Arbeiten. Der Preis ist auf 5.000 € dotiert und geht an Nachwuchswissenschaftler aller Disziplinen, die sich

    Mehr erfahren
  • chnatGPT_Questions

    KI-Verordnung: Zwischen Selbstverpflichtung und klaren Verantwortlichkeiten

    Seit April 2021 wird in Brüssel ein Rechtsrahmen für KI, der Artificial Intelligence Act (AI Act), verhandelt. Dieser soll Regeln und Qualitätsvorgaben für Betreiber von KI-Systemen definieren. Der Rat hatte sich bereits am 6. Dezember 2022 auf eine Position zum AI Act geeinigt. Das Europäische Parlament folgte am 14. Juni 2023. Im Rahmen der Trilog-Verhandlungen

    Mehr erfahren
  • KI-Entwicklung

    Leitfaden: Entwicklung von sicheren KI-Systemen

    KI-Systeme finden vielfältige Anwendungen, darunter die Prognose von Klima- und Finanzmärkten, automatisierte medizinische Diagnosen sowie (teil-) autonome Transportmittel. Um sicherzustellen, dass diese Systeme den Anforderungen der Informationssicherheit gerecht werden, ist nicht nur eine sichere Planung und Entwicklung, sondern auch eine sichere Implementierung und Betrieb erforderlich. In Zusammenarbeit mit 23 internationalen Cybersicherheitsbehörden aus 18 Ländern hat

    Mehr erfahren