Alltagsmagazin.de

News und Tipps aus allen Lebensbereichen

Künstliche Intelligenzen: Wie soll der Datenschutz gewährleistet werden?

Teamwork of business women and men working together with computer and laptop

Viele Menschen haben Bedenken, ob bei der Nutzung von ChatGBT und Co. der Datenschutz in vollem Umfang garantiert ist. Dazu hat die Bundesregierung Stellung bezogen.

Die Stellungnahme der Bundesregierung zum Datenschutz bei Künstlichen Intelligenzen ist das Resultat einer Kleinen Anfrage aus dem Bundestag. Sie fokussierte sich auf die Nutzung von ChatGBT, aber die Rechtslage lässt sich unverändert auf alle anderen Künstlichen Intelligenzen übertragen, die zur maschinellen Erstellung von Texten und Grafiken mittlerweile angeboten werden. Die grundsätzliche Aussage lautet, dass sie ausnahmslos alle bei der Nutzung in Deutschland die Regelungen der europäischen Datenschutz-Grundverordnung (kurz DSGVO) sowie des Bundesdatenschutzgesetzes beachten müssen.

Wer überwacht die Datennutzung bei den verschiedenen KIs?

Die Bundesregierung hat die Überwachung der Einhaltung der gesetzlichen Vorgaben zum Datenschutz bei Künstlichen Intelligenzen zur Text- und Grafikerstellung an unabhängige Datenschutzaufsichtsbehörden übertragen. Sie besitzen in Deutschland auch die notwendigen Befugnisse für die Verhängung von Auflagen und Einschränkungen sowie eine Sperrung des Zugangs, wie sie beispielsweise in Italien im Frühjahr 2023 zeitweise gegen ChatGBT verhängt wurde. Das gilt auch für die geplante Einbindung dieser KI beispielsweise im Microsoft-Office-Paket sowie bei Cortana, Skype und Teams. Das Bundesamt für Sicherheit in der Informationstechnik (kurz BSI) hat zu den Risiken und möglichen Schutzmaßnahmen bei der Nutzung der „großen KI-Sprachmodelle“ (nach der englischen Bezeichnung „large language models“ kurz LLMs genannt) erarbeitet und veröffentlicht. Zusätzlich verweist die Bundesregierung in ihrer Antwort darauf, dass bei Urheberrechtsverstößen und Ansprüchen auf Unterlassung genau wie bei allen anderen Publikationen das nationale und europäische Recht angewendet wird.

Welche Risiken sieht das BSI bei der Nutzung der LLMs?

Die LLMs stellen Zusammenhänge aufgrund statistischer Wahrscheinlichkeiten her. Vereinfacht ausgedrückt bedeutet das, dass die KIs damit durchaus auch Zusammenhänge „erfinden“ können, die keiner wissenschaftlichen Überprüfung standhalten. Das BSI bezeichnet das in der Risikoanalyse wörtlich als „Halluzinieren des KI-Modells“. Die Art der textlichen Darstellung führt dazu, dass viele Nutzer die Angaben ungeprüft als richtig betrachten, was das Risiko einer Verbreitung falscher Annahmen signifikant erhöht. Zudem betont das BSI die derzeit vielen LLMs noch fehlende Aktualität. Sie resultiert aus der Tatsache, dass die KIs zur Texterstellung mehrheitlich nur mit Daten aus der Vergangenheit „gefüttert“ und trainiert wurden. Das kann in vielen Fällen zu einer falschen Bewertung aktueller Ereignisse führen. Dazu trägt vor allem der Fakt bei, dass die Antworten auf den ersten Blick fachlich fundiert zu sein scheinen, was sie aber tatsächlich nicht sind. Ergänzend merkt das BSI an, dass das Risiko von Falschinformationen auch dadurch entsteht, dass Nutzer/-innen des Internets dort fahrlässig oder vorsätzlich falsche Informationen publizieren. Als einfachstes Beispiel benennt das BSI Publikationen mit vielen orthografischen und grammatikalischen Fehlern sowie die Verwendung von Fachbegriffen und Fremdwörtern. Dadurch werden die Texte für die LLMs unverständlich und sie tendieren zum oben genannten „Halluzinieren“.

Einsatz von LLMs kann in vielen Fällen großen Nutzen bringen

Genau deshalb werden auch erhebliche Gelder für die Unterstützung von Forschungsprojekten aufgewendet. Das Bundesgesundheitsministerium stellt beispielsweise 1,8 Millionen Euro als Förderung eines Projekts zur Nutzung von KI-basierten Spracherkennungssystemen bei der Kommunikation in der Polytraumaversorgung zur Verfügung. An der Entwicklung dieses HYKIST genannten Systems sind mehrere Universitäten sowie das Fraunhofer Institut beteiligt. Bei der Bundesanstalt für Arbeitsschutz und Arbeitsmedizin (BAuA) laufen derzeit Forschungen, wie mit den KI-gesteuerten Chatbots die Arbeitssicherheit verbessert werden kann.

Quelle: Deutscher Bundestag Drucksache 20/7262, BSI-Dokumentation „Große KI-Sprachmodelle“

About Author