Die Stellungnahme der Bundesregierung zum
Wer überwacht die Datennutzung bei den verschiedenen KIs?
Die Bundesregierung hat die Überwachung der Einhaltung der gesetzlichen Vorgaben zum Datenschutz bei Künstlichen Intelligenzen zur Text- und Grafikerstellung an unabhängige Datenschutzaufsichtsbehörden übertragen. Sie besitzen in Deutschland auch die notwendigen Befugnisse für die Verhängung von Auflagen und Einschränkungen sowie eine Sperrung des Zugangs, wie sie beispielsweise in Italien im Frühjahr 2023 zeitweise gegen ChatGBT verhängt wurde. Das gilt auch für die geplante Einbindung dieser KI beispielsweise im Microsoft-Office-Paket sowie bei Cortana, Skype und Teams. Das Bundesamt für Sicherheit in der Informationstechnik (kurz BSI) hat zu den Risiken und möglichen Schutzmaßnahmen bei der Nutzung der „großen KI-Sprachmodelle“ (nach der englischen Bezeichnung „large language models“ kurz LLMs genannt) erarbeitet und veröffentlicht. Zusätzlich verweist die Bundesregierung in ihrer Antwort darauf, dass bei Urheberrechtsverstößen und Ansprüchen auf Unterlassung genau wie bei allen anderen Publikationen das nationale und europäische Recht angewendet wird.
Welche Risiken sieht das BSI bei der Nutzung der LLMs?
Die LLMs stellen Zusammenhänge aufgrund statistischer Wahrscheinlichkeiten her. Vereinfacht ausgedrückt bedeutet das, dass die KIs damit durchaus auch Zusammenhänge „erfinden“ können, die keiner wissenschaftlichen Überprüfung standhalten. Das BSI bezeichnet das in der Risikoanalyse wörtlich als „Halluzinieren des KI-Modells“. Die Art der textlichen Darstellung führt dazu, dass viele Nutzer die Angaben ungeprüft als richtig betrachten, was das Risiko einer Verbreitung falscher Annahmen signifikant erhöht. Zudem betont das BSI die derzeit vielen LLMs noch fehlende Aktualität. Sie resultiert aus der Tatsache, dass die KIs zur Texterstellung mehrheitlich nur mit Daten aus der Vergangenheit „gefüttert“ und trainiert wurden. Das kann in vielen Fällen zu einer falschen Bewertung aktueller Ereignisse führen. Dazu trägt vor allem der Fakt bei, dass die Antworten auf den ersten Blick fachlich fundiert zu sein scheinen, was sie aber tatsächlich nicht sind. Ergänzend merkt das BSI an, dass das Risiko von Falschinformationen auch dadurch entsteht, dass Nutzer/-innen des Internets dort fahrlässig oder vorsätzlich falsche Informationen publizieren. Als einfachstes Beispiel benennt das BSI Publikationen mit vielen orthografischen und grammatikalischen Fehlern sowie die Verwendung von Fachbegriffen und Fremdwörtern. Dadurch werden die Texte für die LLMs unverständlich und sie tendieren zum oben genannten „Halluzinieren“.
Einsatz von LLMs kann in vielen Fällen großen Nutzen bringen
Genau deshalb werden auch erhebliche Gelder für die Unterstützung von Forschungsprojekten aufgewendet. Das Bundesgesundheitsministerium stellt beispielsweise 1,8 Millionen Euro als Förderung eines Projekts zur Nutzung von KI-basierten Spracherkennungssystemen bei der Kommunikation in der Polytraumaversorgung zur Verfügung. An der Entwicklung dieses HYKIST genannten Systems sind mehrere Universitäten sowie das Fraunhofer Institut beteiligt. Bei der Bundesanstalt für Arbeitsschutz und Arbeitsmedizin (BAuA) laufen derzeit Forschungen, wie mit den KI-gesteuerten Chatbots die Arbeitssicherheit verbessert werden kann.
Quelle: Deutscher Bundestag Drucksache 20/7262, BSI-Dokumentation „Große KI-Sprachmodelle“
Weitere Meldungen
Neue Mogelpackung des Monats gekürt
Nachwirkungen der Coronakrise: BGH-Urteil zur Erstattung von Hotelkosten
Pauschalreiserichtlinie: Kritik an geplantem EU-Recht