Generative KI ("KI" steht für "Künstliche Intelligenz"; dem englischen Ausdruck folgend wird auch von Generative AI gesprochen, wobei AI als Abkürzung für "Artificial Intelligence" fungiert) ist ein Sammelbegriff für KI-basierte Systeme, mit denen auf vermeintlich professionelle und kreative Weise vielfältige Ergebnisse produziert werden können, bspw. Texte (etwa mit Hilfe von ChatGPT und anderen Large Language Models), Fotos und andere Bilder (etwa mit Hilfe von DALL-E oder Midjourney), Videos, Audioaufnahmen (etwa mit Hilfe des AI Music Generators), Codes und vieles mehr. Generative KI soll menschliche Fertigkeiten erreichen oder gar übertreffen. An der Hochschule kann sie Studenten, Lehrkräfte, Verwaltungsmitarbeiter und Wissenschaftler unterstützen und Bestandteil von komplexeren Systemen sein. Generative KI verwendet unter Heranziehung unterschiedlicher Datenquellen und Trainingsmethoden sog. Machine Learning, insbesondere Deep Learning. In den letzten Jahren drängten viele verschiedene Produkte auf den Markt.
Neben den unbestreitbaren Vorteilen, die generative KI mit sich bringt, stellt sie uns auch vor neue Herausforderungen, die es zu beleuchten und zu bewältigen gilt.
Nach anfänglicher Euphorie über die neue Technologie mehrten sich kritische Stimmen, die auf die Risiken des Einsatzes generativer KI hinweisen. Einigkeit besteht in der Diskussion insoweit, als ein Innehalten, ein Reflektieren der positiven wie negativen Auswirkungen sowie die Schaffung eines Regelwerkes zur Nutzung dieser Technologie gefordert wird (bspw. der offene Brief von Experten aus Forschung, Wissenschaft und der Tech-Branche vom 29.3.2023 sowie die sehr umfangreiche Stellungnahme des Deutschen Ethikrats vom 20.3.2023.
Die Entwicklung und der Einsatz von generativer KI an der Universität Rostock ist im Rahmen der Vorgaben des Rektorats grundsätzlich möglich, sofern die Nutzung datenschutzkonform erfolgt. Bitte überprüfen und dokumentieren Sie anhand der vom Bayrischen Landesamt für Datenschutz erarbeitete Checkliste, ob Ihr Vorhaben die Prüfkriterien nach DSGVO erfüllt.
Aus datenschutzfachlicher Sicht rate ich aktuell davon ab, ChatGPT in der derzeit verfügbaren Ausgestaltung einzusetzen. Um seine Algorithmen zu trainieren, sammelt und speichert ChatGPT massenhaft personenbezogene Informationen seiner Nutzer, ohne dass dafür eine Rechtsgrundlage existiert. Auch wird den Nutzern vom Anbieter nicht bzw. nicht in ausreichendem Maße mitgeteilt, welche Informationen von ihnen gespeichert werden. U.a. wegen dieser Verstöße gegen die Datenschutzgrundverordnung (DSGVO) hat die italienische Datenschutzaufsichtsbehörde dem Unternehmen OpenAI am 31.3.2023 mit sofortiger Wirkung verboten, Informationen italienischer Nutzer zu verarbeiten und Nachbesserungen gefordert. Seit Kurzem steht ChatGPT auch in Deutschland auf dem Prüfstand. Die sog. Datenschutzkonferenz, ein Zusammenschluss des Bundesdatenschutzbeauftragten sowie aller Datenschutzaufsichtsbehörden der Bundesländer, eroriert, ob und wie ChatGPT datenschutzkonform eingesetzt werden kann. Ich empfehle, das Ergebnis dieser Prüfung abzuwarten.
Solange ChatGPT nicht mit geltendem Datenschutzrecht vereinbar ist, kann eine Verwendung an der UR nicht empfohlen werden.
Veröffentlichungen der Aufsichtsbehörden
HmbBfDI: Large Language Models und personenbezogene Daten
HmbBfDI: Checkliste zum Einsatz LLM-basierter Chatbots
BSI: Generative KI-Modelle - Chancen und Risiken