Rechtliche Rahmenbedingungen beim Einsatz von KI – ChatGPT im Unterricht?

© Sarah Holmlund – stock.adobe.com

Während die seit April 2021 im Entwurfsstatus vorliegende KI-Verordnung noch auf sich warten lässt, werden täglich neue KI-Systeme und Dienste bereitgestellt, die einerseits fancy und technisch nur schwer erklärbar, andererseits teilweise besorgniserregend im Hinblick auf Eingriff in die Grundrechte erscheinen.

Fraglich ist, ob und wie der Einsatz von KI-Systemen auch im Unterricht erlaubt ist. Aufgrund der großen Bekanntheit und Beliebtheit von ChatGPT, stellt sich die Frage inwieweit dieser Chatbot im Bildungsbereich sinnvoll eingesetzt werden kann. Doch zuvor ein paar grundlegende rechtliche Rahmenbedingungen:

Welche Gesetze sind beim Einsatz von KI anwendbar?

Das kommt darauf an! Die Lieblingsantwort von Jurist:innen ist in diesem Fall die einzig richtige Antwort. Denn, es kommt darauf an, welches Ziel durch die KI verfolgt wird bzw. welches Ergebnis die KI liefert. Im Grunde genommen gibt es von der Geburt bis zum Tod (und darüber hinaus) Datenverarbeitungen, die durch KI unterstützt werden. Vom Einsatz des Rasenmäh-Roboters über KI-Analysen im Bereich Cybersicherheit, Lageroptimierung, Absatzvorhersage bis hin zu fahrerlosen Transportsystemen oder Chatbots, die eine menschenähnliche Kommunikation ermöglichen und einfache, aber auch bei komplexen Fragen beantworten kann.

EU-Verordnung (Entwurf)

Die EU arbeitet zwar bereits an einer KI-Verordnung, welche einerseits die Entwicklung und Verwendung von KI fördern soll, aber andererseits auch Regeln zum Schutz der Unionsbürger schaffen muss. Dabei sollen jedenfalls der technologische und industrielle Fortschritt sowie die Verbreitung von KI in der europäischen Union gefördert werden, aber auch auf die damit verbundenen gesellschaftlichen Veränderungen vorbereitet werden. Die künftige KI-Verordnung soll einen passenden ethischen und rechtlichen Rahmen für den Einsatz von Künstlicher Intelligenz schaffen und verfolgt den so genannten risikobasierten Ansatz. Je grundrechtsgefährdender der Eingriff in die Menschenrechte ausfällt, desto stärker werden diese Systeme reguliert bzw. im worst case sogar verboten. In etwa die Hälfte der insgesamt 85 Artikeln beschäftigen sich mit KI-Systemen, welche ein hohes Risiko mit sich bringen. Diese Systeme sollen künftig eine Konformitätsbewertung durch Dritte erfahren, bzw. müssen die Trainings-, Validierungs- und Testdatensätze vorgeschriebene Qualitätskriterien erfüllen. Letzten Endes soll auch eine menschliche Aufsicht als „Mensch-Maschine-Schnittstelle“ geschaffen werden, um eine automatisierte Entscheidungsfindung iSd Art 22 DSGVO zu verhindern, soweit dies nicht rechtmäßig erscheint.

KI-Recht als Querschnittsmaterie

Unabhängig davon sind natürlich sämtliche Rechtsvorschriften zu berücksichtigen, die auch im „wirklichen Leben“ zu beachten sind. So entfalten beispielsweise die zivilrechtlichen Vorschriften über das Zustandekommen über einen Kaufvertrag, die Haftungsregeln sowie auch die datenschutzrechtlichen und urheberrechtlichen Bestimmungen bei der Verarbeitung von personenbezogenen bzw. durch das Urheberrecht geschützte Daten volle Wirkung.

Das KI-Recht ist somit eine Querschnittsmaterie und hängt vom konkreten Einsatzgebiet des Systems ab. Beim Einsatz des intelligenten Staubsauger-Roboters, welcher immer effizienter die privaten Wohnräume säubert, werden andere Regeln zu beachten sein als beim Erstellen von Texten oder Bildern, die eine Verletzung des Datenschutz- oder Urheberrechts zur Folge haben können.

Neue Haftungsregeln für KI-Systeme

Aufgrund fehlender spezieller Haftungsregeln wird derzeit ausschließlich das aus dem Zivilrecht bekannte Haftungsregime beim Einsatz von KI analog angewendet. Entsteht durch den Einsatz von Künstlicher Intelligenz ein Schaden, ist dieser allenfalls im Zuge der

  • verschuldensunabhängigen Haftung (zB. Gewährleistung),
  • Haftung nach Verschuldung (Schadenersatz), oder
  • Gefährdungshaftung (zB. ProdukthaftungsG, Eisenbahn & Kraftfahrzeug HaftpflichtG)

ersatzfähig.

Aber auch die entsprechende Gefährdungshaftung iSd ProdukthaftungsG (PHG) sollte im Zuge der Digitalisierung entsprechend novelliert werden, da dieses derzeit nur Schäden ersetzt, welche durch einen Fehler eines Produkts entstanden sind. Produkt ist nach aktueller Rechtslage nur eine bewegliche körperliche Sache. Geht man davon aus, dass es sich bei Systemen der Künstlichen Intelligenz um Software handelt, gingen nach aktueller Rechtslage Ansprüche nach dem PHG ins Leere.

Eine neue Produkthaftungslichtlinie der EU[1] soll diese Lücke schließen und normiert, dass auch Software ein Produkt ist. Weiters soll die Liste der potentiellen Beklagten auf Einzelhändler, Betreiber von Online-Marktplätzen oder Bevollmächtigten des Herstellers erweitert werden. Künftig soll auch der Begriff der Fehlerhaftigkeit insoweit erweitert werden, als auch fehlende Software-Updates, die notwendig wären, um Schwachstellen bei der Cybersicherheit des Produkts zu beheben, einen Fehler darstellen. Letztendlich sollen iSd neuen Richtlinie auch Kosten für die Rettung bzw. Wiederherstellung der Daten ersatzfähig sein, die durch einen Fehler eines KI-Systems entstanden sind.

Ergänzend dazu liegt auch bereits ein Vorschlag für eine Richtlinie über KI-Haftung der europäischen Kommission vor.[2]

ChatGPT als Paradebeispiel für einen KI-Chatbot

Während es bei Spotify noch fünf Monate bzw. bei Instagram vergleichsweise noch 2,5 Monate dauerte bis eine Million User verzeichnet werden konnte, dauerte es nach eigenen Angaben von OpenAI lediglich 5 Tage, bis eine Million User den neuen Chatbot ChatGPT nutzten.

Das System basiert auf einem Large Language Model (LLM) und erkennt anhand unzähliger Testdaten Muster und Beziehungen in den Trainings-Texten. Ziel ist, bei der Ausgabe das nächste Zeichen bzw. das nächste Wort anhand einer Wahrscheinlichkeitsrechnung vorherzusagen. GPT-3 arbeitet damit mit mehr als 175 Milliarden Parametern und ist in der Lage, menschenähnliche Texte zu generieren.

Nutzungsbedingungen von OpenAI

Der Anbieter des ChatBots normiert in seinen AGBs, dass ein OpenAI-Konto erst ab einem Mindestalter von 18 Jahren bzw. zuvor mit der Zustimmung der Erziehungsberechtigten angelegt werden darf. Für die Nutzung des Service ist ein Mindestalter von 13 Jahren erforderlich.

Dies ist insoweit nicht überraschend, da im Zuge der Nutzungsbedingungen auch eingewilligt wird, dass die eingegebenen Daten (Promts, Feedbacks) zur Verbesserung des Dienstes genutzt werden können und dies einer datenschutzrechtlicher Einwilligung bedarf, welche iSd Art 8 DSGVO grds. erst ab 16 Jahren – bzw. aufgrund der Öffnungsklausel[3] allerdings zwischen 13 und 16 Jahren – erteilt werden kann.

Soweit die API für kommerzielle (oder auch schulische) Zwecke verwendet wird, sind weiters die Bestimmungen der Artt 13,14 (transparente Informationen und Art 28 DSGVO (Auftragsverarbeitervereinbarung) zu berücksichtigen. Soweit die API genutzt wird, dürfen keine personenbezogene Daten von Kindern < 13 Jahre verarbeitet werden.

Wer ist Urheber der KI-generierten Texte?

Das österreichische Urheberrecht entsteht automatisch mit Schaffung eines Werks, wodurch der Urheber das alleinige Verwertungsrecht innehat und somit entscheidet, was mit seinem Werk passiert.[4]

Werk iSd UrhG ist jede sinnliche Wahrnehmbarkeit, die eine eigentümliche, geistige Schöpfung und ein gewisses Maß an Originalität aufweist. Bloße Ideen sind demnach urheberrechtlich nicht schützenswert.

Urheber ist der jeweilige Schöpfer des Werkes und kann immer nur eine natürliche Person sein (Schöpferprinzip).

Inwieweit der Nutzer von ChatGPT Urheber der KI-generierten Texte werden kann, hängt maßgeblich von den eingegebenen Prompts ab. Tragen diese maßgeblich zur Ausgabe des Textes bei, wird allenfalls eine Miturheberschaft des Nutzers in Frage kommen. Gemäß den Nutzungsbedingungen von OpenAI dürfen KI-generierte Texte nicht als „von Menschen erstellt“ gekennzeichnet werden.

Recht am eigenen Bild

Neben der reinen Text-Ausgabe ist ChatGPT mittlerweile auch in der Lage entsprechende Bilder zu generieren. Gemäß § 78 UrhG ist eine Veröffentlichung von Abbildungen jedenfalls verboten, wenn dadurch berechtigte Interessen der abgebildeten Person beeinträchtigt werden. Greift ein Bild in den höchstpersönlichen Lebensbereich ein, wird idR immer eine Verletzung berechtigter Interessen gegeben sein und die abgebildete Person hat u.a. Ansprüche, das Bild beseitigen zu lassen.

Durch die Generierung von Bildern von KI-Systemen kann aber nicht ausgeschlossen werden, die generierte Person einer natürlichen Person täuschend ähnlich sieht. Dass auch dann ein Anspruch auf Beseitigung besteht, hat kürzlich das OLG Graz[5] bestätigt, nachdem eine österreichische Bundesministerien auf Unterlassung und Widerruf eines Facebook-Postings einer politischen Partei klagte, die ein Foto von einer schlafenden Person mit dem Begleittext „Die grüne Chaos-Ministerien XXX fährt auf unnötige Klimakonferenz und verschläft dort den halben Tag […]“ veröffentlichte. Die abgebildete Person sieht der Ministerien ähnlich und das OLG hat die Klage auf Unterlassung und Widerruf bestätigt, da das Foto einer schlafenden Person, eine gewisse Ähnlichkeit mit der Klägerin aufweist.

Anwender von KI-generierten Bildern haben letztendlich auch die Persönlichkeitsrechte von allen natürlichen Personen zu berücksichtigen, die mit der KI-generierten Person eine gewisse Ähnlichkeit aufweisen.

Richtigkeit der KI-generierten Daten vs. Deepfakes

Dass die Textausgaben von ChatGPT nicht immer richtig sein müssen, wird bereits in den Nutzungsbedingungen von OpenAI normiert.

Pkt 3 (d) Accuracy. Artificial intelligence and machine learning are rapidly evolving fields of study. We are constantly working to improve our Services to make them more accurate, reliable, safe and beneficial. Given the probabilistic nature of machine learning, use of our Services may in some situations result in incorrect Output that does not accurately reflect real people, places, or facts. You should evaluate the accuracy of any Output as appropriate for your use case, including by using human review of the Output.

Vor allem KI-generierte Bilder können bewusste Täuschungen der Wirklichkeit bewirken oder gezielte Verbreitung von irreführenden Informationen zum Ziel haben.[6]

So genannte DeepFakes können durch aufmerksame Recherche und Kenntnisse im Umgang mit digitalen Medien oftmals nur sehr schwer erkannt werden. Achten Sie dabei stets auf die Quelle der Bilder, seien Sie skeptisch, wenn die Aussagen oder das Verhalten der gezeigten Person sehr ungewöhnlich ist und prüfen Sie die Inhalte mit speziellen Suchmaschinen (zB. www.hoaxsearch.com, www.mimikama.de) oder verwenden Sie die Rückwärtssuche von Bildern unter www.tineye.com, www.berify.com oder https://images.google.com.

Sollten durch die Veröffentlichung von DeepFakes Persönlichkeitsrechte verletzt werden, können die Betroffenen uU. Ansprüche aus dem MedienG geltend machen.[7]

Unterricht mit ChatGPT?

Obwohl die gesetzlichen Rahmenbedingungen im Bereich Künstlicher Intelligenz noch nicht vollständig umgesetzt wurden, sind die österreichischen Lehrerinnen und Lehrer im Rahmen des Pflichtgegenstands „Digitale Grundbildung“ angehalten, aktuelle Themen und Entwicklungen kritisch und reflektiert aufzugreifen.

Die Vermittlung von theoretischem und praktischem Wissen im Bereich der Künstlichen Intelligenz steht dabei an der Tagesordnung, zumal die Schüler:innen in der 3. Klasse beschreiben können, wie Künstliche Intelligenz viele Software- und physische Systeme steuert. In der 4. Klasse können die Schüler:innen gemäß Lehrplan für Mittelschule bzw. Lehrplan für allgemeinbildende höhere Schulen die Grenzen und Möglichkeiten von Künstlicher Intelligenz reflektieren.

Demgegenüber besteht die Gefahr, dass Schüler:innen ihre Hausaufgaben, Schularbeiten oder Maturafragen mithilfe von ChatGPT lösen. Wie bereits oben erwähnt, ist dies aufgrund der Nutzungsbedingungen von OpenAI erst gar nicht zulässig und auch im Sinne des § 11 Abs 4 Leistungsbeurteilungsverordnung nicht zu beurteilen. Das Schulrecht differenziert nämlich nicht, aus welcher Ursache es zur Vortäuschung einer Leistung gekommen ist. Ob durch Abschreiben von einer Mitschülerin, durch Copy-and-Paste aus dem Internet oder Hinzunahme von KI-Anwendungen ist für die Leistungsbeurteilung irrelevant. Vorgetäuschte Leistungen sind nicht zu beurteilen!

Fazit

Unter Einhaltung der bereits bekannten datenschutz- und urheberrechtlichen Bestimmungen ist der Einsatz von KI-Systemen – am Beispiel ChatGPT – im Unterricht nicht verboten. Zumal auch im Pflichtfach „Digitale Grundbildung“ die Auseinandersetzung mit aktuellen Themen und Entwicklungen vorgeschrieben ist. Das BMBWF empfiehlt auf seiner Website, dass das Thema KI-ChatBots thematisiert werden sollte und Schüler:innen auch wissen sollen, dass Lehrer:innen über derartige Software Bescheid wissen. Gerade im Bereich des individuellen Lernens gibt es Anwendungsbereiche, in denen das KI-System didaktisch sinnvoll und produktiv genutzt werden soll. (Vorgetäuschte) Leistungen können durch kurze Wiederholungen (Stundenwiederholungen) oder durch gezieltes Nachfragen jederzeit überprüft werden. Wichtig ist jedenfalls die Vermittlung einer entsprechenden Medienkompetenz für unsere Schülerinnen und Schüler, indem eine kritische Auseinandersetzung mit KI-Systemen und deren Quellen stattfindet.


[1] COM(2022) 495 Proposal for a directive of the European Parliament an of the Council on liability for defective products, https://eur-lex.europa.eu/legal-content/DE/TXT/HTML/?uri=CELEX:52022PC0495&from=EN

[2] COM(2022) 496 Vorschlag für eine RICHTLINIE DES EUROPÄISCHEN PARLAMENTS UND DES RATES zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), https://commission.europa.eu/system/files/2022-09/1_2_197605_prop_dir_ai_de.pdf

[3] Gemäß der Öffnungsklausel in Art 8 DSGVO können Mitgliedsstaaten eine von der DSGVO abweichende Altersgrenze für die Gültigkeit einer Einwilligung definieren. In Österreich wurde iSd § 4 Abs 4 DSG eine Altersgrenze von 14 Jahren normiert. Dh. mit Vollendung des 14. Lebensjahres wird die Einsichts- und Urteilsfähigkeit vermutet, wodurch eigenständige datenschutzrechtliche Einwilligungen erteilt werden können.

[4] Grenzen der ausschließlichen Befugnisse des Urhebers siehe die freien Werknutzungen (§§ 41ff UrhG) oder die Creative-Commons-Lizenzen von Bildern. Freie Werknutzung bedeutet in diesem Zusammenhang nicht „gratis“, sondern „frei von der Zustimmung des Urhebers“. Im Zusammenhang mit der Verwendung von urheberrechtlichen Materialien für die digitale Nutzung im Unterricht und Lehre siehe § 42g UrhG.

[5] OLG Graz, Gewessler gg. FPÖ Steiermark, Beschluss vom 2.3.2023.

[6] Siehe dazu beispielsweise https://www1.wdr.de/nachrichten/schieb-ki-deepfake-papst-100.html.

[7] zB. Üble Nachrede, Beschimpfung, Verspottung und Verleumdung (§ 6 MedienG) oder Eingriff in den Höchstpersönlichen Lebensbereich (§ 7 MedienG)