„Aus großer Macht folgt große Verantwortung“

4 Okt, 2024

Generative KI stößt seit einigen Jahren in allen Branchen und Bereichen mit generierten Texten, Bildern, Musik und sogar Code zahlreiche Veränderungen und Prozesse an. Systeme wie OpenAI`s GPT, Google`s Bard und DALL·E zeigen Ergebnisse, die sprachlich eloquent und kreativ wirken. Diese Modelle finden in vielen Branchen Anwendung und ermöglichen auch im Bereich der Bildung weitreichende Möglichkeiten für Lehrende bei der Erstellung von Lehrmaterialien sowie für Studierende in Bezug auf den eigenen Lernprozess. Aufgrund der hohen Produktion an Texten und anderen Artefakten durch generative KI scheint diese Technologie gerade für die Hochschullehre vielversprechend und effizient.

Empfehlungen zur ethischen Nutzung von KI-Systemen in der Hochschullehre

Janine Rischke-Neß, Wiss. MA für E-Didaktik, BPS Berlin

Während sich diese Systeme weiterentwickeln, entstehen damit auch weitere ethische Dilemmata, die mit steigenden Trainingsdaten noch zunehmen. Dies zeigten die zahlreichen Debatten, etwa um facial recognition systems die bei der Identifikation von Personen mit unterschiedlicher Hautfarbe – vor allem bei der Anwendung auf People of Colour – erhebliche Fehler machten. Auch Kreditwürdigkeitsprüfungen durch KI-Systeme, die ihre Ergebnisse aus historischen Daten generierten, diskriminierten insbesondere Frauen und Minderheiten, da sie Verbindungen aus den durch Vorurteile geprägten Daten herstellten. Die zentrale Herausforderung für die ethisch verantwortungsvolle Nutzung von KI-Systemen und ihren Ergebnissen besteht demnach darin, dass generative KI bestehende gesellschaftliche Ungleichheiten widerspiegeln und verschärfen kann, oder „Lücken“ in den Daten mit Verzerrungen aus ähnlichen Kontexten füllt.

Weil aber Lehrende wie Studierende die Möglichkeiten, die Sprachmodelle wie ChatGPT 4.0 und andere bieten, in der Lehre, für das Lernen und zur persönlichen Weiterentwicklung einsetzen möchten, erhält der reflektierte Umgang mit KI-Technologie einen hohen Stellenwert.

Für die Auswertung von Texten, das Erstellen von Mindmaps, Gliederungen oder Verzeichnissen werden solche Tools durch Studierende bereits weitgehend genutzt, viele Lehrende haben die Vorteile für die Erstellung, Anpassung oder Übersetzung von Lehrmaterialien durch generative KI ebenfalls erkannt.

Dieser Beitrag möchte angesichts der großen Anzahl an Anleitungen und Richtlinien auf wesentliche Inhalte hinweisen, die wichtigsten Aspekte zusammenführen und aus den Erkenntnissen der didaktischen Diskurse in den letzten Jahren und Monaten einige Empfehlungen zur ethischen Nutzung von KI-Tools aus der Praxis geben. Diese stellen erste Arbeitsergebnisse der gemeinsamen kritischen Reflexion mit den Studierenden nach dem Einsatz von KI-Systemen in Workshops und Lehrveranstaltungen – vor allem im dualen Masterstudiengang Digitale Transformation – dar.

Allgemeine Rahmenbedingungen für eine ethische Nutzung von KI:

Transparenz über die verwendeten Trainingsdaten und die Gründe für die Selektion der jeweiligen Trainingsdaten durch menschliches Feedback, durch Unternehmen und Anbieter von KI-Tools – hierauf haben wir als Nutzende insofern einen Einfluss, indem wir beispielsweise Open Source-Modelle unterstützen, indem wir sie nutzen und Feedback geben.[1]

Rechenschaft und Verantwortung: Zum einen müssen gewisse Regeln der Governance im Sinne von verbindlichen Vorschriften für die ethische Nutzung in Unternehmen etabliert werden. Diese sollten in enger Verbindung zu den Bestimmungen im EU AI Act und zu weiteren Richtlinien stehen. Auch an den Hochschulen in Deutschland finden Richtlinien für den Umgang mit Generativer KI immer mehr Beachtung.

Persönliche Verantwortung für die Verwendung des Outputs: die durch Prompts erzeugten Ergebnisse sollten durch die Nutzenden stets inhaltlich und auch auf ethische Widersprüche hin überprüft werden. Auch und gerade für den Einsatz im wissenschaftlichen Kontext sind hier Hintergrundwissen und die Einschätzung der Aussagewerte bedeutend, da diese wiederum im Falle von Publikationen erneut als Trainingsdaten für die Sprachmodelle Verwendung finden können.

Bildung: Um die Grenzen der KI-Tools zu erkennen und auch, um mögliche Diskriminierungen in den Outputs zu erkennen, bedarf es der Weiterbildungs- und Schulungsangebote für Studierende wie für Lehrende. Die vielen Möglichkeiten, die durch die Nutzung von Tools wie ChatGPT geboten werden sind eben nicht gleichzusetzen mit einer ethisch verantwortungsbewussten Nutzung dieser digitalen Tools. Hierfür ist ein ständiger Lernprozess notwendig, auch angesichts der Tatsache, dass wir uns erst in den letzten Jahren mit Lernen als einem Prozess auseinandersetzen, der neurologisch unterschiedlich und „divers“ ablaufen kann und Lernwege daher methodisch offen, inklusiver und partizipativer gestaltet werden sollten.

[1] Hier sei etwa auf die Sprachmodelle Llama 2 oder Bloom verwiesen: https://bigscience.huggingface.co/blog/bloom

Empfehlungen für den Einsatz in der Hochschullehre:

Die Anleitungen und Handreichungen, wie jene vom Netzwerk „Ethische Nutzung von KI“ empfehlen einen bewussten und reflektierten Umgang mit den Möglichkeiten der KI-Tools und die Beachtung von ethischen Maßstäben:

Empfehlung 1:

Um datenschutzrechtliche und urheberrechtliche Regelungen, die etwa durch DSGVO, das Urheberrecht und den EU AI Act vorgegeben sind, einzuhalten, können Lehrende auf datenschutzrechtlich abgesicherte Systeme wie „HAWKI“ verweisen, das einen Zugang zu Sprachmodellen über eine Anmeldemaske aus der Hochschule heraus ermöglicht. Außerdem sollte die Nutzung von KI nicht verpflichtend sein, sondern den Studierenden freigestellt werden.

Empfehlung 2:

Da auch Persönlichkeitsrechte beachtet werden sollten, Geben Sie ausschließlich von ihnen selbst erstellte oder gemeinfreie Texte oder Bilder für die Korrektur, Übersetzung, Analyse, Zusammenfassung, Bewertung in Form von Prompts ein, verwenden Sie keine Daten von Dritten (z. B. Studierenden), vermeiden Sie personenbezogene Daten.

Empfehlung 3:

Nutzen Sie die Chancen, die Sprachmodelle wie Llama, Gemini oder ChatGPT für die Erstellung von Lehrmaterialien bieten und vernetzen Sie sich mit Expert:innen aus der Hochschuldidaktik, die bereits Informationen zu KI-System bereitstellen und Möglichkeiten sowie Grenzen verschiedener KI-Systeme benennen können. Auch an der HWR gibt es in den Fachbereichen fachkundige Ansprechpartner:innen, die bei Bedarf mit Informationen weiterhelfen können.

Empfehlung 4:

Informieren Sie sich zu den Risiken, die mit der Verwendung von generativer KI einhergehen und machen Sie ebenfalls ihre Studierenden auf Verzerrungen und Bias in den Trainingsdaten aufmerksam – alle Trainingsdaten sowie die Technologien selbst sind Produkte menschlichen Schaffens und damit immer auch kulturell, sozial und ideologisch beeinflusst. Die Forschung in diesen Bereichen wächst – nutzen Sie Studien in ihrer Lehre und bauen Sie den Diskurs bewusst ein.

Empfehlung 5:

Suchen Sie immer neue Wege, sich zu informieren. AI Literacy als Form der Digitalkompetenz kann nur über das Verstehen der Funktionsweise von Sprachmodellen und durch anhaltendes Interesse und Weiterbildung erreicht werden. Teilen Sie ihr Wissen und ihre Erkenntnisse gern auch mit ihren Studierenden und ermuntern sie diese, verschiedene Modelle zu nutzen, vergleichbar zu testen und die Ergebnisse kritisch zu reflektieren.

Die ethische Dimension des Trainings von Sprachmodellen mit vielfältigen Daten ergibt sich aus deren breitem Anwendungsspektrum in nahezu allen gesellschaftlichen Bereichen, sowohl in sensiblen als auch in weniger sensiblen Kontexten. Auch in der Lehre an Schulen und Hochschulen wird Generative KI zunehmend eine Rolle spielen. Für eine verantwortungsvolle Nutzung dieser Technologie sind das Wissen und die Reflektion der Nutzerinnen und Nutzer von entscheidender Bedeutung. Nur so kann der Einsatz von Künstlicher Intelligenz ethisch verantwortbar gestaltet werden.

Referenzen:

Lemke, C. (2024). EdTech Ethics – Digital-ethische Implikationen durch den Einsatz von Bildungstechnologien. Educational Technology (EdTech). Entwicklung und Bewertung von Bildungstechnologien. Hrsg. von Tim Brüggemann, Marie Tuchscherer & Claudia Wiepcke. Springer (in Vorbereitung)

Huggingface: Introducing The World’s Largest Open Multilingual Language Model: BLOOM: https://bigscience.huggingface.co/blog/bloom [30.09.2024]

Lemke, C.; Monett D., Faustmann, G. & Kirchner, K. (2021). Digitale Ethik der Bildung: Methodische Entwicklung eines Rahmenwerks. Digitalisierung in Studium und Lehre gemeinsam gestalten: Innovative Formate, Strategien und Netzwerke, 83-110.

Stracke, C. M., Chounta, I.-A., & Holmes, W. (2024). Global trends in scientific debates on trustworthy and ethical Artificial Intelligence and education. Artificial Intelligence in Education. AIED 2024. Communications in Computer and Information Science. Springer: https://doi.org/10.1007/978-3-031-64315-6_21

Stracke, Bohr, Gabriel, Galla, Hofmann, Karolyi, Mersmann-Hoffmann, Mönig, Mundorf, Opel, Rischke-Neß, Schröppel, Silvestri, & Stroot (2024): Was ist Künstliche Intelligenz (KI)? Wie kann ich KI ethisch in der Hochschule nutzen? Hrsg. v. Netzwerk „Ethische Nutzung von KI“. https://doi.org/10.5281/zenodo.10793844

0 Kommentare