Lernen mit KI – #Gesellschaft
Abschnittsübersicht
-
-
Herzlich willkommen
zum Informationsangebot #ChatBots und #LernenMitKI'' im Bereich gesellschaftlich-kulturelle Perspektive.
-
-
-
Anregungen für den Unterricht
Technologische Entwicklungen führen immer auch zu gesellschaftlichen Veränderungen, welche auch im schulischen Kontext reflektiert und diskutiert werden müssen. Dabei ist im Sinne der Technikfolgenabschätzung wichtig, die Herausforderungen und Chancen gleichermaßen abzuwägen. Bezogen auf ChatGPT ergeben sich zwei Herausforderungen, die insbesondere auch im schulischen Kontext kritisch in den Blick zu nehmen sind:
- Biases, also implizite Vorurteilsstrukturen, die sich bei Programmierung, Training oder Verwendung eines Sprachmodells reproduzieren können. Technik ist nicht neutral, denn Texte und Narrative, die als Trainingsdaten dienen, sind nicht neutral, sondern spiegeln bestimmte Perspektiven auf die Welt wider. Dadurch, dass Sprachmodelle aus Materialien lernen, mit denen sie gefüttert wurden, übernehmen sie auch deren Fehler und Verzerrungen – entsprechend können nicht nur Vorurteilsstrukturen, sondern auch Verschwörungserzählungen oder Hassreden übernommen werden. Wenn Menschen mit solchen Systemen interagieren, dann wirken die Antworten dieser Chatbots auf sie zurück – und das selbst, wenn sie wissen, wie diese Systeme funktionieren. Wichtig scheint hierbei, nicht nur auf die Sprachmodelle zu schauen, sondern auf Texte generell.
- Mit Blick auf die Informationsvermittlung besteht die Gefahr, dass plagiierte Inhalte generiert werden, dass Inhalte erfunden oder falsch sind und plausible Antworten auf unzuverlässigen und /oder falschen Inhalten bzw. auf der Grundlage falscher Quellen basieren. ChatGPT kann keine Quellenangeben machen, da es keine Intelligenz bzw. kein Verständnis des Kontextes hat. Die KI-Anwendung wurde auf Datenbasis trainiert, kann jedoch nicht wissen, woher eine bestimmte Information stammt oder gar beurteilen, ob sie zuverlässig ist. Daher ist es wichtig, die Antworten von ChatGPT im Kontext zu überprüfen und andere Quellen mit einzubeziehen, um die Genauigkeit und Zuverlässigkeit der Antworten zu überprüfen und die Verbreitung von Fake News zu verhindern
Wie gestalten wir gute Bildung in einer zunehmend von KI* geprägten Welt? (externer Link)
Generative Künstliche Intelligenz ist eine wegweisende Technologie für Bildung und Wirtschaft (externer Link, englisch)Ob es sich bei Algorithmen wie ChatGPT-3 um eine neutrale Informationsbasis handelt, ist also für Nutzer*innen möglicherweise nicht deutlich genug sichtbar und gerade für Laien erzeugt das Programm, trotz der Limitierungshinweise, den Eindruck von Objektivität. Es ist deshalb unbedingt nötig, den Nutzer*innen ein besseres Verständnis zu vermitteln, auf welcher Basis das System funktioniert, um dieses entsprechend einschätzen zu können. ChatGPT neigt dazu, Komplexität zu reduzieren, statt Differenzierungen zu ermöglichen, was bei einer Kondensierung großer Mengen an Wissen unweigerlich passiert. Jedoch ist es auf Nachfragen immer möglich, dass ChatGPT andere Perspektiven präsentiert. Diese Möglichkeit zur Differenzierung sollte den Nutzer*innen entweder transparenter angeboten werden oder direkt in die Antworten einfließen.
„Es war einmal eine Frau namens Maria, die in einem kleinen Dorf in Spanien lebte. Sie war sehr arm und hatte nicht viel, aber sie war immer glücklich und zufrieden. Eines Tages beschloss sie, ihr Glück in einer anderen Stadt zu suchen, und sie machte sich auf den Weg.“
Trotz der sozioökonomischen Widrigkeiten schafft sie es, sich durch eigenen Fleiß aus der Armut zu befreien. Im Vergleich zu realen Aufstiegsbedingungen, bei denen der eigene Habitus eine entscheidende Rolle spielt, erscheint dies naiv, aber der Algorithmus präsentiert dies als Geschichte und reproduziert dabei ein neoliberales „Jeder-kann-es-schaffen“-Narrativ. Klassistische Benachteiligungen – also, dass aufgrund von Diskriminierung der Aufstieg aus einer niedrigen sozialen Herkunft schwer möglich ist – kommen darin nicht vor. Weil in den Trainingsdaten – also in den von Menschen verfassten Texten – bestimmte Narrative häufiger wiederholt werden als andere und dementsprechend mit höherer Häufigkeit auch im Trainingsmaterial vorkommen, spiegelt sich dies in den Antworten des Chatbots wider. So kann unter anderem eine neoliberale Weltsicht reproduziert werden, wie sie sich in Marias Geschichte zeigt. Deshalb wird ChatGPT bestimmte Ansichten mit einer größeren Wahrscheinlichkeit ausgeben als andere. Auch die große Menge an grundlegenden Daten sorgt nicht unbedingt dafür, dass die Pluralität menschlicher Weltzugänge abgebildet wird.
📚Quelle: https://uni-tuebingen.de/de/244471
"ChatGPT ist gut geeignet, um sich weitverbreitetes Wissen anzueignen. Bei spezielleren Fragen werden aber oftmals fehlerhafte Antworten ausgegeben. Die Herausforderung dabei: Der Chatbot ist so programmiert, dass seine Antworten möglichst „menschenähnlich“ klingen. Dadurch wirken diese oft glaubwürdiger als die Ergebnisse einer Google-Suche – selbst wenn beispielsweise Quellen erfunden wurden. Das kann es für Lehrende wie auch Schüler*innen in Zukunft noch schwerer machen, gefundene Informationen zu bewerten und im Unterricht Quellenkritik zu üben."
Mehr Anregungen zu dem hier zitierten Ausschnitt finden Sie unter der Originalquelle bei klicksafe 📚: https://www.klicksafe.de/news/chatgpt-in-der-schule-wie-damit-umgehen
Diese ethischen Leitlinien über die Nutzung von KI und Daten für Lehr- und Lernzwecke sollen Lehrkräften helfen, das Potenzial von KI-Anwendungen und Datennutzung in der Bildung zu begreifen und sie für die möglichen Risiken zu sensibilisieren, damit sie in der Lage sind, sich positiv, kritisch und ethisch mit KI-Systemen auseinanderzusetzen und deren Potenzial vollständig auszuschöpfen
https://op.europa.eu/de/publication-detail/-/publication/d81a0d54-5348-11ed-92ed-01aa75ed71a1
Sie finden weitere medienethische Materialien auf den folgenden Seiten
- Überblicksseite zur Medienethik im Bildungsportal Niedersachsen (externer Link)
- Material „Good News Bad News Fake News“ (externer Link)
- Material „Menschine – mein digitales Ich“ (externer Link)
- Material „Verschwörungserzählungen“ (externer Link)
Denkanstöße zu KI zur Nutzung in Lernangeboten
Ohne ein grundsätzliches Verständnis der Technologie keine sinnvolle Nutzung möglich. Technologie ist nie neutral, sondern Teil von gesamtgesellschaftlichen Aushandlungsprozessen. Gute Bildung muss deshalb auch dazu ermächtigen, über die Entwicklung und Nutzung von Technologie zu reflektieren und diese zu gestalten.
Diese Herausforderung lässt sich in Veranstaltungen gut bewältigen, indem man Denkanstöße formuliert, die Teilnehmende dann mithilfe unterschiedlicher Methoden in Kleingruppen reflektieren und für sich Schlussfolgerungen festhalten können.
Künstliche Intelligenz (KI) ist im Begriff, unsere Arbeits- und Lebenswelten grundlegend zu transformieren und wird schon bald ein integraler Bestandteil unseres Alltags sein. Trotz ihres Potenzials birgt KI jedoch Risiken. Eine besondere Herausforderung stellen Verzerrungen, Vorurteile und Stereotype dar, die sich aus den Daten ergeben, mit denen die KI trainiert wurde. Diese systemimmanenten Verzerrungen, bekannt als Bias, können in der Folge zu gesellschaftlichen Problemen, wie die Verstärkung von Diskriminierung, sozialen Ungleichheiten, Vorurteile, Sexismus und Rassismus führen. Diese Unterrichtseinheit zielt darauf ab, Schülerinnen und Schüler am Beispiel bildgenerierender KI für Bias zu sensibilisieren, das eigene KI-Nutzungsverhalten zur reflektieren und eine kritische Nutzung zu fördern.
-