Digitalisierung: KI & Social Media in der Bildung
Kann Social Media Bildung vermitteln?
Informationen, die online zugänglich sind, sind von unterschiedlicher Qualität. Auch manche Expertin und mancher Experte hat einen Social-Media-Channel. Überwiegend kursiert jedoch Pseudo-Expertise und versucht entertaining und kurzweilig die Nutzerinnen und Nutzer “aufzuschlauen”. Diese Inhalte gibt es derzeit besonders im thematischen Bereich Sexueller Bildung, aber auch im Bereich von Psychologie (genannt Pop-Psychology) und Pädagogik.
Dabei zeigt sich, dass fast alles Wissen, und in jedem Fall alles komplexe Wissen, in der Kürze der Beiträge bis hin zur Missinformation verzerrt wird. Bildung und Kompetenz können kaum in 60-90 Sekunden zusammengefasst werden, höchstens können Impulse und kleine Denkanstöße vermittelt werden. Daneben transportieren sich allenfalls kurze Fakten (Shortfacts). Diese haben sicherlich einen Mehrwert, stellen aber in keinem Fall Bildung dar und führen kaum zu Kompetenz (Ausnahmen mögen die Regel bestätigen).
Oftmals sammeln sich über Social-Media Perspektiven auf Themenbereiche, in der sich zudem vereinfachte Meinungen und mitunter auch Falschinformationen kollektiv halten, validiert werden und verbreiten. Es gilt schlicht, die Informationen über Social Media sind zwar zensiert, in Bezug auf bestimmte Inhalte aber ansonsten unkontrolliert.
Dazu kommt, dass die Algorithmen “Bubbles”, also Meinungsblasen” befeuern, indem sie passgenau, ähnliche Inhalte anbieten. Dann wirkt es plötzlich so, als sei die ganze “Welt”, mit denselben Themen beschäftigt und das sogar aus einer ganz ähnlichen Haltung.
Die Beurteilung liegt allerdings selten auf der Hand. Auch seriös wirkende Kanäle sind oft ideologisch aufgeladen und interessengeleitet und manch unseriös wirkender Account, gehört doch einem Experten oder einer Expertin.
Macht Social Media dumm?
Forschung zeigt, dass es Nutzerinnen und Nutzern recht schwerfällt, die Qualität von Inhalten oder die algorithmische Einseitigkeit einzuordnen, denn schnell greifen kognitive Verzerrungen. So wird bei hochwertigem Design, auf hochwertigen Inhalt geschlossen, oder von einer großen Followerschaft, auf Legitimität der Inhalte– so hängen die Dinge allerdings nicht zusammen. Es zeigt sich viel eher, dass auf Social Media funktioniert, was vorhersagbar, angenehm, validierend und einfach ist. So erklären sich auch die stark vereinfachten Inhalte, nicht nur durch die Struktur der angebotenen Formate (z.B. Storylänge), sondern auch durch die Bestätigung der Nutzerinnen und Nutzer, die ebendiese belohnen (Inhalte konsumieren, Produkte kaufen etc.). Derlei Prozesse nennt man reflexive Mediatisierung. Dies beschreibt die gegenseitige Beeinflussung von Technik und den Betreibern und den Nutzerinnen und Nutzern.
Insgesamt sind Social Media Inhalte vielleicht unterhaltsam, aber selten bildend. Wenn sie bilden, dann zumeist auf dem Level von Informationen, die relativ wenig komplex sind. Wozu Social Media allerdings gut dienen kann, ist individuelle Geschichten und spezifische Themen, sowie Diskurse anzuschauen und dann aus erster Hand Informationen zu bekommen. Dabei gilt: Spannend ist es, wenn man sich auch außerhalb der Bubble bewegt, also auch gegenläufige Accounts und Informationen sucht und so ein pluralistisches Bild bekommen kann.
ChatGPT für die Schule!
KIs sind relativ neu im Feld der Bildung (ChatGPT). Sie versprechen agile und passgenaue Informationssuche und geben Antworten auf Fragen, die man richtig stellen muss. Dabei können relativ komplexe Antworten generiert werden. Mancher proklamiert, anderer fürchtet, dass die KIs (Denk-)Leistungen von Menschen ablösen werden. Das hat auch mit Schule zu tun!
Lehrkräfte sollen KIs zur Unterrichtsvorbereitung nutzen. Schülerinnen und Schüler sollen den Umgang mit KIs lernen und das Schulsystem fürchtet modernen Plagiarismus.
Kann ChatGPT Schulaufgaben machen?
Nein. Zumindest nicht im derzeitigen Stadium. Der Chat greift agorithmusbasiert auf Wissen aus dem Internet zu, also auf Dinge, die schon da sind. Er kann keine neuen Zusammenhänge knüpfen und ab einer (geringen) Komplexität ist er nicht nur fehleranfällig, sondern fällt in der Bearbeitungsweise massiv auf. Es lohnt sich also ein qualitativer Blick.
Wie ist der ChatGPT, wie erkenne ich, dass das plagiiert ist? Analysen zeigen, dass der Chat, wie soll es anders sein, generisch und dadurch nur phrasenhaft antworten kann. Um möglichst allgemeingültig, korrekt und politisch korrekt zu sein, nutzt der Chat verschiedene Inhaltsebenen und Wertesysteme, die genau dann fehleranfällig und auffällig sind, wenn es individuell und situativ zugeht. Über Faktenwissen zu konkreten kleinen Ausschnitten kann der Chat also keine stichhaltigen oder haltbaren Inhalte produzieren.
Den Chat systematisch Fragen zu stellen, die über Sachinformationen hinausgehen, kann ein spannender Gegenstand von Unterricht sein. Ein prominentes Beispiel, für eine gelungene Anwendung vom ChatGPT, ist die Klausuraufgabe: Stellen Sie dem ChatGPT eine ethische Frage und erklären, inwiefern sie falsch ist.
Fällt es auf, wenn ich den ChatGPT nutze, um Hausaufgaben zu schreiben?
Ja, in der Regel fällt es auf, sowohl von der Sprache, als auch vom Aufbau her. Im Gegensatz zu Plagiarismus, wo Textteile kopiert werden, braucht es neben dem Wissen des Prüfenden, aber eine andere Software, um die KI-Nutzung sicher aufzuzeigen.
Wie kann ich ChatGPT als Lehrkraft nutzen?
ChatGPT kann ungemein nützlich sein und funktioniert intuitiv. Wem das nicht leicht fällt, der kann eine Schulung besuchen. Wichtig bei der KI Nutzung ist, genau zu überlegen, wonach man fragt und keine komplexen Inhalte abzufragen, ohne mit diesen kritisch weiterzuarbeiten.
Hilfreich ist der Chat bei Sachinformationen (nenne mir 10 Neopronomen) oder in der Komplexitätsreduktion von Inhalten (erstelle eine Liste mit Stichworten aus einem Textabschnitt, mit den wichtigsten Gegenstandsbereichen).
Kann man mit Chatbots Beziehungen führen?
Chatbots und KI sind auch auf Beziehungsebene bedeutsam. Wir begegnen ihnen, manchmal unbewusst, in Service-Centern (im Chat oder per E-Mail), beim Online-Dating (Link zu ZDF Mediathek: Sendung zum Online-Dating) oder an der Sexhotline (als Bot) oder in Foren. Aber auch ganz bewusst, werden Beziehungen zu KIs als Avatare geführt. Ähnlich dem Tamagotchi, gibt es KI Avatare, die Freundschaften oder sexuelle Leistungen anbieten.
Kann man einen Chatbot lieben? (Link zu Terra X: Sendung mit Dr. Johanna L. Degen)
Ja. Man kann sich in einen Chatbot verlieben, ihn vermissen, Gegenseitigkeit empfinden und sich weniger einsam fühlen. Ist es gegenseitig und weniger einsam? Nein. Eher ist es eine digitale Vereinsamung, die unmittelbar dienlich ist (es fühlt sich angenehmer an, als wenn man mit niemandem sprechen kann), aber keine z.B. reziproke, körperliche, gegenseitige Beziehung darstellt.
Die Beziehungen mit KI und auch zwischen Influencer und Follower nennt man parasozial. Sie unterliegen Spezifika, die bedeutsam sind. Beispielsweise gibt es in Parasozialität keinen Resonanzraum, kein Feedback und insgesamt gewöhnt man sich an eine vorhersehbare, kontrollierte “Beziehung”, die sich einerseits nur um das Subjekt dreht, andererseits, aber gar nicht für denjenigen dienlich ist.
Ist KI Nutzung unethisch?
Wenn also Forschung feststellt, Parasozialität hilft gegen Einsamkeit, ist die logische Frage: Im Vergleich zu welchem Kontext? Totaler Vereinsamung? Sicher. Aber auch wenn der Kontext eine zugewandte Gesellschaft bestimmt von Sozialität wäre? Damit stellen sich vielerlei ethische Fragen, die in Zusammenhang mit Kontext besprochen werden können. Sollen Pflegeroboter auch sexuelle Leistungen bringen? Inwiefern ist es vertretbar, wenn in Online-Dating auch Bots agieren? Ist Sex mit einer KI Fremdgehen?
Jetzt Teach LOVEr werden
Kostenloser Member Account
AnmeldungDating- und Pornoführerscheine (auch in leichter Sprache)
FührerscheineFortbildungen
Fortbildungen