Wenn der Computer unterrichtet

Über das Missverständnis von IT und KI in Lernprozessen

Seit mehr als 40 Jahren wird über Informationstechnik in Schulen diskutiert. Seit November 2022 kommt als Thema generative Künstliche Intelligenz (KI) wie ChatGPT dazu. Dabei sind weder KI-Systeme noch Sprach-Bots neu. Mit Weizenbaums „Eliza“ konnte man schon 1966 chatten, Kybernetik als Begriff und Methode für automatisierte Datenverarbeitung publizierte Norbert Wiener 1948. Aber das Silicon Valley braucht ein neues „big thing“ (Brühl 2023). In der Schule sind solche Tools eher kontraproduktiv statt lernförderlich.

Von Ralf Lankau, erschienen in: Lehren & Lernen Heft 5-2024 (Oktober), S. 9-14
Der Beitrag als PDF: Lankau (2024) Wenn der Computer unterrichtet
Link zum Neckar-Verlag: Neckar-Verlag GmbH


Über Schule, Unterricht und Lernmaschinen

Der russisch-amerikanische Wissenschaftler und Science fiction Autor Isaac Asimov schrieb 1954 eine Geschichte über die „Schule der Zukunft“. Im Jahr 2157 (Originaltitel: „The fun they had“) gebe es gar keine Schulen mehr, weil neben jedem Kinderzimmer ein kleiner Schulraum eingerichtet sei, in dem die Kinder und Jugendlichen von einem mechanischen Lehrer (einer Maschine mit Bildschirm und einem Schlitz zum Einwerfen der Hausaufgaben) unterrichtet würden. Diese Lehrmaschine sei perfekt auf die Fähigkeiten des jeweiligen Kindes eingestellt und könne es daher optimal beschulen. Besser als jeder Mensch. Nur: Maschinen können kaputt gehen. Die elfjährige Margie wird von ihrem mechanischen Lehrer wieder und wieder in Geographie abgefragt, gibt die richtige Antwort, wird aber jedes Mal schlechter benotet. Daher ruft die Mutter den Schulinspektor, um den mechanischen Lehrer zu reparieren.

„Margie hatte gehofft, dass er ihn nicht wieder zusammenbringen würde, aber er hatte Bescheid gewusst, und nach einer Stunde oder so hatte das Ding wieder dagestanden, gross und schwarz und hässlich, mit einer großen Mattscheibe darauf, wo alle Lektionen gezeigt wurden, und mit einem Lautsprecher daneben, der die Fragen stellte. Aber das war nicht das Schlimmste. Der Teil, den Margie am meisten hasste, war ein Schlitz, in den sie alle Hausarbeiten und die Antworten auf seine Fragen stecken musste. Alles das musste sie in einem Lochcode schreiben, den sie mit sechs Jahren gelernt hatte, und der mechanische Lehrer rechnete die Noten im Nu aus.“ (Asimov, 2016)

In wenigen Sätzen beschreibt Isaac Asimov, was heute zum Teil bereits Praxis ist oder, geht es nach den Anbietern solcher Systeme, Alltag werden soll: Kinder sitzen an Bildschirmen und werden von Apparaten beschult. Unterrichten und Prüfen wird an Maschinen und Software delegiert, digitalisiert und entpersonalisiert. Lernen selbst wird auf automatisiert Abprüfbares reduziert, weil weder eine Lernmaschine noch eine Software „versteht“,was sie berechnet, egal, wie komplex sie ist. Die Microsoft-Deutschland-Chefin Sabine Bendiek präzisiert: „Eine KI kann viele Dinge ganz toll, aber letztlich rechnet sie auf Basis von großen Datenmengen“ (Armbruster 2019).

Daran muss erinnert werden, weil im Kontext der aktuell diskutierten KI-Systeme auf Basis großer Sprachmodelle (Large Language Models, LLM) wie ChatGPT, Bard u.a. und der von diesem Systemen generierten Texte die Grenze zwischen Mensch und Maschine in beide Richtungen aufgelöst, Maschinen zu Lebewesen überhöht werden. Eine Maschine, mit der man sich „fast wie mit einem Menschen“ unterhalten kann, ist doch (fast) ein Mensch (Stichwort Turing-Test)? Nein. Es ist der Mensch als kommunikatives und soziales Wesen, der Apparaten menschliche Attribute zuweist, weil er ein Gegenüber braucht.

Auf dieses Wechselspiel (und Irrtum) aus Anthropomorphismus (die Vermenschlichung und Zuschreibung menschlicher Eigenschaften an Maschinen) und Animismus (die Zuschreibung mentaler Eigenschaften an Maschinen) weist der Deutsche Ethikrats in seiner Stellungnahme „Mensch und Maschine – Herausforderungen durch Künstliche Intelligenz“ von 2023 hin. Die Vermenschlichung von Objekten und Maschinen ist dabei eine historische Konstante, bekommt ihre besondere Dynamik aber dadurch, dass diese IT- und KI-Systeme bereits flächendeckend im Web, in Suchmaschinen und Apps im Einsatz sind, ohne dass wir es bemerken oder Einfluss darauf nehmen können. Siri, Cortana und Sprach-Bots wie beim Routenplaner sind alltäglich. Nach der Digitalisierung von Arbeitsplatz, Kommunikation und Konsums(per Smartphone, Web und App) sind jetzt allerdings vermehrt Bildungseinrichtungen das Ziel digitaler Transformation (Digitalpakt Schule).

Entpersonalisierung des Unterrichtens

Dabei gilt: Unterrichten als interpersonaler Prozess ist immer an Menschen und den direkten Dialog gebunden. Das pädagogische Dreieck beschreibt die zwei beteiligten Parteien, die notwendig präsent und einander zugewandt sein müssen, um von pädagogischer Arbeit und Unterricht zu sprechen: Lehrende und Lernende. Dazu kommt als Drittes die Sache als Unterrichtsgegenstand der Vermittlung, das Thema oder das Fach des Unterrichtens. Bei Bedarf und je nach Altersgruppe, Thema und Möglichkeit ergänzen (analoge wie digitale) Medien das Lehren und Lernen.

Abb. 1: Das pädagogische Dreieck

Das gemeinsame Lehren und Lernen findet in einem sozialen Raum statt und ist ein dialogischer, diskursiver Prozess. Der klassische Begriff dafür lautet „Unterrichtsgespräch“ und wurde bereits in der Akademie des Sokrates erfolgreich praktiziert.

Die »sokratische Hebammenkunst« ist die Kunst des Fragens der Lehrenden und der Erkenntnisgewinn durch eigenes Nachdenken und Formulieren möglicher Antworten durch die Schülerinnen und Schüler. Es ist ein wechselseitiger Dialog statt einem Monolog. Die Lehrperson überantwortet das Denken dabei den Schülerinnen und Schülern, die Antworten auf Fragen mit eigenen Worten formulieren und so argumentieren lernen. Entfernt man aus diesem Dreieck die Lehrperson, wird aus Unterricht und Lehre medienbasierte Instruktion für die mehr oder weniger strukturierten Selbstlernphasen. Bei einem Fachbuch bleibt es den Lernenden überlassen, was sie lesen oder überblättern. Bei digitalen Anwendungen sind die Inhalte, Lernpfade und zu lösenden Aufgaben vorgegeben.

Das ist zwar eine mögliche Form des Lernens, vor allem für fortgeschrittene Lerner, aber kein Unterricht. Das selbstständige Lernen mit Medien setzt zudem Vorwissen, Reflexionsvermögen und Urteilskraft sowie Selbstdisziplin voraus. Mediengestützte Selbstlernphasen sind ein Ziel von Erziehung und Unterricht, um Jugendliche und vor allem Erwachsene (im Studium!) an das eigenständige, auch inhaltlich selbstbestimmte Lesen, Lernen und Forschen heranzuführen (bei wissenschaftlichen Karrieren). Es ist keine Fertigkeit von Kindern und nur weniger Jugendlicher und nur wenige Erwachsene bewahren sich diese intrinsisch motivierte Form der Neugier und Bereitschaft zur Anstrengung.

Lernen an Lernstationen hingegen ist weder selbstbestimmt noch individualisiert. Das Lernziel ist ebenso vordefiniert wie die Lernpfade. Individualisierung bedeutet hier nur Varianz und Anzahl der möglichen Zwischenschritte. Es ist algorithmisch gesteuertes „Teaching to the Test“, mit kleinteilig integrierten Prüfschleifen und Berechnung der nächsten Aufgaben durch Lernkontrollsoftware. Das Ziel ist vorgegeben und soll möglichst effizient erreicht werden. Technische Systeme arbeiten heute zwar, anders als bei Asimov, mit Avataren: digital generierte Figuren als Pseudo-Charaktere mit ebenso computergenerierter Stimme. Aber das Prinzip sozialer Isolation am Display (heute Touchscreen), die Reduktion von Lernprozessen auf das Abarbeiten vorgegebener Aufgaben mit dem Ziel der Abprüfbarkeit und technisch generierter statt zwischenmenschlicher Interaktion hat Asimov vorweggenommen.

Der Sozialraum Schule mit Klassenzimmern und Pausenhof wird durch die Beschulung per Apparat ebenso eliminiert wie das gemeinsame Lernen und gegenseitige Helfen. Menschen am Display sind dem Apparat ausgeliefert. Mit einer Maschine kann man nicht diskutieren. Zugleich wird Unterrichten und Lernen durch mechanische Lehrer (heute digitale Systeme) reduziert auf abfragbares Repetitionswissen, das nach Alters- und Leistungsstufen (heute: Kompetenzraster und -stufen) vermittelt und sofort abgeprüft wird.

Eine Maschine „versteht“ ja nicht, was an Texten oder Grafiken angezeigt, per Sprachsoftware artikuliert oder als nächste Aufgabe gestellt wird. Maschinen funktionieren nach Steuerungsanweisungen. Sie funktionieren korrekt oder sind falsch konfiguriert bzw. defekt. Maschinen (Computer sind Rechenmaschinen) haben weder kein Bewusstsein, keinen Willen oder irgendeine Absicht. Ein Computersystem kann weder reflektieren noch argumentieren. Alles muss als konkrete Handlungsanweisung hinterlegt sein. Es sind kybernetische Steuerungssysteme, die nur „Richtig“ oder „Falsch“ (1) kennen.Dazu werden komplexe Aufgaben in immer kleinere Teilaufgaben zerlegt, die mathematisch berechnet und nach dem Binärsystem (0/1, Ja/Nein) beantwortet werden (können).

Die Automatisierung von Lernprozessen

Die Idee, Unterricht und Lehre ließe sich automatisieren und automatisiert prüfen, ist älter als Computer oder Internet. In seiner kurzen Geschichte der Unterrichtsmaschinen schreibt Claus Pias über „Lerngutprogrammierung, Lehrstoffdarbietungsgeräte und Robbimaten“ (Pias 20123). Er referiert über die Thesen des Psychologen Pressey, der bereits 1926 beklagt hatte, Erziehung hätte den geringsten Wirkungsgrad aller denkbaren Unternehmungen, weshalb der Lehrbetrieb arbeitswissenschaftlich (nicht pädagogisch!) optimiert werden müsse. „Im Klartext: Wie bekommt man mit möglichst wenig Ressourcen möglichst viel Stoff möglichst schnell in die Köpfe?“

Vorläufer und Impulsgeber waren Psychologen wie William Stern, der bereits im Jahr 1900 die „Psychologisierung des gesamten menschlichen Lebens“ prognostizierte. Stern und Kollegen wie Hugo Münsterberg postulierten 1912 als psychotechnische Maxime: „Alles muss messbar sein“. Psycho-Technik wurde zur Leitdisziplin des „Psycho-Ingenieurs“ und sind heute Grundlage empirischer Bildungsforschung. Empirie basiert auf Beobachtung und (personalisierten) Daten. Um der oder dem Lernenden die „passgenauen Angebote“ machen zu können, müssen die Probanden möglichst kleinteilig und genau vermessen werden. Dazu dienen heute digitale Endgeräte und der personalisierte Login. „Das System“ muss wissen, wer vor dem Bildschirm sitzt:

Viele dieser Lernsysteme sind interaktiv, stellen sich also ganz individuell auf den einzelnen Schüler ein und „erinnern“ seine Schwächen und Stärken genau. C…) Das ist kein Hexenwerk, denn sobald man sich bei einem solchen Lernsystem registriert und eingeloggt hat, kann dieses alle Interaktionen der eingeloggten Person genau zuordnen. Sie kann Vergleichsanalysen mit den Verhaltensdaten aller anderen jemals eingeloggten Lerner durchführen und darauf aufbauend die weiteren Interaktionen dem anvisierten Lernziel entsprechend steuern. Viel genauer als das dem Lehrer im Unterricht mit der Klasse möglich ist, können dabei die Schwächen der einzelnen Schüler überwunden und zielgenau ihre Stärken individuell gefördert werden.(Meinel, 2020)

Aus personalisierten Nutzerdaten lassen sich die fünf Dimensionen der Persönlichkeitspsychologie des Fünf-Faktoren-Modells (engl. OCEAN für Openness to experience, Conscientiousness, Extraversion, Agreeableness, Neuroticism) berechnen. Diese Persönlichkeitsmerkmale (in deutsch Offenheit, Gewissenhaftigkeit, Extrovertiertheit, Verträglichkeit und emotionale Stabilität in der jeweiligen Ausprägung auf einer Skala von -5 bis +5) ergeben präzise Abbilder der Persönlichkeitsstruktur, der mentalen und psychischen Belastbarkeit und der Leistungsbereitschaft, des emotionalen wie des sozialen Verhaltens, der sexuellen Präferenzen u.v.m. Der Mensch wird zum Datensatz und in seiner Psyche und Persönlichkeit transparent. Zusammen mit Bewegungs- und Kommunikationsprofilen aus anderen digitalen Kanälen (Social-Media-Apps, Browserverläufe, Metadaten über das Kommunikationsverhalten), entstehen präzise Persönlichkeits- und Verhaltensprofile.

Das Ziel ist, mit Hilfe dieser Daten menschliches Verhalten möglichst effizient zu beeinflussen. Die eher freundliche Variante heißt „Nudging“ (Anstupsen) die weniger freundliche persuasive (verhaltensändernde) Technologien. Die Methoden dafür hat Edward Bernays 1928 beschrieben. Für Psychologen sind selbst Emotionen und Einstellungen „Kompetenzen“, die sich trainieren und zur Selbstoptimierung (oder Fremdsteuerung) verändern lassen. Der Psychoingenieur David McClelland leitete daraus bereits 1973 das „pädagogische Versprechen einer umfassenden Formbarkeit des Menschen“ ab (zit. n. Gerhard, , S. 100, McClelland 1973). Das Aufzeichnen des menschlichen Verhaltens wird heute über digitale Endgeräte wie Smartphone und Tablet mit eingebauten Kameras und Mikrofon realisiert. Nach dem Einloggen über eine persönliche Identifikationsnummer (ID) liefern diese Geräte personalisierte Lern- und Verhaltensdaten ebenso in Echtzeit wie alle Akte der Kommunikation sowie Bewegungs- und Geodaten. Das „System“ weiß, wo wir sind, was wir tun, mit wem wir wie oft und wie lange kommunizieren. Die Metadaten sind viel aussagekräftiger als die (meist trivialen) Inhalte.

Nutzersteuerung durch digitale Zwillinge

Steuerbarkeit der Probanden ist das Ziel kybernetischer Systeme. Zu Beginn der 1950er Jahren stritten zwei Fraktionen um die Deutungshoheit. Kybernetiker in der Nachfolge von Norbert Wiener, dem Namensgeber der Kybernetik, arbeiten mit mathematischen Modellen. Behavioristen in der Tradition des Biologen B.F. Skinner (Vordenker des programmierten Lernens) nutzen (verhaltens)biologische Modelle.

Gemeinsam ist Kybernetik wie Behaviorismus die Überzeugung, dass der Mensch als (mathematisches resp. biologisches) Regelsystem definiert und mit Hilfe entsprechender Parameter gesteuert werden könne: als mathematisch-technisches System bzw. als„Input-Output-Schemata“ (Blackbox) als biologistische Variante.

Dabei gilt: „Künstliche Intelligenz“ ist allenfalls die „Simulation von Intelligenz“ (Hansch, 2023, N2), da Datenverarbeitungsmaschinen auf der mathematischen Grundlage von Mustererkennung, Wahrscheinlichkeitsrechnung und Statistik rechnen und bei generativen KI-Systemen zum Beispiel Texte, Grafiken, Videos oder Computercode generieren. Diese mögen formal so aussehen, als hätten Menschen sie produziert. Das gelingt, weil alle menschlichen Kommunikations- und Zeichensysteme regelbasiert, d.h. logisch und systematisch aufgebaut sind (Stichwort Semiotik). Regelsysteme kann man mathematisch nachbilden und ebenso regelbasiert ablaufen lassen – wie ein Uhrwerk. Nur weiß eine Uhr nicht, wie spät es ist, egal, wie exakt sie läuft. Eine Uhr weiß nicht einmal,was Zeit ist! Daher ist auch das ganze Gerede von der „Herrschaft der Maschinen“ Science fiction und Angstmacherei. Maschinen wollen weder Herrschaft noch Macht. Sie haben weder ein Bewusstsein noch irgendwelche Absichten oder Ziele. Computer, Software und Apps werden für konkrete Zwecke konstruiert und erfüllen ihre Funktion – oder müssen repariert, korrigiert, umprogrammiert werden.

Was diese Systeme kritisch macht, ist, dass mit KI nicht nur technische Systeme gesteuert werden, sondern Menschen und ihr Konsumverhalten. Der Einzelne am digitalen Endgerät ist sowohl Datenspender für die Big Data-Sammlung der Datenökonomie wie Adressat für digitale Angebote.

Während die Steuerung von Maschinen und Prozessen durch IT und KI die Aufgabe von Ingenieuren und Informatikern ist, verstößt die Steuerung von Menschen durch IT und KI gegen deren Persönlichkeits- und Selbstbestimmungsrecht. Die US-amerikanische Wirtschaftswissenschaftlerin Shoshana Zuboff hatte schon 1988 das Prinzip der IT formuliert. Digitalsysteme sind per se Kontrollsysteme: Automatisieren. Digitalisieren. Kontrollieren. (Zuboff 1988). Das kritisiert sie aktuell mit dem Begriff „Überwachungskapitalismus“ (Zuboff 2018). Das nannte Frank Schirrmacher bereits 2015 technologischen Totalitarismus. Das macht Digital- als Kontrollinstrumente für den Einsatz in Sozialsystemen – und insbesondere Bildungseinrichtungen – so schwierig bzw. ungeeignet. Denn aus diesen Daten lassen sich Persönlichkeitsprofile (digitale Zwillinge) generieren, mit mit man Verhalten prognostizieren und testen kann.Bei KI-Systemen in Schulen kommt noch etwas Elementares dazu: „KI ruiniert das Motivationsgefüge des herkömmlichen Unterrichts“, so der Pädagoge Gottfried Böhme und führt aus:

„Künstliche Intelligenz bricht der Schule, wie sie heute existiert, das Rückgrat. Es hat in der Geschichte der Bildungseinrichtungen noch nie eine Erfindung gegeben, die so infam die gesamte Motivationsstruktur des Lernsystems infrage gestellt hat wie diese Atombomben-KI – um mich hier deutlich zu outen. Wir ziehen gerade eine Generation von Jugendlichen heran, die eine Zeitlang ihren Lehrern noch vorgaukeln kann, dass das, was ihnen ChatGPT oder ein anderes Programm geschenkt hat, ihre Leistung sei, und bald nicht mehr wissen, warum sich Lernen überhaupt noch lohnen soll.“ (Böhme 2023, S. 9)

Wirtschaftsinteressen vs. Pädagogik

In der öffentlichen Diskussion werden solche Bedenken nicht thematisiert, da bestimmen Fortschrittsglauben und Technikdeterminismus den Diskurs. KI-Systeme seien auf dem Markt, würden von Lehrkräften, Schülerinnen und Schülerinnen ohnehin eingesetzt und müssten daher in die Schule integriert werden. So überlässt man die Frage, mit welchen Medien unterrichtet wird, den Anbietern dieser Systeme (siehe UNESCO-Bericht 2023). Der fehlende Nutzen und Mehrwert von IT und KI (Balslev 2020) kompensieren die Digitalanbieter durch die Behauptung, dass bereits die Frage nach dem Mehrwert und Nutzen von IT und KI in Schulen falsch gestellt sei.

So argumentiert z.B. das Forum Bildung Digitalisierung e.V., ein Zusammenschluss privater Stiftungen, die sich für eine „systemische digitale Transformation im Bildungsbereich“ einsetzen. Die in diesem Forum durch ihre Stiftungen vertretenen Unternehmen kommen aus der IT- und Telekommunikationswirtschaft (Vodafone, Telekom) und/oder sind selbst Akteure der Digitalisierung bzw. Bildungsindustrie. Ihr Credo: „In Projekten, Publikationen und Veranstaltungen identifizieren wir Gelingensbedingungen für den digitalen Wandel an Schulen und navigieren durch die notwendigen Veränderungsprozesse (FBD 2022). Im Gefolge solcher Stiftungen finden sich selbstredend digitalaffine Lehrkräfte, Blogger und „Bildunsginfluencer“, die derartige Setzungen übernehmen und ebenfalls über Bildung nur noch „unter den Bedingungen der Digitalisierung“ diskutieren (wollen).

„Probleme kann man niemals mit derselben Denkweise lösen, mit der sie entstanden sind“ soll Albert Einstein formuliert haben. Wer die ernüchternden Ergebnisse des letzten PISA-Tests von 2022 oder des IQB-Bildungstrends 2021 zu den schulischen Leistungen der bundesdeutschen Primarschülerinnen und -schüler verfolgt hat, wird womöglich an Georg Pichts „Bildungskatastrophe“ von 1964 erinnert oder an gleichnamige Reaktionen nach dem ersten PISA-Test von 2000.Die messbaren Lernleistungen haben seither, trotz stetig neuer Testreihen und dem Aufbau einer ganzen Testindustrie, nach einer kurzfristigen Steigerung (durch das Üben der Testaufgaben) konsequent abgenommen. Selbst die Mindeststandards elementarer Fähigkeiten wie Lesen Schreiben, Zuhören und Rechnen werden von immer weniger Kindern erreicht.

Intelligent wäre, dafür die Ausrichtung der Schulen nach neoliberalen Vorgaben verantwortlich zu machen (Stichwort Humankapitaltheorie, Unternehmen Schule), ebenso kybernetische und psychologische Steuerungsmodelle – und die Konsequenzen zu ziehen. Wir brauchen eine pädagogische Wende, heißt das. Anstatt Lernen und Unterricht von Medien- und Digitaltechnik und messbaren Lernleistungen her zu definieren, müsse wieder das Erziehen und Unterrichten von Menschen und das „Verstehen lehren“ (Andreas Gruschka) im Zentrum pädagogischer Arbeit stehen.

Satt der sozialen Isolation am Display (samt daraus entstehender psychischer Probleme wie Vereinsamung und Eńt-Sozialisierung) müssen der Dialog in und mit der Klassen- und Lerngemeinschaft wieder der Kern pädagogischer Praxis werden.

Bildungseinrichtungen sind keine Zurichte-Anstalten für die Kompetenzvermessung, sondern müssen sich auf ihren Ursprung besinnen: Ein Ort der Muße, der Wertevermittlung und Bildung zu sein, in der Menschen zu mündigen, selbstverantwortlichen Persönlichkeiten werden, die sich aus intrinsischer Motivation und Überzeugung in die Gesellschaft einbringen.

Auf einem Schulleitungssymposium in der Schweiz wurden bereits 2017 als bildungspolitische Ziele Kriterien einer adäquaten Bildung für eine offene Zukunft formuliert: „eine stärkere Perspektivenorientierung auf Persönlichkeitsentwicklung, Mündigkeit, Förderung von Gemeinschaftssinn, Selbstverantwortung, verantwortungsvolle Partizipation an der Demokratie und achtungsvoller Umgang mit der fragilen Umwelt“ (Simanowski, 2021, S. 92). Keines dieser Lernziele lässt lässt sich per IT und KI vermitteln. Solche Werte als Grundlage für eigenes Handeln entstehen nur in Präsenz, durch Bindung und Vertrauen, Dialog und Diskurs.

Fazit

Der israelische Historiker Yuval Noah Harari wurde gefragt, warum er kein Smartphone besitze. Die Antwort des Wissenschaftlers, der sich dezidiert mit den Auswirkungen der Digitalisierung auf menschliches Verhalten befasst hat lautet: Er sei nicht naiv und wisse, dass er in einer zunehmend smarten Umwelt auch ohne Smartphone verfolgt werden könne. Es gehe um mehr:

„Der Hauptpunkt ist, Ablenkungen fernzuhalten. Ich weiß, wie schwierig es ist, den Geist zu kontrollieren, konzentriert zu bleiben. Und außerdem: Die Menschen auf der anderen Seite des Smartphones – die klügsten Menschen der Welt – haben in den vergangenen 20 Jahren gelernt, wie man das menschliche Gehirn durch das Smartphone hacken kann. Denen bin ich nicht gewachsen. Wenn ich gegen die antreten muss, werden sie gewinnen. Also gebe ich ihnen nicht meinen Bildschirm, gewähre ihnen keinen direkten Zugang zu meinem Gehirn.“ (Matthes, 2021)

Asimovs Lernmaschine kann heute Gehirne hacken … Wir müssen daher dringend umdenken und uns von der Fixierung auf Digitaltechnik lösen. Wer sich als Erwachsener mit seinen Daten prostituiert, um „kostenlose“ Dienste zu nutzen, kann es tun. Kinder und Minderjährige aber sind zu schützen. Hier haben Eltern und Schulträger die Verantwortung. In den USA gilt seit 1998 der „Childrens Online Privacy Protection Act“ (COPPA), der das Speichern und Auswerten von Daten Minderjähriger unter 13 Jahren unter Strafe stellt. Eine entsprechende Regelung fehlt in der EU. Der zweite Schritt wäre der konsequente und ausschließliche Einsatz von Free Open Source Software (FOSS) und das Kappen des Rückkanals für Nutzerdaten. Technisch ist das alles machbar. Die entscheidende Frage für Bildungseinrichtungen ist dabei: Gelingt es, Digital- und Netzwerktechnologien zur Emanzipation und Förderung der Autonomie der Menschen und deren Handlungsfreiheit einzusetzen (Lankau 2020) oder bleiben IT-Systeme Machtinstrumente der IT-Monopole zur (Verhaltens)Steuerung von Menschen?

Für die pädagogische Arbeit lautet die noch wichtigere Frage: Gelingt es, junge Menschen (wieder) für das Lernen und Lesen zu begeistern, damit sie eigene Vorstellungswelten entwickeln können, offen sind für das Spiel mit Sprache, Bildern und Klängen und dem Entwickeln von eigenen Gedanken-Welten. Intelligenz, Kreativität und Phantasie haben nur Menschen, nie Maschinen. Dazu muss man den Blick vom Display lösen und in der realen Welt mit anderen zusammen agieren.

Ein Albert Einstein zugeschriebenes Zitat lautet: „Wenn Sie wollen, dass Ihre Kinder intelligent sind, lesen Sie ihnen Märchen vor. Wenn Sie wollen, dass sie intelligenter werden, lesen Sie ihnen mehr Märchen vor.“ Bilder und Figuren entstehen dabei im Kopf der Zuhörenden statt am Bildschirm konsumiert zu werden. Man nennt es Phantasie und Vorstellungskraft. Daraus können neue Welten in der Wissenschaft, der Kunst, in der Kultur entstehen. Ist nicht das eines der wichtigsten Ziele von Bildung?


Begriffsdefinition

Algorithmus. Anweisung/Handlungsvorschrift zur Lösung von Aufgaben, bei Computern: Regeln zur Verarbeitung von Daten.

Artificial Intelligence (dt. Künstliche Intelligenz, vormals Kybernetik). mathematische Methoden (Mustererkennung, Statistik, Wahrscheinlichkeitsrechnung) zur automatisierten Datenverarbeitung.

Digitalisierung. Technische Transformation beliebiger Signale in ein maschinenlesbares Format (Digitalisate).

Digitale Transformation. Reorganisation beliebiger Prozesse (Kommunikation, Lehren, Lernen, Produktion …), um digital aufgezeichnet und ausgewertet/gesteuert werden zu können. In Folge zählt nur noch digital Abbildbares.

Generative KI. Automatisierte Datenverarbeitungssysteme, mit denen originär menschliche Fertigkeiten wie das Schreiben von Texten, das Gestalten von Grafiken, Präsentationen, Videos u.v.m. simuliert werden.

Kybernetik. Steuerung. Der Kybernetiker ist der Steuermann. Kybernetische Systeme dienen der Prozessteuerung und -optimierung (Regeln. Messen. Steuern.).

Postdigitalität. Die vollständige Datafizierung menschlichen Verhaltens und Lebensräume werden, da allgegenwärtig, nicht mehr hinterfragt


Literatur und Quellen

Armbruster, Alexander (2019): Nicht jeder muss ein Informatiker sein, Interview mit Microsoft-Deutschland-Chefin Sabine Bendiek, FAZ v. 01.04.2019; (3.5.2024)
Asimov, Isaac (2016) Die Schule [1954], in: Geliebter Roboter, 3. Aufl., S. 154-158, München: Heyne

Balslev, Jesper (2020) Evidence of a potential. The political arguments for digitizing education 1983 -­‐ 2015. Ph.D. Dissertation, Jesper Balslev, Department of Communication and Arts, Roskilde University, January 2020

Böhme, Gottfried (2023) ChatGPT bricht der Schule das Rückgrat, in: FAZ vom 14.9.2023

Brühl, Jannis (2023a). Ein Jahr Chat-GPT: Keine Hoffnung auf Luxuskommunismus, in: SZ vom 30.11.2023, S. 18

Deutscher Ethikrat (2023) Stellungnahme „Mensch und Maschine – Herausforderungen durch Künstliche Intelligenz“ des Deutschen Ethikrats vom 20. März 2023, hier Kap. 3.4.2 Der Mensch als Maschine – die Maschine als Mensch?, S. 107f.

FBD (2022) Forum Bildung Digitalisierung: https://www.forumbd.de/verein/; 20.11.2022

Gelhard, Andreas (2011) Kritik der Kompetenz, Zürich: diaphanes

Hansch, Dieter (2023) Der ehrlichere Name wäre „Simulierte Intelligenz“, in: FAZ vom 1.3.23, S. N2

Herkersdorf, M. (2020): KI-basierte Avatare als empathische Lernbegleiter; eLearning-Journal,  (6.3.22)

Haidt, Jonathan (2024): Generation Angst.

IQB-Bildungsbericht (2022) https://www.iqb.hu-berlin.de/bt/BT2021/Bericht/

Lankau, Ralf (Hrsg.) (2024): Die pädagogische Wende. Über die notwendige (Rück-)Besinnung auf das Unterrichten. Heidelberg.

Lankau, Ralf (2020). Alternative IT-Infrastruktur für Schule und Unterricht. Wie man digitale Medientechnik zur Emanzipation und Förderung der Autonomie des Menschen einsetzt, statt sich von IT-Systemen und Algorithmen steuern zu lassen. Köln 2020

Matthes, Sebastian (2021) Sie haben gelernt, unser Gehirn zu hacken, Interview mit dem Historiker Yuval Noah Harari; in: Handelsblatt vom 30. Dezember 2021 bis 2. Januar 2022, Nr. 253, S. 16-18, (12.6.2023)

McClelland, David C. (1973). Testing for competence rather than for „intelligence.“ American Psychologist, 28(1), 1–14. https://doi.org/10.1037/h0034092

Meinel, Christoph (2020) Individualisierung: Bildungsdaten der Schüler schützen, https://blog.hpi-schul-cloud.de/individuelle-foerderung-mit-interaktiven-lernsystemen/ (16.9.20) (letzter Zugriff: 24. Mai 2024)

Pias, Claus (2013): Eine kurze Geschichte der Unterrichtsmaschinen, FAZ vom 10. Dezember 2013;  (30.6.2022)

Simanowski, Roberto (2021) Digitale Revolution und Bildung S. 92, Weinheim: Beltz

UNESCO (2023) Technology in Education – A tool on whose terms? https://www.unesco.org/gem-report/en/technology, dt. Überstezung und Auszüge: https://die-pädagogische-wende.de/unesco-bericht-zu-it-in-schulen-fordert-mehr-bildungsgerechtigkeit/ (24. Mai 2024)

Weizenbaum, Joseph (1976) Die Macht der Computer und die Ohnmacht der Vernunft. Frankfurt.

Wiener, Norbert (2022) Mensch und Menschmaschine. Kybernetik und Gesellschaft.

Zuboff, Shosana (2018) Zeitalter des Überwachungskapitalismus. Frankfurt

Zuboff, Shosana (1918) In the Age of the Smart Machine. The Future of Work and Power, New York: Basics Book


Daten zur Person

Ralf Lankau ist Grafiker und Kunstpädagoge. Er lehrt seit 2002 an der HS Offenburg. Seine Forschungsprojekte sind „futur iii – Digitaltechnik zwischen Freiheitsversprechen und Totalüberwachung (Web: https://futur-iii.de) und das Projekt „Die pädagogische Wende“ (https://die-pädagogische-wende.de)

Prof. Dr. phil. Ralf Lankau
Fakultät Medien – HS Offenburg – Badstrasse 24 – D-77652 Offenburg
eMail:ralf.lankau@lankau.de
Web: https://die-pädagogische-wende.de

Postanschrift
Luisenstr. 10 – D-77654 Offenburg

Über das Missverständnis von IT und KI in Lernprozessen

Seit mehr als 40 Jahren wird über Informationstechnik in Schulen diskutiert. Seit November 2022 kommt als Thema generative Künstliche Intelligenz (KI) wie ChatGPT dazu. Dabei sind weder KI-Systeme noch Sprach-Bots neu. Mit Weizenbaums „Eliza“ konnte man schon 1966 chatten, Kybernetik als Begriff und Methode für automatisierte Datenverarbeitung publizierte Norbert Wiener 1948. Aber das Silicon Valley braucht ein neues „big thing“ (Brühl 2023). In der Schule sind solche Tools eher kontraproduktiv statt lernförderlich.

Von Ralf Lankau, erschienen in: Lehren & Lernen Heft 5-2024 (Oktober), S. 9-14
Der Beitrag als PDF: Lankau (2024) Wenn der Cpomputer unterrichtet
Link zum Neckar-Verlag: Neckar-Verlag GmbH


Über Schule, Unterricht und Lernmaschinen

Der russisch-amerikanische Wissenschaftler und Science fiction Autor Isaac Asimov schrieb 1954 eine Geschichte über die „Schule der Zukunft“. Im Jahr 2157 (Originaltitel: „The fun they had“) gebe es gar keine Schulen mehr, weil neben jedem Kinderzimmer ein kleiner Schulraum eingerichtet sei, in dem die Kinder und Jugendlichen von einem mechanischen Lehrer (einer Maschine mit Bildschirm und einem Schlitz zum Einwerfen der Hausaufgaben) unterrichtet würden. Diese Lehrmaschine sei perfekt auf die Fähigkeiten des jeweiligen Kindes eingestellt und könne es daher optimal beschulen. Besser als jeder Mensch. Nur: Maschinen können kaputt gehen. Die elfjährige Margie wird von ihrem mechanischen Lehrer wieder und wieder in Geographie abgefragt, gibt die richtige Antwort, wird aber jedes Mal schlechter benotet. Daher ruft die Mutter den Schulinspektor, um den mechanischen Lehrer zu reparieren.

„Margie hatte gehofft, dass er ihn nicht wieder zusammenbringen würde, aber er hatte Bescheid gewusst, und nach einer Stunde oder so hatte das Ding wieder dagestanden, gross und schwarz und hässlich, mit einer großen Mattscheibe darauf, wo alle Lektionen gezeigt wurden, und mit einem Lautsprecher daneben, der die Fragen stellte. Aber das war nicht das Schlimmste. Der Teil, den Margie am meisten hasste, war ein Schlitz, in den sie alle Hausarbeiten und die Antworten auf seine Fragen stecken musste. Alles das musste sie in einem Lochcode schreiben, den sie mit sechs Jahren gelernt hatte, und der mechanische Lehrer rechnete die Noten im Nu aus.“ (Asimov, 2016)

In wenigen Sätzen beschreibt Isaac Asimov, was heute zum Teil bereits Praxis ist oder, geht es nach den Anbietern solcher Systeme, Alltag werden soll: Kinder sitzen an Bildschirmen und werden von Apparaten beschult. Unterrichten und Prüfen wird an Maschinen und Software delegiert, digitalisiert und entpersonalisiert. Lernen selbst wird auf automatisiert Abprüfbares reduziert, weil weder eine Lernmaschine noch eine Software „versteht“,was sie berechnet, egal, wie komplex sie ist. Die Microsoft-Deutschland-Chefin Sabine Bendiek präzisiert: „Eine KI kann viele Dinge ganz toll, aber letztlich rechnet sie auf Basis von großen Datenmengen“ (Armbruster 2019).

Daran muss erinnert werden, weil im Kontext der aktuell diskutierten KI-Systeme auf Basis großer Sprachmodelle (Large Language Models, LLM) wie ChatGPT, Bard u.a. und der von diesem Systemen generierten Texte die Grenze zwischen Mensch und Maschine in beide Richtungen aufgelöst, Maschinen zu Lebewesen überhöht werden. Eine Maschine, mit der man sich „fast wie mit einem Menschen“ unterhalten kann, ist doch (fast) ein Mensch (Stichwort Turing-Test)? Nein. Es ist der Mensch als kommunikatives und soziales Wesen, der Apparaten menschliche Attribute zuweist, weil er ein Gegenüber braucht.

Auf dieses Wechselspiel (und Irrtum) aus Anthropomorphismus (die Vermenschlichung und Zuschreibung menschlicher Eigenschaften an Maschinen) und Animismus (die Zuschreibung mentaler Eigenschaften an Maschinen) weist der Deutsche Ethikrats in seiner Stellungnahme „Mensch und Maschine – Herausforderungen durch Künstliche Intelligenz“ von 2023 hin. Die Vermenschlichung von Objekten und Maschinen ist dabei eine historische Konstante, bekommt ihre besondere Dynamik aber dadurch, dass diese IT- und KI-Systeme bereits flächendeckend im Web, in Suchmaschinen und Apps im Einsatz sind, ohne dass wir es bemerken oder Einfluss darauf nehmen können. Siri, Cortana und Sprach-Bots wie beim Routenplaner sind alltäglich. Nach der Digitalisierung von Arbeitsplatz, Kommunikation und Konsums(per Smartphone, Web und App) sind jetzt allerdings vermehrt Bildungseinrichtungen das Ziel digitaler Transformation (Digitalpakt Schule).

Entpersonalisierung des Unterrichtens

Dabei gilt: Unterrichten als interpersonaler Prozess ist immer an Menschen und den direkten Dialog gebunden. Das pädagogische Dreieck beschreibt die zwei beteiligten Parteien, die notwendig präsent und einander zugewandt sein müssen, um von pädagogischer Arbeit und Unterricht zu sprechen: Lehrende und Lernende. Dazu kommt als Drittes die Sache als Unterrichtsgegenstand der Vermittlung, das Thema oder das Fach des Unterrichtens. Bei Bedarf und je nach Altersgruppe, Thema und Möglichkeit ergänzen (analoge wie digitale) Medien das Lehren und Lernen.

Abb. 1: Das pädagogische Dreieck

Das gemeinsame Lehren und Lernen findet in einem sozialen Raum statt und ist ein dialogischer, diskursiver Prozess. Der klassische Begriff dafür lautet „Unterrichtsgespräch“ und wurde bereits in der Akademie des Sokrates erfolgreich praktiziert.

Die »sokratische Hebammenkunst« ist die Kunst des Fragens der Lehrenden und der Erkenntnisgewinn durch eigenes Nachdenken und Formulieren möglicher Antworten durch die Schülerinnen und Schüler. Es ist ein wechselseitiger Dialog statt einem Monolog. Die Lehrperson überantwortet das Denken dabei den Schülerinnen und Schülern, die Antworten auf Fragen mit eigenen Worten formulieren und so argumentieren lernen. Entfernt man aus diesem Dreieck die Lehrperson, wird aus Unterricht und Lehre medienbasierte Instruktion für die mehr oder weniger strukturierten Selbstlernphasen. Bei einem Fachbuch bleibt es den Lernenden überlassen, was sie lesen oder überblättern. Bei digitalen Anwendungen sind die Inhalte, Lernpfade und zu lösenden Aufgaben vorgegeben.

Das ist zwar eine mögliche Form des Lernens, vor allem für fortgeschrittene Lerner, aber kein Unterricht. Das selbstständige Lernen mit Medien setzt zudem Vorwissen, Reflexionsvermögen und Urteilskraft sowie Selbstdisziplin voraus. Mediengestützte Selbstlernphasen sind ein Ziel von Erziehung und Unterricht, um Jugendliche und vor allem Erwachsene (im Studium!) an das eigenständige, auch inhaltlich selbstbestimmte Lesen, Lernen und Forschen heranzuführen (bei wissenschaftlichen Karrieren). Es ist keine Fertigkeit von Kindern und nur weniger Jugendlicher und nur wenige Erwachsene bewahren sich diese intrinsisch motivierte Form der Neugier und Bereitschaft zur Anstrengung.

Lernen an Lernstationen hingegen ist weder selbstbestimmt noch individualisiert. Das Lernziel ist ebenso vordefiniert wie die Lernpfade. Individualisierung bedeutet hier nur Varianz und Anzahl der möglichen Zwischenschritte. Es ist algorithmisch gesteuertes „Teaching to the Test“, mit kleinteilig integrierten Prüfschleifen und Berechnung der nächsten Aufgaben durch Lernkontrollsoftware. Das Ziel ist vorgegeben und soll möglichst effizient erreicht werden. Technische Systeme arbeiten heute zwar, anders als bei Asimov, mit Avataren: digital generierte Figuren als Pseudo-Charaktere mit ebenso computergenerierter Stimme. Aber das Prinzip sozialer Isolation am Display (heute Touchscreen), die Reduktion von Lernprozessen auf das Abarbeiten vorgegebener Aufgaben mit dem Ziel der Abprüfbarkeit und technisch generierter statt zwischenmenschlicher Interaktion hat Asimov vorweggenommen.

Der Sozialraum Schule mit Klassenzimmern und Pausenhof wird durch die Beschulung per Apparat ebenso eliminiert wie das gemeinsame Lernen und gegenseitige Helfen. Menschen am Display sind dem Apparat ausgeliefert. Mit einer Maschine kann man nicht diskutieren. Zugleich wird Unterrichten und Lernen durch mechanische Lehrer (heute digitale Systeme) reduziert auf abfragbares Repetitionswissen, das nach Alters- und Leistungsstufen (heute: Kompetenzraster und -stufen) vermittelt und sofort abgeprüft wird.

Eine Maschine „versteht“ ja nicht, was an Texten oder Grafiken angezeigt, per Sprachsoftware artikuliert oder als nächste Aufgabe gestellt wird. Maschinen funktionieren nach Steuerungsanweisungen. Sie funktionieren korrekt oder sind falsch konfiguriert bzw. defekt. Maschinen (Computer sind Rechenmaschinen) haben weder kein Bewusstsein, keinen Willen oder irgendeine Absicht. Ein Computersystem kann weder reflektieren noch argumentieren. Alles muss als konkrete Handlungsanweisung hinterlegt sein. Es sind kybernetische Steuerungssysteme, die nur „Richtig“ oder „Falsch“ (1) kennen.Dazu werden komplexe Aufgaben in immer kleinere Teilaufgaben zerlegt, die mathematisch berechnet und nach dem Binärsystem (0/1, Ja/Nein) beantwortet werden (können).

Die Automatisierung von Lernprozessen

Die Idee, Unterricht und Lehre ließe sich automatisieren und automatisiert prüfen, ist älter als Computer oder Internet. In seiner kurzen Geschichte der Unterrichtsmaschinen schreibt Claus Pias über „Lerngutprogrammierung, Lehrstoffdarbietungsgeräte und Robbimaten“ (Pias 20123). Er referiert über die Thesen des Psychologen Pressey, der bereits 1926 beklagt hatte, Erziehung hätte den geringsten Wirkungsgrad aller denkbaren Unternehmungen, weshalb der Lehrbetrieb arbeitswissenschaftlich (nicht pädagogisch!) optimiert werden müsse. „Im Klartext: Wie bekommt man mit möglichst wenig Ressourcen möglichst viel Stoff möglichst schnell in die Köpfe?“

Vorläufer und Impulsgeber waren Psychologen wie William Stern, der bereits im Jahr 1900 die „Psychologisierung des gesamten menschlichen Lebens“ prognostizierte. Stern und Kollegen wie Hugo Münsterberg postulierten 1912 als psychotechnische Maxime: „Alles muss messbar sein“. Psycho-Technik wurde zur Leitdisziplin des „Psycho-Ingenieurs“ und sind heute Grundlage empirischer Bildungsforschung. Empirie basiert auf Beobachtung und (personalisierten) Daten. Um der oder dem Lernenden die „passgenauen Angebote“ machen zu können, müssen die Probanden möglichst kleinteilig und genau vermessen werden. Dazu dienen heute digitale Endgeräte und der personalisierte Login. „Das System“ muss wissen, wer vor dem Bildschirm sitzt:

Viele dieser Lernsysteme sind interaktiv, stellen sich also ganz individuell auf den einzelnen Schüler ein und „erinnern“ seine Schwächen und Stärken genau. C…) Das ist kein Hexenwerk, denn sobald man sich bei einem solchen Lernsystem registriert und eingeloggt hat, kann dieses alle Interaktionen der eingeloggten Person genau zuordnen. Sie kann Vergleichsanalysen mit den Verhaltensdaten aller anderen jemals eingeloggten Lerner durchführen und darauf aufbauend die weiteren Interaktionen dem anvisierten Lernziel entsprechend steuern. Viel genauer als das dem Lehrer im Unterricht mit der Klasse möglich ist, können dabei die Schwächen der einzelnen Schüler überwunden und zielgenau ihre Stärken individuell gefördert werden.(Meinel, 2020)

Aus personalisierten Nutzerdaten lassen sich die fünf Dimensionen der Persönlichkeitspsychologie des Fünf-Faktoren-Modells (engl. OCEAN für Openness to experience, Conscientiousness, Extraversion, Agreeableness, Neuroticism) berechnen. Diese Persönlichkeitsmerkmale (in deutsch Offenheit, Gewissenhaftigkeit, Extrovertiertheit, Verträglichkeit und emotionale Stabilität in der jeweiligen Ausprägung auf einer Skala von -5 bis +5) ergeben präzise Abbilder der Persönlichkeitsstruktur, der mentalen und psychischen Belastbarkeit und der Leistungsbereitschaft, des emotionalen wie des sozialen Verhaltens, der sexuellen Präferenzen u.v.m. Der Mensch wird zum Datensatz und in seiner Psyche und Persönlichkeit transparent. Zusammen mit Bewegungs- und Kommunikationsprofilen aus anderen digitalen Kanälen (Social-Media-Apps, Browserverläufe, Metadaten über das Kommunikationsverhalten), entstehen präzise Persönlichkeits- und Verhaltensprofile.

Das Ziel ist, mit Hilfe dieser Daten menschliches Verhalten möglichst effizient zu beeinflussen. Die eher freundliche Variante heißt „Nudging“ (Anstupsen) die weniger freundliche persuasive (verhaltensändernde) Technologien. Die Methoden dafür hat Edward Bernays 1928 beschrieben. Für Psychologen sind selbst Emotionen und Einstellungen „Kompetenzen“, die sich trainieren und zur Selbstoptimierung (oder Fremdsteuerung) verändern lassen. Der Psychoingenieur David McClelland leitete daraus bereits 1973 das „pädagogische Versprechen einer umfassenden Formbarkeit des Menschen“ ab (zit. n. Gerhard, , S. 100, McClelland 1973). Das Aufzeichnen des menschlichen Verhaltens wird heute über digitale Endgeräte wie Smartphone und Tablet mit eingebauten Kameras und Mikrofon realisiert. Nach dem Einloggen über eine persönliche Identifikationsnummer (ID) liefern diese Geräte personalisierte Lern- und Verhaltensdaten ebenso in Echtzeit wie alle Akte der Kommunikation sowie Bewegungs- und Geodaten. Das „System“ weiß, wo wir sind, was wir tun, mit wem wir wie oft und wie lange kommunizieren. Die Metadaten sind viel aussagekräftiger als die (meist trivialen) Inhalte.

Nutzersteuerung durch digitale Zwillinge

Steuerbarkeit der Probanden ist das Ziel kybernetischer Systeme. Zu Beginn der 1950er Jahren stritten zwei Fraktionen um die Deutungshoheit. Kybernetiker in der Nachfolge von Norbert Wiener, dem Namensgeber der Kybernetik, arbeiten mit mathematischen Modellen. Behavioristen in der Tradition des Biologen B.F. Skinner (Vordenker des programmierten Lernens) nutzen (verhaltens)biologische Modelle.

Gemeinsam ist Kybernetik wie Behaviorismus die Überzeugung, dass der Mensch als (mathematisches resp. biologisches) Regelsystem definiert und mit Hilfe entsprechender Parameter gesteuert werden könne: als mathematisch-technisches System bzw. als„Input-Output-Schemata“ (Blackbox) als biologistische Variante.

Dabei gilt: „Künstliche Intelligenz“ ist allenfalls die „Simulation von Intelligenz“ (Hansch, 2023, N2), da Datenverarbeitungsmaschinen auf der mathematischen Grundlage von Mustererkennung, Wahrscheinlichkeitsrechnung und Statistik rechnen und bei generativen KI-Systemen zum Beispiel Texte, Grafiken, Videos oder Computercode generieren. Diese mögen formal so aussehen, als hätten Menschen sie produziert. Das gelingt, weil alle menschlichen Kommunikations- und Zeichensysteme regelbasiert, d.h. logisch und systematisch aufgebaut sind (Stichwort Semiotik). Regelsysteme kann man mathematisch nachbilden und ebenso regelbasiert ablaufen lassen – wie ein Uhrwerk. Nur weiß eine Uhr nicht, wie spät es ist, egal, wie exakt sie läuft. Eine Uhr weiß nicht einmal,was Zeit ist! Daher ist auch das ganze Gerede von der „Herrschaft der Maschinen“ Science fiction und Angstmacherei. Maschinen wollen weder Herrschaft noch Macht. Sie haben weder ein Bewusstsein noch irgendwelche Absichten oder Ziele. Computer, Software und Apps werden für konkrete Zwecke konstruiert und erfüllen ihre Funktion – oder müssen repariert, korrigiert, umprogrammiert werden.

Was diese Systeme kritisch macht, ist, dass mit KI nicht nur technische Systeme gesteuert werden, sondern Menschen und ihr Konsumverhalten. Der Einzelne am digitalen Endgerät ist sowohl Datenspender für die Big Data-Sammlung der Datenökonomie wie Adressat für digitale Angebote.

Während die Steuerung von Maschinen und Prozessen durch IT und KI die Aufgabe von Ingenieuren und Informatikern ist, verstößt die Steuerung von Menschen durch IT und KI gegen deren Persönlichkeits- und Selbstbestimmungsrecht. Die US-amerikanische Wirtschaftswissenschaftlerin Shoshana Zuboff hatte schon 1988 das Prinzip der IT formuliert. Digitalsysteme sind per se Kontrollsysteme: Automatisieren. Digitalisieren. Kontrollieren. (Zuboff 1988). Das kritisiert sie aktuell mit dem Begriff „Überwachungskapitalismus“ (Zuboff 2018). Das nannte Frank Schirrmacher bereits 2015 technologischen Totalitarismus. Das macht Digital- als Kontrollinstrumente für den Einsatz in Sozialsystemen – und insbesondere Bildungseinrichtungen – so schwierig bzw. ungeeignet. Denn aus diesen Daten lassen sich Persönlichkeitsprofile (digitale Zwillinge) generieren, mit mit man Verhalten prognostizieren und testen kann.Bei KI-Systemen in Schulen kommt noch etwas Elementares dazu: „KI ruiniert das Motivationsgefüge des herkömmlichen Unterrichts“, so der Pädagoge Gottfried Böhme und führt aus:

„Künstliche Intelligenz bricht der Schule, wie sie heute existiert, das Rückgrat. Es hat in der Geschichte der Bildungseinrichtungen noch nie eine Erfindung gegeben, die so infam die gesamte Motivationsstruktur des Lernsystems infrage gestellt hat wie diese Atombomben-KI – um mich hier deutlich zu outen. Wir ziehen gerade eine Generation von Jugendlichen heran, die eine Zeitlang ihren Lehrern noch vorgaukeln kann, dass das, was ihnen ChatGPT oder ein anderes Programm geschenkt hat, ihre Leistung sei, und bald nicht mehr wissen, warum sich Lernen überhaupt noch lohnen soll.“ (Böhme 2023, S. 9)

Wirtschaftsinteressen vs. Pädagogik

In der öffentlichen Diskussion werden solche Bedenken nicht thematisiert, da bestimmen Fortschrittsglauben und Technikdeterminismus den Diskurs. KI-Systeme seien auf dem Markt, würden von Lehrkräften, Schülerinnen und Schülerinnen ohnehin eingesetzt und müssten daher in die Schule integriert werden. So überlässt man die Frage, mit welchen Medien unterrichtet wird, den Anbietern dieser Systeme (siehe UNESCO-Bericht 2023). Der fehlende Nutzen und Mehrwert von IT und KI (Balslev 2020) kompensieren die Digitalanbieter durch die Behauptung, dass bereits die Frage nach dem Mehrwert und Nutzen von IT und KI in Schulen falsch gestellt sei.

So argumentiert z.B. das Forum Bildung Digitalisierung e.V., ein Zusammenschluss privater Stiftungen, die sich für eine „systemische digitale Transformation im Bildungsbereich“ einsetzen. Die in diesem Forum durch ihre Stiftungen vertretenen Unternehmen kommen aus der IT- und Telekommunikationswirtschaft (Vodafone, Telekom) und/oder sind selbst Akteure der Digitalisierung bzw. Bildungsindustrie. Ihr Credo: „In Projekten, Publikationen und Veranstaltungen identifizieren wir Gelingensbedingungen für den digitalen Wandel an Schulen und navigieren durch die notwendigen Veränderungsprozesse (FBD 2022). Im Gefolge solcher Stiftungen finden sich selbstredend digitalaffine Lehrkräfte, Blogger und „Bildunsginfluencer“, die derartige Setzungen übernehmen und ebenfalls über Bildung nur noch „unter den Bedingungen der Digitalisierung“ diskutieren (wollen).

„Probleme kann man niemals mit derselben Denkweise lösen, mit der sie entstanden sind“ soll Albert Einstein formuliert haben. Wer die ernüchternden Ergebnisse des letzten PISA-Tests von 2022 oder des IQB-Bildungstrends 2021 zu den schulischen Leistungen der bundesdeutschen Primarschülerinnen und -schüler verfolgt hat, wird womöglich an Georg Pichts „Bildungskatastrophe“ von 1964 erinnert oder an gleichnamige Reaktionen nach dem ersten PISA-Test von 2000.Die messbaren Lernleistungen haben seither, trotz stetig neuer Testreihen und dem Aufbau einer ganzen Testindustrie, nach einer kurzfristigen Steigerung (durch das Üben der Testaufgaben) konsequent abgenommen. Selbst die Mindeststandards elementarer Fähigkeiten wie Lesen Schreiben, Zuhören und Rechnen werden von immer weniger Kindern erreicht.

Intelligent wäre, dafür die Ausrichtung der Schulen nach neoliberalen Vorgaben verantwortlich zu machen (Stichwort Humankapitaltheorie, Unternehmen Schule), ebenso kybernetische und psychologische Steuerungsmodelle – und die Konsequenzen zu ziehen. Wir brauchen eine pädagogische Wende, heißt das. Anstatt Lernen und Unterricht von Medien- und Digitaltechnik und messbaren Lernleistungen her zu definieren, müsse wieder das Erziehen und Unterrichten von Menschen und das „Verstehen lehren“ (Andreas Gruschka) im Zentrum pädagogischer Arbeit stehen.

Satt der sozialen Isolation am Display (samt daraus entstehender psychischer Probleme wie Vereinsamung und Eńt-Sozialisierung) müssen der Dialog in und mit der Klassen- und Lerngemeinschaft wieder der Kern pädagogischer Praxis werden.

Bildungseinrichtungen sind keine Zurichte-Anstalten für die Kompetenzvermessung, sondern müssen sich auf ihren Ursprung besinnen: Ein Ort der Muße, der Wertevermittlung und Bildung zu sein, in der Menschen zu mündigen, selbstverantwortlichen Persönlichkeiten werden, die sich aus intrinsischer Motivation und Überzeugung in die Gesellschaft einbringen.

Auf einem Schulleitungssymposium in der Schweiz wurden bereits 2017 als bildungspolitische Ziele Kriterien einer adäquaten Bildung für eine offene Zukunft formuliert: „eine stärkere Perspektivenorientierung auf Persönlichkeitsentwicklung, Mündigkeit, Förderung von Gemeinschaftssinn, Selbstverantwortung, verantwortungsvolle Partizipation an der Demokratie und achtungsvoller Umgang mit der fragilen Umwelt“ (Simanowski, 2021, S. 92). Keines dieser Lernziele lässt lässt sich per IT und KI vermitteln. Solche Werte als Grundlage für eigenes Handeln entstehen nur in Präsenz, durch Bindung und Vertrauen, Dialog und Diskurs.

Fazit

Der israelische Historiker Yuval Noah Harari wurde gefragt, warum er kein Smartphone besitze. Die Antwort des Wissenschaftlers, der sich dezidiert mit den Auswirkungen der Digitalisierung auf menschliches Verhalten befasst hat lautet: Er sei nicht naiv und wisse, dass er in einer zunehmend smarten Umwelt auch ohne Smartphone verfolgt werden könne. Es gehe um mehr:

„Der Hauptpunkt ist, Ablenkungen fernzuhalten. Ich weiß, wie schwierig es ist, den Geist zu kontrollieren, konzentriert zu bleiben. Und außerdem: Die Menschen auf der anderen Seite des Smartphones – die klügsten Menschen der Welt – haben in den vergangenen 20 Jahren gelernt, wie man das menschliche Gehirn durch das Smartphone hacken kann. Denen bin ich nicht gewachsen. Wenn ich gegen die antreten muss, werden sie gewinnen. Also gebe ich ihnen nicht meinen Bildschirm, gewähre ihnen keinen direkten Zugang zu meinem Gehirn.“ (Matthes, 2021)

Asimovs Lernmaschine kann heute Gehirne hacken … Wir müssen daher dringend umdenken und uns von der Fixierung auf Digitaltechnik lösen. Wer sich als Erwachsener mit seinen Daten prostituiert, um „kostenlose“ Dienste zu nutzen, kann es tun. Kinder und Minderjährige aber sind zu schützen. Hier haben Eltern und Schulträger die Verantwortung. In den USA gilt seit 1998 der „Childrens Online Privacy Protection Act“ (COPPA), der das Speichern und Auswerten von Daten Minderjähriger unter 13 Jahren unter Strafe stellt. Eine entsprechende Regelung fehlt in der EU. Der zweite Schritt wäre der konsequente und ausschließliche Einsatz von Free Open Source Software (FOSS) und das Kappen des Rückkanals für Nutzerdaten. Technisch ist das alles machbar. Die entscheidende Frage für Bildungseinrichtungen ist dabei: Gelingt es, Digital- und Netzwerktechnologien zur Emanzipation und Förderung der Autonomie der Menschen und deren Handlungsfreiheit einzusetzen (Lankau 2020) oder bleiben IT-Systeme Machtinstrumente der IT-Monopole zur (Verhaltens)Steuerung von Menschen?

Für die pädagogische Arbeit lautet die noch wichtigere Frage: Gelingt es, junge Menschen (wieder) für das Lernen und Lesen zu begeistern, damit sie eigene Vorstellungswelten entwickeln können, offen sind für das Spiel mit Sprache, Bildern und Klängen und dem Entwickeln von eigenen Gedanken-Welten. Intelligenz, Kreativität und Phantasie haben nur Menschen, nie Maschinen. Dazu muss man den Blick vom Display lösen und in der realen Welt mit anderen zusammen agieren.

Ein Albert Einstein zugeschriebenes Zitat lautet: „Wenn Sie wollen, dass Ihre Kinder intelligent sind, lesen Sie ihnen Märchen vor. Wenn Sie wollen, dass sie intelligenter werden, lesen Sie ihnen mehr Märchen vor.“ Bilder und Figuren entstehen dabei im Kopf der Zuhörenden statt am Bildschirm konsumiert zu werden. Man nennt es Phantasie und Vorstellungskraft. Daraus können neue Welten in der Wissenschaft, der Kunst, in der Kultur entstehen. Ist nicht das eines der wichtigsten Ziele von Bildung?


Begriffsdefinition

Algorithmus. Anweisung/Handlungsvorschrift zur Lösung von Aufgaben, bei Computern: Regeln zur Verarbeitung von Daten.

Artificial Intelligence (dt. Künstliche Intelligenz, vormals Kybernetik). mathematische Methoden (Mustererkennung, Statistik, Wahrscheinlichkeitsrechnung) zur automatisierten Datenverarbeitung.

Digitalisierung. Technische Transformation beliebiger Signale in ein maschinenlesbares Format (Digitalisate).

Digitale Transformation. Reorganisation beliebiger Prozesse (Kommunikation, Lehren, Lernen, Produktion …), um digital aufgezeichnet und ausgewertet/gesteuert werden zu können. In Folge zählt nur noch digital Abbildbares.

Generative KI. Automatisierte Datenverarbeitungssysteme, mit denen originär menschliche Fertigkeiten wie das Schreiben von Texten, das Gestalten von Grafiken, Präsentationen, Videos u.v.m. simuliert werden.

Kybernetik. Steuerung. Der Kybernetiker ist der Steuermann. Kybernetische Systeme dienen der Prozessteuerung und -optimierung (Regeln. Messen. Steuern.).

Postdigitalität. Die vollständige Datafizierung menschlichen Verhaltens und Lebensräume werden, da allgegenwärtig, nicht mehr hinterfragt


Literatur und Quellen

Armbruster, Alexander (2019): Nicht jeder muss ein Informatiker sein, Interview mit Microsoft-Deutschland-Chefin Sabine Bendiek, FAZ v. 01.04.2019; (3.5.2024)
Asimov, Isaac (2016) Die Schule [1954], in: Geliebter Roboter, 3. Aufl., S. 154-158, München: Heyne

Balslev, Jesper (2020) Evidence of a potential. The political arguments for digitizing education 1983 -­‐ 2015. Ph.D. Dissertation, Jesper Balslev, Department of Communication and Arts, Roskilde University, January 2020

Böhme, Gottfried (2023) ChatGPT bricht der Schule das Rückgrat, in: FAZ vom 14.9.2023

Brühl, Jannis (2023a). Ein Jahr Chat-GPT: Keine Hoffnung auf Luxuskommunismus, in: SZ vom 30.11.2023, S. 18

Deutscher Ethikrat (2023) Stellungnahme „Mensch und Maschine – Herausforderungen durch Künstliche Intelligenz“ des Deutschen Ethikrats vom 20. März 2023, hier Kap. 3.4.2 Der Mensch als Maschine – die Maschine als Mensch?, S. 107f.

FBD (2022) Forum Bildung Digitalisierung: https://www.forumbd.de/verein/; 20.11.2022

Gelhard, Andreas (2011) Kritik der Kompetenz, Zürich: diaphanes

Hansch, Dieter (2023) Der ehrlichere Name wäre „Simulierte Intelligenz“, in: FAZ vom 1.3.23, S. N2

Herkersdorf, M. (2020): KI-basierte Avatare als empathische Lernbegleiter; eLearning-Journal,  (6.3.22)

Haidt, Jonathan (2024): Generation Angst.

IQB-Bildungsbericht (2022) https://www.iqb.hu-berlin.de/bt/BT2021/Bericht/

Lankau, Ralf (Hrsg.) (2024): Die pädagogische Wende. Über die notwendige (Rück-)Besinnung auf das Unterrichten. Heidelberg.

Lankau, Ralf (2020). Alternative IT-Infrastruktur für Schule und Unterricht. Wie man digitale Medientechnik zur Emanzipation und Förderung der Autonomie des Menschen einsetzt, statt sich von IT-Systemen und Algorithmen steuern zu lassen. Köln 2020

Matthes, Sebastian (2021) Sie haben gelernt, unser Gehirn zu hacken, Interview mit dem Historiker Yuval Noah Harari; in: Handelsblatt vom 30. Dezember 2021 bis 2. Januar 2022, Nr. 253, S. 16-18, (12.6.2023)

McClelland, David C. (1973). Testing for competence rather than for „intelligence.“ American Psychologist, 28(1), 1–14. https://doi.org/10.1037/h0034092

Meinel, Christoph (2020) Individualisierung: Bildungsdaten der Schüler schützen, https://blog.hpi-schul-cloud.de/individuelle-foerderung-mit-interaktiven-lernsystemen/ (16.9.20) (letzter Zugriff: 24. Mai 2024)

Pias, Claus (2013): Eine kurze Geschichte der Unterrichtsmaschinen, FAZ vom 10. Dezember 2013;  (30.6.2022)

Simanowski, Roberto (2021) Digitale Revolution und Bildung S. 92, Weinheim: Beltz

UNESCO (2023) Technology in Education – A tool on whose terms? https://www.unesco.org/gem-report/en/technology, dt. Überstezung und Auszüge: https://die-pädagogische-wende.de/unesco-bericht-zu-it-in-schulen-fordert-mehr-bildungsgerechtigkeit/ (24. Mai 2024)

Weizenbaum, Joseph (1976) Die Macht der Computer und die Ohnmacht der Vernunft. Frankfurt.

Wiener, Norbert (2022) Mensch und Menschmaschine. Kybernetik und Gesellschaft.

Zuboff, Shosana (2018) Zeitalter des Überwachungskapitalismus. Frankfurt

Zuboff, Shosana (1918) In the Age of the Smart Machine. The Future of Work and Power, New York: Basics Book


Daten zur Person

Ralf Lankau ist Grafiker und Kunstpädagoge. Er lehrt seit 2002 an der HS Offenburg. Seine Forschungsprojekte sind „futur iii – Digitaltechnik zwischen Freiheitsversprechen und Totalüberwachung (Web: https://futur-iii.de) und das Projekt „Die pädagogische Wende“ (https://die-pädagogische-wende.de)

Prof. Dr. phil. Ralf Lankau
Fakultät Medien – HS Offenburg – Badstrasse 24 – D-77652 Offenburg
eMail:ralf.lankau@lankau.de
Web: https://die-pädagogische-wende.de

Postanschrift
Luisenstr. 10 – D-77654 Offenburg