Weder Denken noch Verstehen lassen sich automatisieren oder delegieren
Seit November 2022 sind Apps der „generativen Künstlichen Intelligenz“ (genAI) auf dem Markt. Wie nicht anders zu erwarten, fordern Anbieter, Wirtschaftsverbände und die üblichen Stiftungen den KI-Einsatz in Schulen und Bildungseinrichtungen, begleitet von den üblichen Digitalenthusiasten, Influencer und „Bildungsaktivisten“. Dumm nur, dass man wenig lernt, wenn man diese „Bullshit Generatoren“ (Stallmann, 2026) im Unterricht und (Hoch)Schulen einsetzt statt sich selbst etwas zu erarbeiten. Dumm auch, dass man das schon vorher weiß, weil der KI-Hype die dritte Wiederholungen ist und lediglich kommerzielle Interessen der Tech-Monopole bedient. Aber es geht ja auch gar nicht um Bildung, sondern um Märkte und Macht(politik).
Die wichtigsten Punkte im Überblick
- Kybernetik, Technik und Geschichte
- Akteure und deren Partikularinteressen
- Large Language Models (LLM) als Irrweg
- IT und KI-Tools in der Schule
1 Kybernetik, Technik und Geschichte
Künstlicher Intelligenz. Das, was unter „Künstlicher Intelligenz“ (eng. Artificial Intelligence) diskutiert wird, ist keine Intelligenz, sondern nur die Simulation von Intelligenz. (Hansch, 2023) Es sind – sehr leistungsfähige – mathematische Modelle der automatisierten Datenverarbeitung, mit denen seit mehr als 70 Jahren konstruktiv gearbeitet wird. Das Ziel ist die Steuerung von Prozessen (Kybernetik als generelle Steuerungskunst, Mess-, Steuerungs- und Regelungstechnik als technisch-wissenschaftliches Fachgebiet der Automatisierungs- und Elektrotechnik; zur Geschichte der KI siehe Seising, 2021).
Kybernetik. Die mathematische Modelle der Kybernetik (Mustererkennung, Statistik und Wahrscheinlichkeitsrechnung) werden in vielen Bereichen der Wissenschaft und Wirtschaft eingesetzt, um Prozesse und/oder ganze Produktionsabläufe zu optimieren und automatisiert zu steuern (Stichworte Prozessautomatisierung und Robotik). Das gleiche gilt für alltagsrelevante Einsatzgebiete wie z.B. Verkehrsleitsysteme, Flugsicherung, Wettervorhersagen oder Diagnostik (Bilderkennung) und Prognostik in der Medizin u.v.m. KI-Systeme sind seit Jahrzehnten fester Bestandteil Teil industrialisierter Gesellschaften.
Norbert Wiener. Jede Medaille hat zwei Seiten.Das Grundproblem des möglichen Missbrauchs von technischen Systemen hat der Vordenker und Namensgeber der Kybernetik, Norbert Wiener, bereits 1947 im Vorwort seines Kybernetik Buchs beschrieben:
„Diejenigen von uns, die zu der neuen Wissenschaft Kybernetik beigetragen haben, sind in einer moralischen Lage, die, um es gelinde auszudrücken, nicht sehr bequem ist. Wir haben zu der Einführung einer neuen Wissenschaft beigesteuert, die, wie ich gesagt habe, technische Möglichkeiten mit großen Möglichkeiten für Gut und Böse umschließt.
Wir können sie nur in die Welt weitergeben, die um uns existiert, und dies ist die Welt von Belsen und Hiroshima. Wir haben nicht einmal die Möglichkeit, diese neuen technischen Entwicklungen zu unterdrücken. Sie gehören zu diesem Zeitalter, und das Höchste, was irgend jemand von uns tun kann, ist, zu verhindern, daß die Entwicklung des Gebietes in die Hände der verantwortungslosesten und käuflichsten unserer Techniker gelegt wird.“ (Wiener, 1963 S. 61f)
Wissenschaft vs. Kommerz. Norbert Wiener antizipierte damit bereits vor den ersten Anwendungen der erst 1956 in „Artificial Intelligence“ (AI) umbenannten kybernetischen Systeme die Missbrauchspotentiale dieser extrem leistungsfähigen Dual Use-Technologien. Diese „verantwortungslosesten und käuflichsten Techniker“ lassen sich heute von A (Sam Altman, Open AI) über M (Elon Musk/Tesla, xAI) bis Z (Marc Zuckerberg, Facebook/Meta) ausbuchstabieren.
Generative KI (genAI). Seit November 2022 wird intensiv über Generative KI (genAI) als Sonderform automatisierter Datenverarbeitung diskutiert. Der erste publizierte Bot war ChatGPT, das Unternehmen Open AI wollte ursprünglich eine nichtkommerzielle, gemeinnützige AI entwickeln. Sam Altmann wollte das Projekt kommerzialisieren und wurde im November 2023 entlassen.
Rauswurf und Wiedereinstellung. Der Rauswurf von Altman bei Open AI und seine Wiedereinstellung nach wenigen Tagen auf Druck des Investors Microsoft war zugleich die Neuausrichtung: maximalen Kommerz statt Gemeinnützigkeit, proprietäre (intransparente) Software statt Open Source, seit Oktober 2025 mit „Erotik-Modus“ (Sex generiert im Netz am meisten Umsatz) und demnächst mit Werbung (Meldung im Januar 2026).
KI-generierte Artefakte. GenAI erzeugt mit Hilfe von Algorithmen (das sind Handlungsanweisungen für Rechner zur Datenverarbeitung) Texte, Bilder und Videos, formal vergleichbar mit dem, was Menschen an Texten, Bildern oder Videos formulieren und gestalten – mit dem entscheidenden Unterschied, dass eine Software nicht „versteht“, was da an Texten, Bildern oder Videos berechnet (generiert) wird.
Bullshit Generatoren. Richard Stallmannn nennt KI-Systeme „Bullshit Generatoren“, weil sie die semantische Ebene (Wortbedeutung und Sinn) nicht beherrschen (können). Mustererkennung, Statistik und Wahrscheinlichkeiten sind keine Semantik:
„Die philosophische Definition von Bullshit sind Äußerungen, die mit Gleichgültigkeit gegenüber der Wahrheit erzeugt werden. Die KI hat keine Vorstellung davon, ob eine Aussage wahr oder falsch ist. Menschen können verstehen, was wahr ist, aber sich entscheiden, sich nicht darum zu kümmern, und dann reden sie „Bullshit“. KI-Systeme können nur „Bullshit“ produzieren, auch wenn es oft nicht so klingt.“ (Stallmann 2026)
Technische Input-Output-Systeme. Chat Bots sind für Sprache das, was Taschenrechner beim Rechnen sind: elektronische Input-Output-Systeme ohne Verständnis für Mathematik oder gestellte Aufgaben. Sinn und Bedeutung kann den Eingaben wie den Ergebnissen allerdings nur der Mensch zuweisen. Denn Datenverarbeitungs- bzw. Rechenmaschinen oder Software können weder „denken“ noch haben sie ein „Bewusstsein“ (und werden nie eines haben), „wissen“ nicht, dass sie existieren und funktionieren, haben keine Absichten. Maschinen funktionieren wie beabsichtigt oder müssen repariert werden. Immerhin kann man sie abschalten, reparieren und wieder einschalten, was mit Organismen nicht funktioniert (ausgenommen Operationen der Intensivmedizin, wenn Maschinen zeitweise Körperfunktionen übernehmen).
Anthropomorphismus vs. Animismus. Eine Frage, die über technische Aspekte hinausweist, ist, warum es immer wieder Versuche der „Vermenschlichung von Maschinen“ gibt. Dieses Wechselspiel aus Anthropomorphismus (die Vermenschlichung und Zuschreibung menschlicher Eigenschaften an Maschinen) und Animismus (die Zuschreibung kognitiver und mentaler Eigenschaften an Maschinen) als historischer Konstante (und Irrtum!) beschreibt u.a. der Deutsche Ethikrat in seiner Stellungnahme «Mensch und Maschine – Herausforderungen durch Künstliche Intelligenz» von 2023 (Ethikrat 2023, S. 107f.; dazu Lankau, 2024).
Ausgangsprämisse und AGI: Der Mensch ist keine programmier-, keine steuerbare Maschine. Umgekehrt ist (und wird) eine Maschine nie ein Mensch oder auch nur menschenähnlich. Wer diesen nicht auflösbaren Gegensatz von Organismen und Maschinen wissentlich immer wieder in Frage stellt, muss sich fragen lassen, was damit bezweckt wird. Gleiches gilt für die Diskussion über Artificial General Intelligence (AGI) (dt. „Superintelligenz“), die angeblich klüger ist als der Mensch und diesen wahlweise als Sklaven hält oder vernichtet. Die Aufhebung bzw. Auflösung der Unterscheidung von Mensch und Maschine bzw. die Überhöhung von Computern als „fehlerfreie Superintelligenz“ wie HAL im Film „2001: Odyssee im Weltraum“ von Stanley Kubrick (1985) ist das Spiel- und Gestaltungsfeld für Science-fiction und Fantasie. Dazu gehören Filme, Computerspiele oder empfehlenswerte Romane wie z.B. „Maschinen wie ich“ von Ian McEwan. Im realen Leben gilt stattdessen:
„Man muss als erstes daran erinnern, dass erstens der Mensch keine Maschine ist, und zweitens, daß es bestimmte Aufgaben gibt, zu deren Lösung kein Computer eingesetzt werden sollte, ungeachtet der Frage, ob sie zu deren Lösung eingesetzt werden können« (Weizenbaum, 1976, S. 10).
[Zur generellen Diskussion über die wiederkehrende Maschinenmetapher des Menschen und die damit verbundenen Widersprüche siehe Schäffer/Lieber 2025 „Maschinen wie wir? Wie Künstliche Intelligenz Bildung, Wirtschaft und Gesellschaft herausfordert“; Lankau, 2025a; Lankau 2025b und Weizenbaum 1976].
Kein Nutzen. Eine weiter Konstante dieses dritten KI-Hypes sind die nicht erfüllbaren Versprechen und Erwartungen. Eine MIT-Studie zeigt, dass 95% der KI-Projekte zu genAI keinen Nutzen bringen (MIT NANDA, 2025). Nicht einmal arbeitsergonomisch sind genAI-Bots hilfreich. Studien belegen, dass die Zeitersparnis durch KI-Tools durch KI durch Fehlersuche und notwendige Korrekturen ersetzt wird, ein Problem, dass sich durch KI-Bot-Fabriken ständig verschärft. Sinnvoller, zeit- und kostengünstiger wäre, gleich mit validen (Daten)Quellen, d.h. Fachdatenbanken und soliden Quellen und dabei logisch strukturiert zu arbeiten.
2 Akteure und deren Partikularinteressen
Machtpolitik und Kommerz. Der grundsätzliche Problem von genAI: Bei ChatBots wie ChatGPT von Open AI, Gemini von Google oder Grok von Elon Musk u.a. bestimmen rein kommerzielle und zunehmend machtpolitische Interessen weniger Tech-Monopole die Entwicklung (Stichwort Project 2025). Tech-Monopolisten wollen mit Hilfe ihrer marktbeherrschenden Apps und unter Ausnutzung der Nutzerdaten künftig ganze Gesellschaften und Sozialsysteme steuern, demokratisch gewählte Repräsentanten durch KI-Systeme ersetzen und autokratische Technokratie etablieren.
Libertärer Elitismus. Der Investor Peter Thiel, ehemals Partner von Elon Musk (Paypal, Tesla, xAI) und Berater von Donald Trump, schrieb bereits 2009, dass er nicht daran glaube, dass Freiheit und Demokratie miteinander vereinbar seien, wobei „Freiheit“ auf unternehmerische Freiheit reduziert wird. (Thiel, 2009) Demokratien seien Gesellschaftsordnungen, die Macht institutionell begrenze. Regeln würden unterschiedslos für alle gelten – laut Thiel eine „empörende Einschränkung“ für Eliten. Daher sei die „Sezession der Reichen“ als „geistig-moralische Exterritorialität“ (Abspaltung) der Erfolgreichen notwendig, um sie von ihren gesellschaftlichen Verpflichtungen und Verantwortungen zu befreien, um nicht mehr dem Gemeinwohl verpflichtet zu sein wie „normale Bürger“, so der Soziologe Z. Bauman. (zit. n. Charim, 2024) Der libertäre Vordenker Curtis Yarvin benutzt dafür den Begriff der „Tech-Monarchen“, Applebaum nennt sie Autokraten, Mühlhaupt spricht von neuem Faschismus).
Project 2025. Die Herrschaft der Tech-Monopole und die inhumane und undemokratische Steuerung ehemals freier Gesellschaften durch KI-Bots auf Basis der Nutzerdaten und entsprechender Algorithmen ist das erklärte Ziel von „Project 2025“ (auch für Bildungseinrichtungen s.u.). Menschen werden dann, so Marc Andreessen, jederzeit und für alle Aufgaben „einen KI-Assistenten/Coach/Mentor/Trainer/Berater/Therapeuten haben, der unendlich geduldig, unendlich mitfühlend, unendlich sachkundig und unendlich hilfreich“ ist und der “bei allen Gelegenheiten und Herausforderungen des Lebens dabei sein und die Ergebnisse eines jeden Menschen maximieren“ werde (Andreessen, 2023).
Dystopie der Selbstentmündigung. Durch die Allgegenwart der Bots und deren „Empfehlungen“ (Nudging) oder konkreten Anweisungen ist das Wechselspiel aus Maschinenherrschaft und Selbstentmündigung perfekt. Es ist eine Dystopie, aber der Aufbau der aktuellen Infrastruktur über Cloud Computing und zentralen Rechenzentren, KI-Bots und allgegenwärtigen digitalen Endgeräten samt Identifikation der User über Nutzeraccounts, IP-Adresse, Bürger- und Schüler-ID, schafft die technischen Voraussetzungen für totalitäre Systeme.
KI-Rechenzentren in der Cloud. Die technische Infrastruktur der Steuerung ganzer Gesellschaften wird über riesige Rechenzentren für KI-Anwendungen, Cloud Computing, Netzwerke, digitale Endgeräte (Smartphones, Tablets) und allgegenwärtige Kameras und Sensoren (ubiquitous computing) als Allgegenwart rechnergestützter Informationsverarbeitung) realisiert. Das gesamte Leben der User wird verdatet. Das Ziel: Smart Home. Smart Work, Smart City, wobei „smart“ nicht „klug“ bedeutet, sondern das alles, was passiert, aufgezeichnet und automatisiert ausgewertet wird.
Sozial nur genannte Dienste. Die Tech-Monopolisten adressieren mit ihren sozial nur genannten Apps dabei gezielt Kinder und Jugendlichem, um möglichst früh Einfluss auf Minderjährige zu nehmen. Mit persuasiven (verhaltensändernden) Designtechniken, suchtfördernden Angeboten und immer neuen Psychotricks fördern Sie vorsätzlich und wissentlich Abhängigkeit, Sucht und soziale Isolation am Display.
Brain Rot durch AI Slop. Das Ziel der Anbieter ist, Menschen möglichst lange am Bildschirm zu halten. Eltern, Gesetzgeber und Bildungseinrichtungen müssen der damit einhergehenden medialen Verwahrlosung (endlose TikTok-Sitzungen, Brain Rot (Gehirnfäule durch AI Slop) durch z.B. das Verbot bestimmter, kommerzieller Dienste für Minderjährige unterbinden, wie es weltweit mittlerweile geschieht.
KI-Bots und Avatare in Schulen. Parallel drängen Tech-Monopole gezielt in Bildungseinrichtungen, um möglichst früh Einfluss auf Unterrichtsmethoden und Inhalte zu bekommen. Wenige Anbieter (Apple, Google) bestimmen über die Infrastruktur (Server, Cloud Computing), die eingesetzte Hardware (Netbooks, Smartphones, Tablets), Software (KI-Systeme mit Datenanbindung an die Cloud) und das „Prompten“ als Methode im Unterricht. Durch die hinterlegten Datenbanken bestimmen sie zudem über Inhalte und Ergebnisse des Unterrichts. Es ist die perfekte Kolonialisierung als perfektes und in sich geschlossenes System.
3 Large Language Models (LLM) als Irrweg
Large Language Models (LLM) als Irrweg. Dabei sind Large Language Models (LLM) bereits vom Ansatz her ein Irrweg, weil quantifiziert werden soll, was sich nicht quantifiizeren lässt: die Bedeutungsebene (Semantik) von Texten, Bildern und Videos. Mustererkennung, Statistik und Wahrscheinlichkeitsrechnung funktionieren nur auf der syntaktischen Ebene, dem formal korrekten Aufbau von Sätzen. Da alle Sprachen (auch Programmiersprachen) und Texte nach logischen Kriterien, wiederkehrenden Elementen, mit Phrasen und nach Mustern aufgebaut sind, kann diese syntaktische und formallogische Struktur algorithmisch „nachgebaut“ (KI-generiert) werden, aber es bleiben leere Worthülsen: Bullshit von Bullshit-Generatoren (Stallmann).
Die Datenbasis der generativen KI bzw. der Large Language Models (LLM) der ChatBots sind riesige Mengen an Texten, die aus dem Netz kopiert und in kleinste Einheiten (Token) zerlegt werden, um anschließend mit Methoden der Mustererkennung, Statistik und Wahrscheinlichkeit wieder zu Texten (bei anderen Bots zu Bildern oder Videos) zusammengesetzt (generiert) zu werden. Nur: Wer ungefiltert „Müll“ (Weizenbaum, zit. n. Merschmann, 2000) sammelt, kann auch statistisch nur Müll generieren.
Dazu kommt die fehlende Rechtsgrundlage der verwendeten Daten (Stichwort: Urheber- und Lizenzrechtsverletzung). Entsprechende Prozesse sind anhängig, werden aber von den Anwälten der US-Techfirmen systematisch verschleppt, wie man es von Prozessen gegen Apple, Alphabet/Google, Meta/Facebook et.al. kennt.
Ständig modifizierte Datenbasis. Dazu kommt, dass KI-generierte Texte selbst wieder in die Datenbasis einfließen. Selbst auf den identischen Prompt werden zu einem ähnlichen Prompt nur ähnliche Texte formuliert, weil sich die Datenbasis verändert hat. Das nutzen Propagandisten und Populisten, die in Bot-Fabriken in kürzester Zeit automatisiert Unmengen von Texten generieren, die wieder in die Datenbanken eingelesen werden, um die Systeme mit AI Slop (KI-generierter Nonsens von niedriger inhaltlicher Qualität) und Propaganda zu fluten.
Flood the zone with shit. Das ist die Methode Steve Bannon: „flood the zone with shit“. Datenbasis und Ergebnisse werden mit Nonsens-Texten vorsätzlich korrumpiert und damit entwertet. Das Problem haben sowohl Buch- wie Wissenschaftsverlage, die die Vielzahl der eingereichten Manuskripte nur noch mit KI auswerten können, wodurch diese Texte selbst in die Datenbank eingepflegt werden und die Datenbasis korrumpieren. Für die Wissenschaft haben Kolleg/innen aus Schweden die „Stockholm Deklaration“ verfasst (Stockholm Deklaration (engl.) Hilfeschrei der Wissenschaft gegen systematischen Betrug durch KI) und fordern, die Hoheit über das wissenschaftliche Publikationswesen aus den Händen profitorienterter Verlage zurück in die Hoheit der Universitäten und wissenschaftlichen Institutionen zu holen. Auch für das Unterrichten muss man sich auf valides Unterrichtsmaterial besinnen statt ungeprüftes Material aus dem Netz zu laden und im Unterricht einzusetzen.
Deep Seek als Gegenkonzept. Zugleich zeigen Bots wie das chinesische DeepSeek, dass man mit zehn Prozent der Daten und einem Prozent der Kosten zu gleichwertigen Ergebnissen wie Open AI kommen kann.Die permanente Skalierung der Rechenzentren ist daher nicht nur umweltpolitisch eine Katastrophe, sondern auch technisch und selbst für die Investoren finanziell ein Irrweg. Zwar sind chinesische Tools keine Alternative, weil sie genau so intransparent sind wie die US-Apps, aber Downloadoption für die lokale Installation, Open Source und nur zehn Prozent Energieverbrauch sind ein Argument, solche technischen Konzepte weiter zu entwickeln statt der immer nur expandierenden, intransparenten und unverantwortlich mit Ressourcen aasenden LLMs in der Cloud.
(Eine Greenpeace-Studie zeigt die Umweltauswirkungen von KI bzw. den Rechenzentren (Gröger, et.al.).
Black Boxes. KI-Tools sind generell Black Boxes. Die Datenbasis und Genese der generierten Texte, Bilder und Videos sind intransparent, weil sie mit Milliarden bzw. Billionen Token arbeiten. Das kann niemand mehr nachvollziehen oder kontrollieren. Was mit „machine learning“ bezeichnet wird, bedeutet zudem, dass sich die Systeme automatisiert weiter „entwickeln“ (selbst weitere Parameter generieren, Muster definieren, Kriterien fixieren). Kontrollverlust ist bei LLMs systemimmanent und Vorsatz. Nicht einmal die Entwickler wissen, nach welchen Prämissen und Kriterien die KI-Systeme ihre Parameter verändern und warum sie genau diese Texte (Bilder, Videos) generieren.
Keinerlei Kreativität. Aus der Funktionsweise der LLMs – das Generieren von wahrscheinlichen Folgen von Token, Silben und Worten ergibt sich logisch, dass nur Varianten von Bekanntem generiert werden kann. Neues kann nicht entstehen. Das gilt übrigens generell für das, was um den KI-Hype herum phantasiert wird: Autonomes Fahren, Hperloops (Flaschenpost für Menschen), Flugtaxen, die Besiedlung des Mondes und des Weltalls etc. sind Phantasien der 1950er Jahre als Folge und Reaktion auf den Sputnikschock. (Die UDSSR hatte am 4. Oktober 1957 den ersten künstlichen Erdsatelliten, Sputnik 1, ins All geschossen.) Das All war im Kalten Krieg ein potentielles Schlachtfeld, die Sowjetunion und die USA Wettrennen lieferten sich ein Wettrennen zum Mond. Als Folge investierten die USA Milliarden Dollar in Raumfahrtprogramme, vernetzte Kommunikation – und Bildung. Heute werden einige der damals nur als Illustration phantasierten Projekte gebaut (siehe die Arbeiten von Kurt Röschl, Günter Radtke, Klaus Burgle u.a.; https://www.klausbuergle.de/ u.a.) (Was davon sinnvoll ist, steht auf einem anderen Blatt.).
Extremes Missverhältnis von Kosten/Nutzen. Betrachtet man, für was genAI hauptsächliche genutzt (und missbraucht) wird (Deep Fakes, Pornografie, Rassismus, Bot-Fabriken um das Internet mit AI-Slop zu fluten etc.pp.) muss man ein extremes Missverhältnis zwischen sinnvollen Anwendungen und hohen sozialen Kosten konstatieren Seit Ende 2024 ist bereits mehr als die Hälfte der Internet-Inhalte KI-generiert, 2026 wird nur noch darüber gestritten wurde, ob es „nur“ über 80 oder bereits mehr 90 Prozent der Posts, Tweets und Reels sind, die als „AI Slop“ gelten müssen.
4 IT und KI-Tools in der Schule
Ewiges Déjà-vu: IT/KI in Schulen. Die digitale Transformation von Schule und Unterricht wird seit mehr als 40 Jahren von Wirtschaftsverbänden, deren Lobbyverbänden und (formal gemeinnützigen) Stiftungen forciert. Es sind keine pädagogischen, sondern machtpolitische Konzepte. Das Ziel ist die Einflussnahme auf und die Steuerung von Bildungseinrichtung nach neoliberalen und bei den US-Tech-Monopolen zunehmend libertären (d.h. autokratischen und demokratiefeindlichen) Prämissen.
Avatare und Bots als Lehrkraft. Die digitale Transformation von Schule und Unterricht und das Delegieren des Unterrichtens an Lernmaschinen, Avatare und Bots hat das Ziel, Kinder und Jugendliche an autonom agierende technische Systeme zu gewöhnen, die ihnen sagen, was sie tun sollen. Asimov hat es 1956 mit seiner Schulmaschine beschrieben, Dräger/Müller-Eiselt als „digitale Bildungsrevolution“ und Schule der Zukunft der automatisierten Beschulung phantasiert. Facebook/Meta nennt es „Summit Learning“ und und ist damit ebenso gescheitert wie die Stve Jobs-Schulen.
Denn so werden vielleicht digitalhörige Untertanen erzogen, aber keine mündigen, selbstverantwortlichen Bürgerinnen und Bürger. Immerhin, die Logik stimmt: Wer Gesellschaften steuern will, beginnt mit der Einflussnahme am besten bei digitalaffinen und experimentierfreudigen Kindern und gewöhnt sie bereits in Kita und Grundschule daran, Anweisungen zu befolgen, die per Avatar und Bildschirm kommen. Schule ohne Lehrer (SoL) und deren Ersatz durch IT/KI-Systeme ist für die Anbieter dieser Systeme (und nur für diese) finanziell und (macht)politisch attraktiv.
ForumBildungDigitalisierung (FBD). In Deutschland wird die „digitale Transformation vom „ForumBildungDigitalisierung“ (FBD) koordiniert, das bereits im Namen seinen Zweck verdeutlicht. Im Newsletter sind Themen z.B.: „Zusammenarbeit von Politik, Verwaltung und Bildungswirtschaft: Wir starten das EdTech Policy Lab. Die digitale Transformation des Schulsystems erfordert eine enge Zusammenarbeit von Politik, Verwaltung und Bildungswirtschaft.“ (Newsletter ForumBildungDigitalisierung, 13.10.2025) Interessant ist, dass weder Schülerinnen noch Schüler, Lehrkräfte, Eltern oder Schulverwaltungen angesprochen werden.
Der jetzige Leiter des FBD, Ralph Müller-Eiselt, kommt von Bertelsmann und setzt den Auftrag der Transformation jetzt beim Forum fort. Aus dem Hause Bertelsmann kommt auch ein Papier, das „Empfehlungen für eine veränderte Lern- und Prüfungskultur“ (Juni 2025) gibt. Die Hauptempfehlung: Datengestütztes Lernen und Prüfen, basierend auf Künstlicher Intelligenz (KI) als Kern des Digitalpaktes 2.0.“ Geschrieben wurde das Papier von elf Personen aus Landesinstituten, aus der Wissenschaft und „mit der Unterstützung der Bertelsmann-Stiftung“. (Hensinger 2026).
Zentralistische Strukturen. Der logische Schritt aus Sicht der IT/KI ist die Forderung nach einem nationalen Bildungsrat, der bundesweit Bildungsstandards festlegt (Müller, 2026) und Avatare unterrichten und prüfen lässt, wie es Andreessen mit seiner „Rettung der Welt durch AI“ formuliert. IT und KI sind nun mal besonders effizient, wenn die Infrastruktur standardisiert , die Datenbasis maximiert und personalisiert wird, Stichwort Schüler-ID. Zentralistische Strukturen gab es in Deutschland im Kaiserreich, dem Dritten Reich und zuletzt in der DDR, mit Margret Honecker als Ministerin für Volksbildung. (Edelstein, Veith 2017; Lehberger als Bsp. für Hamburg, o.J.). Aber Top-Down-Konzepte sind offensichtlich wieder en vogue, zumal sie ideal mit der Logik von Digital- als Steuerungssystemen korrespondieren.
Bildungs- und Schulcloud. Die technische Infrastruktur dafür ist die bundesweite Schulcloud samt Schüler-ID, die zur Bildundgs-ID ausgebaut wird, alle Stationen einer Bildungsbiographie verdatet und (perspektivisch) Arbeitgebern und z.B. Versicherungen zur Verfügung steht. (Warum sollte man vorhandene Daten nicht nutzen?) Über die Bildungs-ID ist das Konzept der HPI-Schulcloud aus dem Digitalpakt Schule I wieder auferstanden, wenn auch jetzt als „digital only“ des Koalitionsvertrags zementiert. (Bei der Ampelkoalition hieß das noch „digital first“, mit nichtdigitalen Optionen statt Digitalzwang).
Leere Köpfe (Kant). Das Problem: Zum Denken lernen als Ziel von Lehre und Unterricht brauchen wir ein menschliches Gegenüber, den direkten Dialog. So jedenfalls formuliert es Immanuel Kant im Text „Was heißt: sich im Denken orientieren?“ von 1786. Sonst bekämen wir nur leere Köpfe, die zwar das Repetieren (heute: Bulimielernen) trainieren, aber nicht selbstständig denken und Fragen stellen könnten.
Asoziale Lernumgebung. Fehlt der soziale Aspekt, führt das gerade bei jungen Menschen zu psychischen Problemen (Vereinsamung, Depression bis hin zu suizidalem Verhalten). Digital inszenierte „Interaktionen“ mit virtuellen Persona (Avatare, Bots) können reale menschliche Begegnungen nicht ersetzen, wenngleich die Anbieter solcher „Freundschaftsbots“ genau das versprechen – und junge Menschen in die soziale Isolation (ver)führen.
Mehr Schaden als Nutzen. Dass KI-Tools in Bildungseinrichtungen generell mehr schaden als nutzen, ergibt sich aus der Logik von KI als Automatisierungstechnik und der De-Humanisierung des Lernens mit technischen Systemen statt dem Lernen und Diskutieren in menschlicher Gemeinschaft. Selbst denken und Verstehen als diskursiven Prozess kann man weder automatisieren noch delegieren. Lernen ist kein mechanischer Prozess (nach dem behavioristischen IOR – Input-Reaction-Output-Modell, das „programmierte Lernen“ der Behavioristen ist in den 1950er Jahren gescheitert wie heutiges Roboterteaching), sondern ein sowohl individueller wie sozialer Prozess in Gemeinschaft.
Smartphone als Droge. Der Philosoph Peter Sloterdijk hält laut dpa-Meldung daher ein generelles Handyverbot für Kinder und Jugendliche an Schulen für sinnvoll. Handys müssten unter das Drogenverbot fallen, zumal sich viele Eltern selbst verhielten“ wie Drogendealer: Sie drücken ihren Kindern dieses Ding in die Hand. Wenn das Kind dann Smartphone-süchtig geworden ist, sei das für Eltern eine große Entlastung, weil sie weniger Zeit mit ihm verbringen müssten – das Kind habe ja nun einen digitalen Spielgefährten.“Wer eine erzieherische und nicht nur ausbildende Schule wolle, muss den Erziehungsauftrag der Schule ernst nehmen und Ernst machen mit dem Recht Minderjährigen vor der Kolonisierung durch anonyme Gewalten in Gestalt der neuen Medien. (Sloterdijk, zit. n. dpa 6/2025)
GenAI in Schulen sind technische Alcopops. Zu Beginn des Jahrtausends lancierte die Getränkeindustrie eine neue Produktgruppe: kleine, bunte Getränkeflaschen mit coolen Produktnamen wie Smirnoff Ice, Bacardi Breeze oder Puschkin Vibe. Der Anlass waren sinkende Umsätze bei Spirituosen, das Ziel das Erschließen neuer Absatzmärkte durch Angebote für die junge Zielgruppe. Das Produkt: Alcopops, Limonade mit Schnaps, den man durch den Zucker und Aromastoffe nicht schmeckt. Das Ergebnis: Alkoholsucht schon bei Minderjährigen , eine europaweite Kampagne gegen Alcopops und hohe Steuern für diese Getränke. Vergleichbar agieren die IT-Unternehmen mit KI-Tools in Schulen. Schülerinnen und Schüler kommen „umsonst und bequem“, ohne eigene Leistung zu vermeintlichen Lösungen und Ergebnissen, verlernen das eigenständige Denken und Argumentieren und werden abhängig von digitalen Applikationen.
Zerstörung der Motivation. „KI ruiniert das Motivationsgefüge des herkömmlichen Unterrichts“ schrieb Gottfried Böhme schon 2023 in der FAZ, denn warum sollte man sich anstrengen, wenn ein Bot die Arbeit macht? Das bestätigen immer mehr Studien wie z.B. die von Michael Gerlich (2025) oder der Cornell-University (2025):
«Künstliche Intelligenz bricht der Schule, wie sie heute existiert, das Rückgrat. Es hat in der Geschichte der Bildungseinrichtungen noch nie eine Erfindung gegeben, die so infam die gesamte Motivationsstruktur des Lernsystems infrage gestellt hat wie diese Atombomben-KI – um mich hier deutlich zu outen. Wir ziehen gerade eine Generation von Jugendlichen heran, die eine Zeitlang ihren Lehrern noch vorgaukeln kann, dass das, was ihnen ChatGPT oder ein anderes Programm geschenkt hat, ihre Leistung sei, und bald nicht mehr wissen, warum sich Lernen überhaupt noch lohnen soll.» (Böhme 2023, S. 9)
Grundsatzfragen und Alternativen. Diese Fehlentwicklungen (Kommerz und Entmündigung statt Emanzipation durch Technik in Bildungseinrichtungen) müssen unterbrochen werden. Europa bzw. Deutschland dürfen (nicht nur in Schulen!) ausschließlich quelloffene und freie Software einsetzen, bei denen sowohl die Funktionsweise der Software wie die Datenbasis und das Datenhandling transparent sind und bei denen die vollständige Hoheit über Algorithmen, Datenbasis und (Nutzer)Daten bei den Anwendern liegt. Vollständige digitale Souveränität ist die zwingende Voraussetzung VOR allen didaktischen und pädagogischen Fragen zum Einsatz von IT und KI in Schulen. (Lankau 2023, Teil I + II).
Hoheit über die KI-Systeme. Kybernetische, datenbasierte und automatisiert Steuerung von Sozialsystemen ist – sofern Algorithmen und Datenbasis, Bewertungskriterien und Entscheidungsbäume – nicht vollständig transparent und von den Anwendern nachvollzieh- und änderbar sind, generell-inhuman und antidemokratisch. Nur wer die volle Hoheit über die KI-Systeme hat, kann überhaupt entscheiden, ob er oder sie diese Systeme nutzt – und für was sei eingesetzt werden dürfen.
Föderalismus als demokratische Kraft. Intelligent und demokratieförderlich ist es, den Föderalismus der Bundesländer in Bildungsfragen zu fördern und nur die allgemeinen Bildungsziele zentral zu fixieren, die konkrete pädagogische Gestaltungshoheit aber der jeweiligen Bildungseinrichtung zu überlassen. Soziale Einrichtungen wie Kitas, (Hoch)Schulen und Weiterbildungseinrichtungen funktionieren sozial nur lokal mit den dort agierenden Menschen und sind nicht zentral steuerbar, pädagogisches und zwischenmenschliches Verhalten nicht standardisierbar.
Pädagogische Autonomie. Zur technischen, digitalen Souveränität muss daher zwingend die soziale und pädagogische Autonomie der jeweiligen Einrichtung kommen, die vor Ort und idealiter im Diskurs aller Beteiligten die dort gültigen Regeln, Ge- und Verbote festlegt. Denn die Unterschiede zwischen Schulen einer Stadt sind oft größer als die statistisch gemittelten Gemeinsamkeiten. Das ist gelebte und praktizierte Demokratie und pädagogische Praxis vermittelt jungen Menschen, dass es möglich und sinnvoll ist, sich lokal und konkret zu engagieren.
Totengräbern der Bildung und Demokratie. Verantwortungsvolle Bildungspolitik darf daher weder Wirtschaftsinteressen noch technikeuphorischen Phantastereien folgen, sondern muss der nachfolgenden Generation und deren Bildungs- und Entwicklungsmöglichkeiten verpflichtet sein. Statt sich im Vertrauen auf „künstliche Intelligenz“ selbst zu entmündigen muss sie den entgegengesetzten Weg gehen: das Selber-Denken lehren und trainieren. Das gilt für Lehrkräfte in der Schulpraxis wie für Schulträger und politische Entscheider. Folgt die Bildungspolitik hingegen den Vorgaben der IT-Wirtschaft und den Vorstellungen der Tech-Milliardäre, gehört sie zu den Totengräbern Bildungseinrichtungen und der Demokratie, wie es das „Project 2025“ vorsieht und z.B. David A. Graham, Rainer Mühlhoff oder Douglas Rushkoff explizit beschreiben.
Literatur und Quellen
Algorithmwatch (2025) Die Umweltkosten der KI-Lieferkette. Die KI-Lieferkette vom Rohstoff-Abbau bis zur Entsorgung (26.1.2026)
Andreessen, Marc (2023) Why AI will safe the world (6.2.2026)
Applebaum, Anne (2024) Die Achse der Autokraten. Korruption, Kontrolle, Propaganda: Wie Diktatoren sich gegenseitig an der Macht halten (Penguin, 2024).
Asimov, Isaac (1956) Die Schule (engl. The fun they had) (4.2.2026)
Böhme, Gottfried (2023) KI im Unterricht: ChatGPT bricht der Schule das Rückgrat, in: FAZ vom 14.6.2023, S. 9
Brühl, Jannis (2023a). Ein Jahr Chat-GPT: Keine Hoffnung auf Luxuskommunismis, in: SZ vom 30.11.2023, S. 18.
Brühl, Jannis (2023b) Wie ein Münchner KI-Professor gegen den Größenwahn der Branche kämpft, in_SZ vom 13.12.2ß23, S. 14.
Charim, Isolde (2024)Tech-Investor Peter Thiel: Der Auszug der Milliardäre aus der Verantwortung, in: TAZ vom22.10.2024 (31.1.2026))
Cornell-University (2025) Nataliya Kosmyna, Eugene Hauptmann, Ye Tong Yuan, Jessica Situ, Xian-Hao Liao, Ashly Vivian Beresnitzky, Iris Braunstein, Pattie Maes (2025) Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task (5.2.2026)
Dräger, Jörg; Müller-Eiselt, Ralph (2025) Die digitale Bildungsrevolution: Der radikale Wandel des Lernens und wie wir ihn gestalten können,
Edelstein, Benjamin; Veith, Hermann (2027) Schulgeschichte bis 1945: Von Preußen bis zum Dritten Reich. (1.1.2027) (30.1.2026)
Gerlich, M. (2025). AI Tools in Society: Impacts on Cognitive Offloading and the Future of Critical Thinking. Societies, 15(1), 6. und https://die-pädagogische-wende.de/kritisches-denken-nimmt-durch-den-einsatz-von-ki-ab/ (5.2.2026)
Graham, David A. (2025) Der Masterplan der Trumpregierung. Project 29025: Wie ein radikales Netzwerk in Amerika die Macht übernimmt
Gröger, Jens; Behrens, Felix; Gailhofer, Peter; Hilbert, Inga (2025): Umweltauswirkungen Künstlicher Intelligenz, Öko Institut Berlin, Hrsg. Greenpeace Deutschland. (Studie in Englisch, Zusammenfassung auch auf Deutsch.) https://www.greenpeace.de/publikationen/20250514-greenpeace-studie-umweltauswirkungen-ki.pdf (29.1.2026)
Grunwald, Armin (2019) KI: Gretchenfrage 4.0, in SZ vom 28.12.2019, S. 11.
Hansch, Dieter (2023) Der ehrlichere Name wäre „Simulierte Intelligenz“, in: FAZ vom 1.3.23, S. N2, Frankfurter Allgemeine Zeitung, 01.03.2023, Nr. 51, S. N2
Hauck, Mirjam; Martin-Jung, Helmut (2025) Freie-Software-Pionier Richard Stallman im Interview: „KI-Sprachmodelle können nur ,Bullshit‘ produzieren“, in: SZ, vom 22.1.2026 (22.1.2026)/
Hensinger, Peter (2026) Digitale Bildung: Eine außergewöhnliche Allianz – Bertelsmann und 11 Ministeriale (5.2.2026)
Herrmann, Sebastian (2026) Warum Forscher aus denselben Daten entgegengesetzte Schlüsse ziehen, in: SZ vom 13.01. 2026 (22.1.2026)
IT-Matchmaker (2025) US-Studie: 95 Prozent aller KI-Projekte sind Flops (22.1.2026)
Kant, Immanuel (1786) Was heißt: sich im Denken orientieren?, in: Kant: Werke in zwölf Bänden. Band 5, Frankfurt am Main 1977. Erstdruck in: Berlinische Monatsschrift, Oktober 1786, S. 304-330. Permalink: http://www.zeno.org/nid/20009189815 (3.2.2026)
Kuhl, Christopher (2025) Die Realität hinter der KI-Revolution: Warum 95% der Unternehmen scheitern – und wie die 5% es richtig machen. Eine MIT-Studie deckt das systemische Problem auf – mit konkreten Lösungswegen für deutsche Unternehmen; (22.1.2026)
Lankau, Ralf (2025a) Wie KI und Bots die Welt retten (sollen) – und wasder Haken an der Sache ist, in: Schäffer, Lieber 2025)
Lankau, Ralf (2025b) Die pädagogische Wende – Über die notwendige Besinnung auf das Erziehen und Unterrichten, in: Pädagogik zwischen Technisierung und Resonanz Vortragsreihe 2024/2025 AG „Gegen die Ökonomisierung der Bildung“ in der GEW Hessen. 2025; https://die-pädagogische-wende.de/paedagogik-zwischen-technisierung-und-resonanz/ (23.1.2026)
Lankau, Ralf (2025c) Zwangsdigitalisierung per Koalitionsvertrag? (I) oder: Von „digital first“ über „digital only“ zur technizistischen Demokratur; (23.1.2026)
Lankau, Ralf (2024) Humane Intelligenz und Autonomie – statt Steuerung durch IT und KI. in: Fromm Forum (Deutsche Ausgabe – ISSN 1437-0956), 29 / 2025, Tübingen (Selbstverlag), pp. 126-143; (29.1.2026)
Lankau, Ralf (2023a) KI im Unterricht: Wenn der Chatbot das Denken übernimmt – Über den Preis, den Schulen für den bequemen Weg bezahlen.
Teil I: Oder: Warum automatisierte Datenverarbeitung keine Intelligenz ist, in Schulen weiter selbst gelernt werden muss – und Anstrengung lohnt. (Teil I) Erschienen in: Katholische Bildung, Heft 5/6 Mai/Juni 2024, S. 127-131;
Teil II: FAQ: KI und Unterricht – Fragen und Antworten (29.1.2026)
Lankau, Ralf (2023b) Und wieder ruft der (Ro)Bot, grüßt das Murmeltier. Tech-Experten und Wissenschaftler fordern ein Moratorium für KI (29.1.2026)
Lehberger, Reiner (o.J.) Schulwesen im Kaiserreich (30.1.2026)
Leusch, Peter (2011) Das Medium ist die Botschaft, DLF; (30.1.2026)
Merschmann, Helmut (2000) Interview mit Jospeh Weizenbaum, Joseph „Das Internet ist ein riesiger Misthaufen“, in: Breliner Zeitung vom 13. Juni 2000; (28.12.2023)
MIT NANDA (2025) The GenAI Divide STATE OF AI IN BUSINESS 2025; (30.1.2026)
Mühlhoff, Rainer (2025) Künstliche Intelligenz und der neue Faschismus. [Reihe: Was bedeutet das alles?], Reclam – KI und AGI (Artificial General Intelligence) – Wie Tech-Milliardäre Macht und Zukunft formen
OECD (2026) OECD Digital Education Outlook 2026. Exploring Effective Uses of Generative AI in Education; Download PDF: https://www.oecd.org/content/dam/oecd/en/publications/reports/2026/01/oecd-digital-education-outlook-2026_940e0dd8/062a7394-en.pdf
Rehbein, Malte (2018) Die „Asilomar AI Principles“ zu Künstlicher Intelligenz, in: Forum InformatikerInnen für Frieden und gesellschaftliche Verantwortung e.V., Heft 1/2018, S. 24-26; (31.3.2023).
Rushkoff, Douglas (2025) Survival of the Richest. Warum wir vor den Tech-Milliardären noch nicht einmal auf dem Mars sicher sind
Stallmann, Richard (2026) Freie-Software-Pionier Richard Stallman: „KI-Sprachmodelle können nur ,Bullshit‘ produzieren“, in: SZ vom 21.1.2026, S. 14;
Schäffer, B., Lieder, F.R. (eds) Maschinen wie wir? Wie Künstliche Intelligenz Bildung, Wirtschaft und Gesellschaft herausfordert. Springer Gabler, Wiesbaden
Seising, Rudolf (2021) Es denkt nicht!. Die vergessene Geschichte der KI (29.1.2026)
Spiegel-Archiv (2007) Schultest Prämien bei Pisa – Schüler bekamen 50 Dollar. Finanzieller Anreiz fürs Mitmachen: In den USA haben Schüler nach Informationen des SPIEGEL bis zu 50 Dollar erhalten, damit sie am Pisa-Test teilnahmen. Auch in Europa flossen Prämien – Wissenschaftler sind entsetzt.01.12.2007, 17.17 Uhr; (29.1.2026)
Thiel, Peter (2009) The Education of a Libertarian,13.4.2009 (1.1.2026)
Vereinigung Deutscher Wissenschaftler (VDW 2018) Stellungnahme zu den Asilomar-Prinzipien zu künstlicher Intelligenz. Studiengruppe Technikfolgenabschätzung der Digitalisierung (PDF); (30.3.2023)
Weindl, Christian (2025) Generative KI im Unternehmen: Nur 5 von 100 Projekten bringen messbare Erfolge. Trotz Milliardeninvestitionen bringt generative KI den meisten Unternehmen bislang nichts. Nur fünf Prozent erzielen laut MIT-Studie messbare Erfolge. Woran das liegt. (22.1.2026)
Weizenbaum, Joseph (1976) Die Macht der Computer und die Ohnmacht der Vernunft. Suhrkamp.
Welt (2026) Pädagoge fordert Aussetzen des Digitalpakts für die Schulen, in: Welt.de, 30.1.2026 (30.1.2026)