ChatGPT und vergleichbare Tools Künstlicher Intelligenz dringen in alle Bereiche der Gesellschaft vor – nicht zuletzt in die Schulen. Sie liefern Texte, Referate und Präsentationen, die der Mensch nicht besser hätte machen können. Und die Lehrkräfte rätseln, wen oder was sie wofür noch benoten sollen. Im Interview mit den NachDenkSeiten plädiert der Pädagoge, Medienwissenschaftler und Buchautor Ralf Lankau ob des Ansturms digitaler Technologien für eine Rückbesinnung auf das, was Lernen wirklich ausmacht: ein selbstbestimmtes und selbstverantwortetes Leben führen zu können. Mit ihm sprach Ralf Wurzbacher.
Dieser Beitrag ist auch als Audio-Podcast verfügbar.
Podcast: Play in new window | Download
Herr Lankau, viel ist derzeit die Rede davon, was der Chatbot ChatGPT des US-Unternehmens OpenAI und vergleichbare Anwendungen Künstlicher Intelligenz (KI) alles leisten können, also etwa Texte, Bilder und Präsentationen auf Zuruf zu generieren oder Sprachen zu übersetzen. Das hinterlässt mächtig Eindruck und wir erleben deshalb seit Monaten einen riesigen Hype um die neue Technologie. Ziemlich unter geht dabei, was diese Werkzeuge – abseits von „Kinderkrankheiten“ wie der Erfindung von Falschinformationen – nicht können oder noch nicht können. Wie ist da der Stand?
Man muss sich klar machen, was sich hinter dem Begriff der Künstlichen Intelligenz verbirgt. Es geht im Kern um nichts anderes als automatisierte Datenverarbeitung. Da unsere Rechnersysteme immer leistungsfähiger geworden sind und vernetzt arbeiten, sind die technischen Parameter wie Rechengeschwindigkeit, zugrundeliegende Datenbasis oder verarbeitete Parameter in der Tat beeindruckend. Aber das ist nur die Quantifizierung der technischen Leistung. Das ist wie bei einer Automobilausstellung, wo mit immer größeren Autos, höherer Motorleistung und Höchstgeschwindigkeit geprotzt wird. An der entscheidenden Frage nach einer umweltverträglichen Mobilität im 21. Jahrhundert geht das aber alles komplett vorbei.
Wie kommen da die Bots ins Spiel?
Die immer höhere Rechenleistung und die Auswertung von Milliarden Dateien aus dem Web ändern nichts an der elementaren Arbeitsweise, wie solche Systeme und mathematischen Sprachmodelle Texte generieren, nämlich rein statistisch, berechnet nach Wahrscheinlichkeit und anhand typischer Muster, ohne Wissen oder Reflexionsvermögen über das eigene Tun. Auch die schnellsten Bots bleiben „stochastische Papageien“, wie die Linguistin Emily Bender und Kolleginnen formulierten. Sie „plappern nach“, setzen Texte beziehungsweise Wortteile zusammen, ohne die Inhalte oder die Bedeutung von Worten und Sätzen oder die Funktion von Kommunikation zu kennen. Sie generieren mit Hilfe von statistischen Methoden Texte, die mit hoher Wahrscheinlichkeit grammatikalisch korrekt sind und sogar sinnvolle Aussagen enthalten können.
Zurück zum Vergleich mit einer Automesse. Wo liegt der große Haken bei der Nutzung von KI?
Die Frage ist weniger, was diese Systeme heute technisch leisten, sondern warum der Mensch so schnell und leichtgläubig mit Maschinen kommuniziert. Wir „reden“ ja mit unserem PC oder Auto oder anderen Maschinen, weil uns das Reden ein Bedürfnis zu sein scheint. Daher lassen wir uns auch von der Simulation von vermeintlicher Intelligenz durch Bots so leicht blenden.
Was bedeutet: Wir lassen uns durch eine dumme Maschine blenden. Aber nicht nur das: Nicht wenige sind bereit, sich ihr auszuliefern, sich ihr Leben durch alle möglichen technischen Tools „erleichtern“ zu lassen. Beweist der Mensch damit neben seiner Faulheit nicht auch seine Dummheit?
Wir sind als Menschen gerne bequem. Wenn jemand anderes für uns denkt und entscheidet, müssen wir das nicht selbst tun, schrieb schon Immanuel Kant. Anstelle des Lehrers, des Arztes oder Pfarrers ist es heute eben meine Smartwatch oder ein Avatar, der mich anstupst, damit ich mich bewege oder jemandem zum Geburtstag gratuliere oder rechtzeitig ins Bett gehe. Anders als bei Lehrer, Arzt oder Pfarrer habe ich zwar kein Gegenüber mehr, von dem ich weiß, was er will, und dem ich widersprechen kann. Dafür ist die Grenze zwischen Bequemlichkeit und freiwilliger Selbstentmündigung nicht definiert und meine digitale Kontrollinstanz immer präsent. Ob Anpassung an die Maschinenlogik Dummheit ist oder am Ende eher „smart“, weil man mit Minimalaufwand und ohne selbst etwas entscheiden zu müssen, zu Belohnung und Belobigung kommt? Digitalsysteme sind von Haus aus Kontrollsysteme und Anpassung minimiert den eigenen Aufwand. Die Frage ist vielleicht eher: Wie selbstbestimmt wollen wir leben?
Man hört immer mehr Stimmen, die sagen, in Gestalt von ChatGPT schicke sich die Künstliche Intelligenz an, den Menschen zu überholen oder „besser“ als der Mensch zu werden. Was fällt Ihnen dazu ein?
Wir wissen bis heute nicht, was das eigentlich ist, die menschliche Intelligenz. Wir behelfen uns mit dem Modell des Intelligenzquotienten, ergänzt um Konstrukte wie die emotionale oder soziale Intelligenz. Mit diesem verkürzten Verständnis kann man Maschinen bauen, die bestimmte logische Operationen schneller und ausdauernder ausführen als der Mensch. Ein Schachcomputer zum Beispiel rechnet ermüdungsfrei und, bei korrekter Programmierung, fehlerfrei. Dagegen kommt ein Mensch auf Dauer nicht an, eben weil wir keine Maschinen sind. Wir sollten daher überlegen, auf welche „Wettbewerbe“ mit Maschinen wir uns einlassen oder ob das überhaupt sinnvoll ist.
Interessanterweise hat ein Go-Meister zuletzt wieder gegen einen Computer gewonnen, weil der Mensch, anders als eine Software, das Spiel versteht und durch unorthodoxe Züge taktieren und kreativ spielen kann. Das heißt: Ja, es gibt Dinge, die Maschinen „besser“ können als Menschen. Die entscheidende Frage ist aber doch, wer dieses „besser“ definiert und ob es Aufgabe des Menschen ist, Dinge besser zu können als Maschinen, oder ob es nicht intelligenter wäre, dass Menschen sich auf das fokussieren, was Maschinen nicht können, etwa Ideen zu entwickeln, ihre Phantasie zu nutzen und selbstbestimmt etwas zu wollen und zu tun.
Heute geht es eher darum, was alles sich der Mensch von der Technik abnehmen lässt und was er damit anrichtet, ohne es zu ahnen. Immer mehr Kinder lassen sich heute ihre Gutenachtgeschichte von einer Toniebox erzählen, also einem digitalen Kassettenrekorder. Jetzt will der deutsche Hersteller das Gerät mit ChatGPT koppeln, um so ganz individuelle Geschichten, etwa mit dem Zuhörer als Märchenheld, zu generieren. So kann das Töchterchen mal eben in die Rolle von Schneewittchen schlüpfen oder der Sohnemann mit seinen Freunden auf dem Mond kicken. Das Beste ist: Die Kinder schlafen auch noch ein damit. Hier paaren sich Zweckdienlichkeit mit Kreativität, könnte man meinen. Was denken Sie?
Solche Anwendungen haben mehrere, negative Aspekte. Das Vorlesen von Geschichten beim Einschlafen ist ja eine private, empfindsame Situation zwischen Vater, Mutter und Kind. Es ist eine Frage des Vertrauens: Man hört der Stimme und der Geschichte zu, fühlt sich geborgen und beschützt und schläft idealerweise ein. Diese gemeinsame Zeit des zur Ruhe Kommens sollte man nicht an Abspielgeräte delegieren. Zugleich gehen Sagen, Mythen und Märchen verloren, die ein wichtiger Teil jeder Kultur sind und die wir auch Kindern vermitteln sollten, um sie in die Kulturgemeinschaft einzubinden.
KI-generierte Geschichten sind beliebig und zufällig. Außerdem verlieren Kinder ihre Empathie, wenn man sie immer selbst zu Protagonisten macht, weil es ein ganz wesentlicher Aspekt von solchen Geschichten ist, dass wir mit anderen etwas miterleben, mitfiebern und mitleiden, uns gemeinsam freuen, wenn das Rotkäppchen doch gerettet oder der Drache besiegt wird. Auch die Eltern verlieren nicht nur gemeinsame Zeit, wenn sie weder vorlesen noch sich Geschichten ausdenken. Der britische Koch Jamie Oliver hat gerade ein Kinderbuch mit Geschichten veröffentlicht, die er für seine Kinder erfunden hat. Er ist zwar Legastheniker, aber hat die Texte mit seinen Kindern ausprobiert und geändert. So entsteht ein kleiner, gemeinsamer Kosmos an Figuren und Geschichten. Digitaltechniken und Bildschirmmedien haben ja die Tendenz zu sozialer Isolation und Vereinzelung. Selbstbezogenheit bis hin zum Egozentrismus und letztlich Nihilismus werden verstärkt, wenn man auch in solchen Geschichten immer im Mittelpunkt steht.
ChatGPT im Kinderzimmer ist das eine. Noch nachhaltiger und womöglich verheerend wird die Technik das Klassenzimmer verändern. Die Klagen von Lehrkräften über mutmaßlich durch KI verfasste Hausaufgaben, Aufsätze und Referate werden immer lauter. Schummeln mit Google ließ sich ziemlich leicht entlarven. KI kreiert dagegen Unikate, fehlerlos oder, zur Tarnung und altersgerecht, mit schlampiger Orthografie und Grammatikpatzern. Wie sollen die armen Pauker da noch durchblicken oder dagegenhalten?
Die Frage ist doch, wer ein Interesse daran an, dass solche Techniken den Unterricht verändern. Die Behauptung, wonach jede neue Technik und alle neuen Geräte und Dienste in den Unterricht gehören, verfolgt uns seit Jahrzehnten. Und der Nutzen? Negativ, nicht nachgewiesen und vor allem nicht nachzuweisen. Alles nachzulesen beim dänischen Kollegen Jesper Balslev in seinem Buch „Evidence of a potential“. Hierin führt er sämtliche Argumente pro Digital von 1983 bis 2015 auf und kommt zu dem Schluss: „Obwohl die empirische Evidenz in zahlreichen Fällen negative, seltener auch positive und in vielen Fällen neutrale Effekte des Einsatzes digitaler Medien auf die Lernleistung zeigt, hält die Forderung nach einer verstärkten Digitalisierung von Bildungsprozessen seit Jahrzehnten an.“
Das hilft jetzt aber dem Lehrer nicht weiter beim Rätselraten, wer da wofür eine Eins verdient – der Schüler oder der Chatbot …
Geschummelt und betrogen wurde in Schulen und Hochschulen schon immer. Hausarbeiten und Dissertationen kann man sich gegen entsprechendes Geld schreiben lassen oder aus dem Internet kopieren. Software zur Plagiatsfindung findet nur die faulen Kopisten. Es gibt Software zum Umformulieren, von allgemeinverständlich bis streng wissenschaftlich. Klar, wir können technisch aufrüsten. Aber das ist ein Hase-und-Igel-Spiel. Wer sich das Video von Jörn Loviscach anschaut, erkennt, dass sowohl die Software wie die Dienstleister immer einen Schritt voraus sind.
Sinnvoller ist es zu vermitteln, dass es eine eigene Qualität und ein freudiges Erlebnis ist, etwas gelernt oder selbst gemacht zu haben, ein Bild zu malen, einen Text zu schreiben, eine Matheaufgabe zu lösen, ein Instrument zu spielen. Und auch zu vermitteln, dass Lernen anstrengend sein kann, aber Anstrengung Freude macht. Zum Erfolg gehören Übung, Ausdauer und Disziplin notwendig dazu. Ziel muss daher sein, für Inhalte, Themen, Fächer zu begeistern und zu eigener Leistung zu motivieren und zu inspirieren.
Das mutet einigermaßen naiv an bei den gesellschaftlichen Kräfteverhältnissen. Die Technik lädt ja dazu ein oder fordert geradezu dazu auf, das Lernen zu unterlassen. Und wenn dann auch noch Zehntausende Pädagogen im Land fehlen, bleibt das ausgelaugte Restpersonal ja noch hilfloser zurück. Sagen Sie denen mal, sie sollen gefälligst fürs Lernen begeistern …
Solche Kräfteverhältnisse sind Alltag seit den 1970er-Jahren, die Beschädigung des Ansehens und Leugnung der Aufgaben von Erzieherinnen und Erziehern beziehungsweise Lehrkräften gehört zum neoliberalen System. Menschen werden zu Humankapital deklariert, die ins System eingepasst werden müssen. Dessen Scheitern wird mit jeder neuen Studie bestätigt, zuletzt durch den IQB-Bildungstrend, eine Langzeitanalyse im Auftrag der Kultusministerkonferenz. Immer mehr Kinder erreichen nach vier Jahren Schule nicht einmal die Mindeststandards in Lesen, Schreiben, Rechnen und Zuhören.
Woraus folgt?
Hier hilft nur gemeinsamer Widerstand von Schulträgern und -leitungen mit den Kollegien und den Eltern gegen die Ökonomisierung der Bildungseinrichtungen und Funktionalisierung der Menschen. Außerdem muss man die Ursachen der Lerndefizite benennen, unter anderem dysfunktionale Mediennutzung und gestiegene Bildschirmnutzungszeiten, wie es die Schulleiterin Silke Müller mit ihrem Buch „Wir verlieren unsere Kinder“ macht. Das ist der weiße Elefant im Raum. Täglich mehrere Stunden am Display und TikTok oder Games macht etwas mit den Kids. Und für die eigene Schule oder die eigene Klasse gilt: Stellen Sie Regeln zum Schutz der Kinder und Jugendlichen auf und setzen Sie diese konsequent um. Wir müssen Schule und Unterricht wieder vom Menschen her denken und entsprechend umbauen. Dazu gehört auch der Schutz vor krank und süchtig machender Mediennutzung.
Man kann natürlich mit IT in Schulen arbeiten, falls das pädagogisch sinnvoll ist. Man kappt dafür den Rückkanal für Daten. Denn nicht die Technik ist das Hauptproblem, sondern die damit verbundenen Geschäftsmodelle der Datenökonomie, für die User nur Datenspender sind, denen man Werbung zeigt.
Worin sehen Sie die größten Gefahren von IT und KI für die Entwicklung von Heranwachsenden?
Das größte Problem ist die Vertiefung der sozialen Spaltung, die wir jetzt schon erleben und die sich in der Corona-Krise verstärkt und verstetigt hat. Kinder und Jugendliche aus bildungsaffinen Elternhäusern, die daheim vielleicht noch Unterstützung bekommen haben, sind recht gut durch die Pandemie gekommen. Wem diese Unterstützung gefehlt hat und wer nicht zu den sehr wenigen „Selbstlernern“ gehört, hat verloren und Lernrückstände aufgebaut.
Das verschärft sich mit der Nutzung von Tools wie ChatGPT. „Selbstlerner“ begreifen das als Spiel, die anderen wollen nur schnell ein Ergebnis. Während man bei Google Suchbegriffe eingegeben hat und aus einer Ergebnisliste auswählen und bewerten musste, liefern Chatbots fertige Antworten. Aber wie soll man prüfen, ob das stimmt, was da steht? Das kann nur, wer über das nötige Wissen verfügt, die Antwort zu beurteilen und bei Bedarf zu überprüfen. Wenn ich keine Ahnung habe, muss ich glauben, was da steht. Das ist das Matthäus-Prinzip: Wer Vorwissen hat, dem wird ein Werkzeug und Arbeitserleichterung gegeben. Alle anderen verlieren.
Und dann?
Mittelfristig passiert noch mehr: Man verlernt, was man konnte. Später verödet auch die Sprache, weil sie sich per Bot selbst aus dem Datenbestand reproduziert. Wer es dystopisch mag: Es ist nur eine Frage der Zeit, bis diese ganzen Bild- und Textgeneratoren sich nur selbst reproduzieren. Ich habe mit einem IT-Kollegen geflachst, dass das gut ist, weil sich dann die Bots miteinander unterhalten wie die Betriebssysteme untereinander im Science-Fiction-Film „Her“ von Spike Jonze. Vielleicht reden wir Menschen dann wieder miteinander.
Oder auch nicht. Es ist nicht eher so, dass Schulbildung oder Bildung im Allgemeinen, so wie wir sie kennen, mit dem Einzug der KI eigentlich ausgedient hat?
Im Gegenteil. Bildung und Allgemeinbildung werden immer wichtiger ebenso wie Fachwissen und das Verstehen von Zusammenhängen. Eine KI ist ja weder gebildet noch versteht sie irgendetwas von dem, was sie da nach statistischen Parametern berechnet. Da gibt es keinen Willen, etwas zu tun, kein Bewusstsein über das Tun. Deswegen sind auch die Dystopien Quatsch, die fabulieren, die Maschinen übernehmen die Macht und löschen uns aus. Das ist Science-Fiction wie bei „Odyssee im Weltraum“ von Stanley Kubrick, wo „HAL“ nach und nach die Astronauten ermordet, bevor der letzte Astronaut ihm die Speicherkarten zieht und der Supercomputer zum stammelnden Säugling regrediert. Damit aus Daten und Dateien wieder Wissen und Verständnis oder ein Willen werden, braucht es den oder die Menschen, die sehen, lesen und verstehen. Auch die beste Bibliothek nutzt mir nichts, wenn ich nicht lesen kann.
Aber wer kann morgen noch lesen? Beziehungsweise ist es eine schöne Aussicht, wenn bald nur noch eine kleine Elite lesen kann?
Natürlich nicht und deshalb braucht es ein Umdenken. Diese Bots produzieren rasend schnell Unmengen von Zeugs, das niemand mehr auf Sachlichkeit und Korrektheit prüfen kann. Wir werden geflutet mit Fake News und Propaganda, wogegen nur ein geändertes Mediennutzungsverhalten hilft. Wir müssen lernen, nur mit geprüften Quellen zu arbeiten und das Netz und den Output von KIs als Misthaufen zu begreifen. So hat dies der Computerpionier Joseph Weizenbaum schon im Jahr 2000 beschrieben, als die meisten Menschen noch gar nicht wussten, was das Internet ist. Es gebe zwar ein paar Perlen zu finden, das gelänge jedoch nur „mit der Fähigkeit, gute Fragen zu stellen“, schrieb er. Dafür müsse jedoch das kritische Denken in den Schulen und Universitäten gefördert werden.
Was gerade nicht passiert – eher im Gegenteil.
Das stimmt leider. Kritisch denken und reflektieren kann nur, wer etwas gelernt und verstanden hat. Verstehen lehren ist Aufgabe der Lehrkräfte, das kann kein stochastischer Papagei, auch wenn Bill Gates behauptet, KI würde in Zukunft den Kindern das Lesen und Schreiben beibringen. Microsoft hat bereits mehr als 13 Milliarden US-Dollar in OpenAI investiert und für die nächsten Jahre jeweils zweistellige Milliardeninvestitionen zugesagt. Es sollte uns zu denken geben, wenn ein vollständig intransparentes und rein kommerzielles IT-System Kinder unterrichten soll.
Von wem erwarten Sie ein Umdenken? Von der Politik, den Schulen?
Da ein Umdenken von Seiten der Kultusministerien nicht zu erwarten ist, weil dort Lobbyisten ihre Interessen durchsetzen, bleibt nur eine (R)Evolution von unten, von den Schulen und dem einzelnen Klassenzimmer aus. Hier müssen sich Kollegien und Eltern darauf einigen, dass ihre Kinder keine „Werkstücke“ sind, die für einen Markt zugerichtet werden, sondern Menschen, die man auf ihr selbstbestimmtes und selbstverantwortetes Leben vorbereiten will.
Dazu gehört Muße für die eigene Entwicklung, die Integration von Musik, Kunst und Theater in den Fächerkanon, die musisch-ästhetische Erziehung. Dazu gehört ein Verständnis von Allgemeinbildung, die das Ausprobieren und Entwickeln eigener Interessen fördert, statt junge Menschen möglichst früh in Richtung der MINT-Technikfächer zu manipulieren, weil dort Arbeitskräfte fehlen. Dazu gehört eine Neuorganisation der Lehramtsstudiengänge mit Hospitationen vom ersten Semester an und dem klaren Auftrag, dass nur diejenigen Lehrerin oder Lehrer werden dürfen, die unterrichten wollen und unterrichten können. Wir müssen uns auf allen Ebenen darauf besinnen, was Erziehen und Unterrichten bedeutet: Verantwortung für die nächste Generation zu übernehmen und sie in die Lage zu versetzen, dass sie ihr Leben eigenverantwortlich gestalten kann.
Man hört ja immer wieder den Ausspruch, dass sich der technische Fortschritt nicht aufhalten lasse, schon gar nicht mit Verboten. Wären Verbote nicht eigentlich das Gebot der Stunde?
Technischer Fortschritt ohne Technikfolgeabschätzung führt ins Desaster. Daher gab und gibt es Konferenzen und Moratorien zu Atomwaffen, Gentechnik oder heute KI. Anfang April haben prominente KI-Forscher vom Future of Life Institute ein sechsmonatiges Moratorium für KI-Systeme gefordert, das mittlerweile mehr als 27.000 Wissenschaftler und Akteure aus der IT-Szene unterzeichnet haben. Dabei geht es nicht um Verbote. Die Möglichkeiten, Folgen und potenziellen Gefahren technischer Systeme müssen diskutiert, Regeln formuliert werden: Was darf KI, was nicht. Dadurch lässt sich zwar Missbrauch nicht verhindern, aber wie in jedem Rechtssystem setzt man den Rahmen und sanktioniert bei Verstößen. Dabei darf nicht das technisch Machbare der Maßstab sein, sondern das ethisch zu Verantwortende.
Dazu hat zum Beispiel der deutsche Ethikrat ein wichtiges Papier publiziert. Europa ist mit der EU-DSGVO und anderen Gesetzen zum Schutz der Persönlichkeitsrechte und Privatsphäre sogar weiter als die USA. Denn es geht dabei nicht um technische Details, sondern um grundsätzliche Fragen des Miteinanders und eine gemeinsame, demokratische Zukunft.
Sind Sie wirklich so optimistisch oder schummeln Sie nur?
Ich bin Pädagoge und unterrichte seit fast 40 Jahren. Die Arbeit mit jungen Menschen macht mich nach wie vor optimistisch, ja, weil man sieht, wie sich Menschen entwickeln. Das gibt Hoffnung, auch wenn es aktuell angesichts des Zustands der Bildungseinrichtungen, der Akteure und Bedingungen jeden Tag etwas vom Luther’schen Apfelbäumchen Pflanzen hat.
Titelbild: Mizkit/shutterstock.com
Zur Person: Ralf Lankau, Jahrgang 1961, ist Professor für Digitaldesign, Mediengestaltung und Medientheorie an der Hochschule Offenburg. Er leitet dort die grafik.werkstatt an der Fakultät Medien, forscht zu Experimenteller Medienproduktion in Kunst, Lehre und Wissenschaft und publiziert zu Design, Kommunikationswissenschaft und (Medien-)Pädagogik. Lankau betreibt das Projekt „futur iii – Digitaltechnik zwischen Freiheitsversprechen und Totalüberwachung“ (futur-iii.de), ist Mitinitiator des „Bündnisses für humane Bildung“ und arbeitet aktuell am Projekt der „pädagogischen Wende, der notwendigen Besinnung auf das Erziehen und Unterrichten“. Von Lankau erschien im Januar 2023 im Beltz-Verlag „Unterricht in Präsenz und Distanz: Lehren aus der Pandemie“.