Gottfried Böhme ist studierter Philosoph und Germanist, war 40 Jahre erst in Baden-Württemberg und ab 1992 in Leipzig als Lehrer und in der Lehrerfortbildung tätig. 2020 schrieb er mit „Der gesteuerte Mensch“ eine Kritik am Digitalpakt Bildung, und in „Fühlende KI? Denkendes Fleisch?“ (erschienen 2023) beschäftigte er sich mit dem Thema Künstliche Intelligenz. Grund genug, mit ihm über das Thema KI zu sprechen.
Das KI-Thema ist umfangreich, man liest sich ein und kann gar nicht alles lesen. Ralf Julke hat Ihr letztes Buch in der LZ besprochen, deshalb habe ich ein Gespräch mit Ihnen angefragt. Vielen Dank für Ihre Zusage. Zum Einstieg, Sie waren Lehrer, hauptsächlich für Deutsch und Philosophie.
Ich muss ein bisschen korrigieren. In Sachsen gibt es seit langer Zeit ein sehr gutes Unterrichtsmodell. Wenn ein Lehrer sich für irgendein Thema brennend interessiert, kann er daraus einen Grundkurs machen. Und der wird dann in der Oberstufe seiner Schule zweistündig angeboten. Es muss sich um einen fächerverbindenden Kurs handeln. Das ist die Bedingung. Und so ein Entwurf muss natürlich ein Genehmigungsverfahren durchlaufen.
Ich habe das genutzt, indem ich, statt das Fach Philosophie zu unterrichten, einen Kurs aufgebaut habe, der sich „Geist und Materie“ nennt. Wenn ich jetzt die drei von Ralf Julke besprochenen Bücher in der Grauen Edition veröffentlicht habe, sind die auf der Basis von dem, was ich viele Jahre lang in diesem Kurs behandelt habe, entstanden. Sonst hätte ich die gar nicht so schnell raushauen können. Es geht um Themen, über die ich mit meinen Schülern jahrelang diskutiert habe, wobei ich sie mit einem gewissen Abstand jetzt in manchen Punkten vertiefen wollte.
Ich war der Meinung, dass Schüler im digitalen Zeitalter einen sehr breiten weltanschaulichen Hintergrund haben müssen, damit sie nicht auf jedes Szenario in einem Science-Fiction-Film und auch nicht auf irgendwelche Versprechungen, die von Wissenschaftlern, Konzernen, teilweise auch von den Politikern gegeben werden, hereinfallen. Wer über Künstliche Intelligenz redet, sollte zum Beispiel schon eine Vorstellung davon haben, was Bewusstsein ist.
Da sind wir bei dem Thema: Glaube nie jemandem, der dir einfache Lösung anbietet. Die einfachen Lösungen gehen nicht auf. Sie beschäftigen sich mit dem menschlichen Denken?
Ich versuche den Schülern – bzw. jetzt den Lesern – eine große Bandbreite von Erklärungen für das Phänomen Bewusstsein vorzustellen. Dabei handelt es sich um Theorien von Nick Bostrom, Antonio Damasio, den drei Bewusstseinstheoretikern mit dem Rufnamen Thomas – Metzinger, Nagel und Fuchs – und so weiter.
Im letzten Buch haben Sie „cogito ergo sum“, zu Deutsch „Ich denke, also bin ich“ auseinandergenommen. Der Rückschluss: „Wenn ich nicht denken würde, wäre ich nicht“, das ist nicht so einfach.
Da wir nicht so einfach definieren können, was das Denken ist, wie das Ganze funktioniert, wie diese Materie sich plötzlich zum Denken aufgerafft hat, können wir ja schlecht sagen, ich bin nur, weil ich denke. Das ist natürlich schon wieder so eine krasse Vereinfachung.
Ja, das sind wirklich sehr schwierige Fragen. Ich war anfangs sehr beeindruckt von Wissenschaftlern wie dem Neurologen Antonio Damasio, der dadurch, dass er sagt: Wir müssen eigentlich nicht beim Denken, sondern beim Fühlen ansetzen, eine spannende Frage aufgeworfen hat. Fühlen ist sicher etwas, das mit Bewusstsein zu tun hat – und es wirkt elementarer als das Denken. Wenn ich etwas fühle, dann ist irgendwas in mir da, da ist ein Ich, da ist ein Selbst, da ist was auch immer da, das dieses Gefühl hat.
Und es ist noch etwas Zweites gegeben, was den allermeisten Menschen gar nicht auffällt: Die Zeit hat plötzlich einen hervorgehobenen Moment bekommen, nämlich die Gegenwart, deren Hervorgehobenheit ohne solche fühlende Wesen nicht vorstellbar ist. Gefühlt wird nie das Vergangene, sondern immer das Gegenwärtige. Und das kommt bei Damasio zu kurz, spannende Überlegungen dazu habe ich dafür bei Edmund Husserl gefunden.
Ich habe Damasios Erklärung für das Bewusstsein gelesen und habe, wenn ich sie nicht verstand, gedacht: Menschenskinder, das liegt an mir. Aber wenn man eine komplizierte Passage zum zweiten und viele Stellen auch zum fünften oder zehnten Mal liest, stellt man fest: Es liegt daran, dass das Versprechen, uns zu erklären, wie Fühlen und Denken funktioniert, nicht eingelöst wird.
An der Stelle, wo beschrieben werden müsste, wie sich aus der Materie heraus der Gedanke entwickelt oder das Gefühl, da stehen in vielen Büchern – nicht nur bei Damasio – bestenfalls verschwommene oder aufgeblasene Formulierungen. In Wirklichkeit ist da ein Bruch in der Theorie, der mit ein paar Metaphern überkleistert wird. Schelling hat schon vor 200 Jahren behauptet, dass es nie gelingen wird, diesen Bruch zu überwinden. Ich finde nicht, dass seine Behauptung bis heute widerlegt worden ist.
Da ist ja auch ein Problem. Wir können heute erkennen, in welchem Hirnareal ein Sinnesreiz verarbeitet wird. Aber wir können nicht erkennen, was im Gehirn dann daraus gemacht wird.
Wir können zwar nachweisen, dass das Gehirn offensichtlich eine entscheidende Rolle für Fühlen oder Denken spielt. Einerseits wissen wir, dass mein Gehirn arbeitet, wenn ich denke. Andererseits gibt es Gedanken. Aber wie das eine zum anderen kommt, wie das eine zum anderen wird, das wissen wir immer noch nicht.
Es ist fatal: Wenn der vom Wissenschaftler untersuchte Mensch nicht sagen würde, was er gerade empfindet, was er gerade sieht und so weiter, also wenn er nicht mit dem Wissenschaftler kooperieren würde, dann könnte man zwar irgendwelche Abläufe, Prozesse im Gehirn registrieren, aber man wüsste damit gar nichts anzufangen. Den elektrochemischen Prozessen des Gehirns selber sieht man nicht an, dass und welche Gedanken oder Gefühle in ihnen stecken.
Da schließt sich ja jetzt der Bogen zu dem Thema KI. Wir wissen nicht, wie wir denken, und behaupten, wir bringen einer Maschine das Denken bei. Ist Intelligenz vom Denken abhängig? Die Frage ist: Wie entwickelt sich die KI, entwickelt sie sich weg von unserem Denken?
Also man kann das an einem Beispiel schon ganz gut veranschaulichen. Meine Frau hat eine Vogelstimmen-App, sie ist Biologielehrerin. Und ich habe gelegentlich nachgelesen, wie diese Apps ungefähr funktionieren, um beurteilen zu können, ob sie hören können wie wir. Das, was an akustischen Signalen von Mikrofonen erfasst wird, wird in winzigste kleine Sequenzen zerlegt, sodass der Vogelgesang in akustische Ereignisse von minimaler Ausdehnung aufgelöst ist.
Und denen wird jeweils ein digitaler Zahlenwert zugeordnet. Damit ist die Vogelstimme digitalisiert, und das ist die Basis von dem, was anschließend passiert. Dieser digitalisierte Vogelruf kann mit gespeicherten Vogelrufen, die früher auf dieselbe Weise digitalisiert worden sind, verglichen werden. Dann kann das Gerät oder die KI sagen: Das könnte z.B. eine Nachtigall sein, weil die Sequenzierung des Vogelrufs einer gespeicherten Nachtigallsequenz ähnelt.
Entspricht dieser elektromechanische Abgleich zweier Sequenzreihen dem Phänomen Hören? Gefällt der KI gar das Schlagen der Nachtigall? Ist Hören nicht viel mehr als die Feststellung der Identität von zwei Zeichenreihen?
Hier kommen wir zum Thema Unterschied beim Lernen. Jetzt führt Sachsen ChatGPT an den Schulen ein, wo wir den Kindern eigentlich als Erstes beibringen müssten, dass das ein Algorithmus ist, der anhand von Informationen, die ihm vorliegen, Lösungsvorschläge macht. Diese sind aber nicht unbedingt etwas, was man kritiklos übernehmen kann. Da kommt jetzt der Lehrer ins Spiel.
Das ist ein Thema, das mich sehr beschäftigt. Ich sehe mit Entsetzen, dass die jahrelangen Bemühungen, die Lehrer, Didaktiker oder auch Politiker investiert haben, um unser Bildungssystem reicher, bunter zu machen, einen unglaublichen Rückschlag erleiden. Jahrelang haben wir den Schülern Mut gemacht, sich aus dem Klassenzimmer herauszubewegen und im Rahmen einer gestellten Aufgabe selbständig die Welt zu erforschen.
Aber das hat keinen Sinn, wenn die Schüler, kaum sind sie aus dem Sichtkreis des Lehrers verschwunden, ChatGPT die Aufgabe lösen lassen. Viele gute Ideen, die in den letzten Jahrzehnten entwickelt worden sind und die für die Entwicklung des Jugendlichen sehr positiv waren, werden jetzt von einer neuen Technik einfach beiseite gewischt.
Ich möchte das an einem Beispiel illustrieren. Es ist wichtig, dass ein Schüler, bevor er an die Universität geht, schon mal begleitet eine Facharbeit – sie heißt bei uns komplexe Lernleistung – erstellt hat, weil er das im Studium können muss. Er muss einmal die Situation erlebt haben, dass er eine Aufgabe gestellt bekommt bzw. sich diese selbst sucht und dann erst einmal vor dem Nichts steht. Dann muss er nämlich Ideen entwickeln, was man aus dem Thema machen könnte.
Er muss anfangen zu recherchieren, er muss eine Gliederung erstellen, Thesen aufstellen. Dann muss er seine Arbeit durchformulieren. Er wird vielleicht von seinem Lehrer darauf aufmerksam gemacht, dass eine These noch nicht gut belegt ist, dann muss er sie besser belegen. Wenn man auf diese Weise eine Facharbeit erstellt, wächst allmählich das Gefühl dafür, was es bedeutet, wissenschaftlich zu arbeiten.
Heute kann man diese Facharbeit mit ein paar Prompts von ChatGPT generieren lassen. Manche Lehrer und Didaktiker sagen, dass es jetzt eben darauf ankäme, kritisch zu prüfen, ob das, was der Chatbot vorschlägt, auch gut ist. Aber wenn man nie eine Facharbeit selber geschrieben hat, dann weiß man doch gar nicht, auf was man überhaupt achten muss, und wird gar nicht das Zeug dazu haben, zu merken, was an dem Vorschlag von ChatGPT unbrauchbar ist.
Wer noch nie selber eine Facharbeit geschrieben hat, der kann doch nicht der Redakteur werden, der den Entwurf einer KI korrigieren kann. Das wäre ja absurd! Jeder Redakteur einer Zeitung hat natürlich erst mal selber Artikel geschrieben, bevor er Volontäre anlernt und deren Entwürfe redigiert. Die Schüler sollen das aber sofort können. Woher denn?
Tatsächlich steht dieses ganze Konzept jetzt zur Disposition – und damit die Vorbereitung auf eine wissenschaftliche Tätigkeit. Es gibt bereits Universitäten, beispielsweise die betriebswissenschaftliche Fakultät in Prag, die beschlossen haben, keine Bachelor-Arbeiten mehr anzunehmen, weil das keinen Sinn mehr hat. Und bei der komplexen Lernleistung bahnt sich eine ähnliche Entwicklung an. Ein bewährtes Modell, bei dem Schüler lernen, wissenschaftlich zu arbeiten, wird gerade entsorgt.
Bereits heute sagen immer mehr Lehrer an unseren Gymnasien, dass schriftliche Arbeiten zu vergeben sinnlos geworden sei, weil man in unerquickliche Diskussionen mit Schülern gerät, die behaupten, die Arbeit sei von ihnen, aber in Wirklichkeit hat ChatGPT sie ausgespuckt. Es ist eine traurige Konsequenz von KI, dass wir von Konzernen ohne Vorwarnzeit dazu getrieben werden, bewährte Lernmodelle aufzugeben.
Man kann Dinge erfinden, man kann diese nicht wieder entfinden. Jetzt ist ja die Frage, wie geht man damit um? Man kann natürlich auch lernen, mit dieser Technik in der Schule umzugehen, es würde natürlich bedeuten, erstmal Lehrerweiterbildung zu diesem Thema machen. Dazu braucht es Ressourcen und vor allem Zeit.
Ich habe schon versucht zu erklären, was das Problem dabei ist. Wenn ein Schüler nie eine wissenschaftliche Arbeit geschrieben hat, dann wird er nicht beurteilen können, ob die Gliederung stimmig ist, ob die Thesen brauchbar sind, ob ein Abstract passt und so weiter und so fort. Ich weiß: etliche Lehrer argumentieren damit, dass es in Zukunft darum gehen muss, gute Prompts zu formulieren und den Vorschlag, den ChatGPT macht, zu überprüfen.
Man kann aber das, was jetzt als die hauptsächliche Leistung des Schülers bezeichnet wird, nicht vergleichen mit dem, was früher durch eine Facharbeit an Leistung erbracht werden musste. Und daran könnte auch eine Lehrerweiterbildung nichts ändern. Immer noch kommt es auf den Kopf des Schülers an – und auf das, was in ihm steckt.
Wir müssen bedenken, dass für uns in Deutschland Bildung extrem wichtig ist, weil wir z. B. keine nennenswerten Rohstofflager haben. Wenn sich bei uns das Bildungsniveau auf einem niederen Level einpendelt, dann wird uns das furchtbar schaden. Wir können international mit kaum etwas anderem als mit Bildung punkten.
Einen Prompt zu erstellen, also eine Frage, einen Auftrag für ChatGPT zu entwickeln, das dürfte mit Sicherheit viel leichter sein, als sich ein solides Wissensgrundgerüst anzueignen, das einem dann ermöglicht herauszufinden: Hier sind Fehler in der Arbeit, hier muss nochmal etwas recherchiert werden. Prompts kann rund um den Globus bald jeder einigermaßen clevere Jugendliche entwickeln. Damit kann man die Konkurrenz nicht abhängen.
Folgen hat das besonders für die bequemeren oder auch etwas schwächeren Schüler. ChatGPT wird von den schlauen Schülern sinnvoll genutzt werden können, den Schwächeren wird es enorm schaden. Die werden sich darauf verlassen, dass der tolle Text, der da eben von einer KI generiert worden ist, auch in Ordnung ist. Sie werden sich aufregen, wenn der Lehrer an ihm herumkrittelt.
Sie werden dies für eine Anmaßung des Lehrers halten oder ihn als altes Eisen ansehen, der den digitalen Anschluss verpasst hat. Das für das Lernen so wichtige Vertrauensverhältnis zwischen Lehrer und Schüler wird durch ChatGPT auf eine ganz harte Probe gestellt.
Das war genau der Punkt, auf den ich hinaus wollte. Brauchen wir durch die künstliche Intelligenz einen höheren Bildungsgrad, um überhaupt einschätzen zu können, was diese macht? Oder verlassen wir uns blind drauf, was die KI vorschlägt? Dann kommen wir in die Situation, dass ein Navigationssystem sagt: „Hier ist eine Brücke“ und wir fahren den Fluss.
Selbst wenn ich weiß, dass ich Vorschläge einer KI überprüfen muss, habe ich doch die Möglichkeit dazu gar nicht, wenn ich kein Wissensgerüst habe. Das Wissen muss erst mal in den Kopf. Das wird aber nicht in den Kopf kommen, wenn ich glaube, dass ich mir das Lernen ersparen kann. Wenn ich davon ausgehe, dass ich bei Bedarf immer meinen Computer fragen kann und der mir die gewünschten Antworten schon liefern wird, dann kann ich bald auch keine schlauen Fragen mehr stellen.
Woher soll ich dann noch wissen, was ich fragen soll? Das Schlimme daran ist, dass die Schüler durchaus glauben, dass sie sich das Lernen ersparen können. Und das ist verständlich, weil junge Leute noch andere Interessen haben, wir waren alle mal jung und wissen das.
Sie haben im Interview beim MDR gesagt „Ich habe auch geschummelt“.
Ja, natürlich. Aber das war eine viel bescheidenere Dimension von Schummeln als die, die jetzt technisch möglich geworden ist. Irritierenderweise werden Verfahren, die darauf hinauslaufen, geistige Leistungen vorzutäuschen, von staatlicher Seite jetzt legitimiert. Ich finde es bedenklich, dass manche Lehrer und auch der sächsische Kultusminister, Herr Piwarz, den Schülern empfehlen, ab Klasse acht mit ChatGPT zu arbeiten.
Herr Piwarz glaubt offensichtlich, damit auf der Seite des Fortschritts zu stehen und so die Chancen dieser Generation zu verbessern. Mir gefällt der Optimismus unseres Kultusministers nicht. Ich glaube eher, dass wir ernsthaft überlegen müssen, wie wir diese Gefahr einigermaßen eindämmen können. Aber das wird sehr schwierig werden.
Wir werden das Thema nicht erschöpfend behandeln können. Haben Sie noch ein Schlusswort?
Was mir aufgefallen ist: Das Impulspapier der ständigen wissenschaftlichen Kommission bei der Kultusministerkonferenz zu KI im Unterricht ist überhaupt nicht optimistisch. Man merkt es den Verfassern an, dass sie selber ganz große Probleme auf die Schule zukommen sehen, aber einfach nicht wissen, wie man deren Herr werden kann. Das ist der Unterschied zu Herrn Piwarz.
Und das, obwohl in diesem Gremium auch Leute mitarbeiten, die sehr technikaffin sind. Natürlich haben sie am Ende dann Vorschläge gemacht – und die sind in Sachsen eins zu eins übernommen worden, ohne das Unbehagen zu kommunizieren, das die Verfasser im Übrigen haben. So kann man keine Diskussion auslösen, was dringend nötig wäre.
Das Thema gibt wohl noch genügend Stoff für weitere Bücher und Artikel. Herr Böhme, ich danke Ihnen für das Gespräch.
“Der Kritiker – KI in der Schule, Autor Gottfried Böhme“ erschien erstmals im am 03.05.2024 fertiggestellten ePaper LZ 124 der LEIPZIGER ZEITUNG.
Sie wollen zukünftig einmal im Monat unser neues ePaper erhalten? Hier können Sie es buchen.
Keine Kommentare bisher
Im Dittrichring 2 logiert seit ein paar Jahren die ursprünglich dänische Firma Area9 Lyceum, die dort ihre Zweigstelle für den deutschsprachigen Raum unterhält. Deren Ziel ist die Degradierung des Lehrerberufs zum Lerncoach. Deren Software sind bereits in und um Leipzig im Einsatz. Und ich bin sicher, die öffentliche Meinung spielt denen ins Konzept. Hier die Köpfe dieses Unternehmens: https://area9lyceum.de/ueber-uns/team Wenn man mal eine/n auf der Straße trifft, kammer fragen, wie die Geschäfte bei der Schulzertrümmerung so laufen…