Sie kennen Dr. S. Calvin nicht? Dann haben Sie einige der Robotergeschichten von Issac Asimov nicht gelesen. Dr. Calvin ist die führende Roboter-Psychologin in Asimovs Werk – und zeitgleich auch eine gute Menschen-Psychologin. Das muss sie sein, denn sie ist ja für das Zusammenleben von Mensch und Roboter zuständig.
Warum schreibe ich das?
Geschichte wiederholt manchmal gute Science-Fiction-Geschichten. Ob bei Asimovs Robotergeschichten oder bei Stanislav Lems „Golem“: Das Zusammenleben von Mensch und Künstlicher Intelligenz (KI), Asimovs Roboter sind ja letztendlich mit KI ausgestattete Werkzeuge, bringt Probleme mit sich. Es liegt am Menschen, diese im vorab zu sehen und zu klären.
Eine kurze historische Betrachtung
Seit den 1950er Jahren gibt es Diskussionen über die technischen Möglichkeiten der KI – Alan Turing, die Brüder Dreyfus und Karl Popper seien an dieser Stelle genannt. Ab den 1990er Jahren gab es die ersten technischen, wenn auch nicht im menschlichen Sinne intelligenten, Programme wie Deep Blue und Watson.
Mit dem „machine learning“ und künstlichen neuronalen Netzen wurde eine neue Qualität erreicht und man näherte sich dem „menschlichen Denken“ vermeintlich an. Es sei mir verziehen, dass ich mich hier kurz halte. Es geht nicht um die Technik, sondern um uns und die Technik.
In den 2000er Jahren begann der internationale Wettlauf um die Entwicklung der KI. Es wurden Preise ausgelobt, Fördermittel bereitgestellt, Exzellenzcluster gegründet und vieles mehr. Ein Hinweis noch – ich verwende im weiteren Text den Begriff „Maschinenintelligenz“ statt KI, weil letzterer Begriff impliziert, es ginge um quasi menschliches Denken durch eine Maschine.
Es ist geschafft!
Wir haben 2023 und mit ChatGPT eine neue Stufe der Maschinenintelligenz. Fragt man ChatGPT: „Was bist Du?“, so sagt die Maschine:
„Ich bin ChatGPT, ein großes Sprachmodell, das von OpenAI trainiert wurde. Ich wurde entwickelt, um menschenähnliche Konversationen durch natürliche Sprachverarbeitung zu führen und Antworten auf verschiedene Fragen zu geben.“
Die ersten lauten Bedenken, die ich vernahm, kamen von Schulen und Universitäten. Wie schon 2001, bei der Inbetriebnahme von Wikipedia, ging es um die gleiche Frage: „Werden Schülerinnen und Schüler, Studentinnen und Studenten in Zukunft ihre Aufgaben nur noch vom Computer erledigen lassen?“
Es ist zu vermuten, dass in vielen Schulen die Frage von Wikipedia noch nicht gelöst ist, folglich ist es für diese sinnlos, sich über ChatGPT aufzuregen. Also prüfen wir den Vorwurf und stellen ChatGPT eine typische Schüleraufgabe: „Analysiere das Gedicht Heideröslein“. Mittendrin lesen wir dann:
„Und als wir tanzten
nachts um zwölf,
da hat sie mir’s ins Herz gesetzt,
dass ich an nichts anders mehr denk.
In der dritten Strophe erfahren wir, dass der Junge und das Röslein eine besondere Verbindung haben. Es wird angedeutet, dass der Junge und ein Mädchen in der Nacht zusammen tanzten und dass das Röslein eine Rolle in diesem Moment spielte. Das Röslein hat sich demnach in das Herz des Jungen eingeprägt, und er kann an nichts anderes mehr denken.“
Lehrerinnen und Lehrer, die nicht bemerken, dass es diese dritte Strophe im Original gar nicht gibt, wird man eher selten antreffen. Hierfür braucht es bei weitem keine Goethe-Experten.
Vorsichtshalber habe ich also nachgefragt: „Ist diese Analyse korrekt?“
„Als Sprachmodell kann ich keine subjektiven Bewertungen abgeben, aber aus Sicht der Textinterpretation ist Ihre Analyse zutreffend. Es gibt allerdings Raum für verschiedene Interpretationen von literarischen Werken und es ist möglich, dass andere Leserinnen und Leser des Gedichts andere Schwerpunkte und Bedeutungen finden oder betonen würden.“
Plötzlich ist es meine Analyse. Für den Text, den ChatGPT analysiert hat, ist sie ja auch nicht falsch. Es ist eben wie bei Wikipedia: Abschreiben oder Copy&Paste ist einfach keine gute Idee. Bei komplexen Zusammenhängen im Studium können sich die Fehler potenzieren, es sollen sogar falsche oder erfundene Quellen durch ChatGPT angegeben worden sein.
Ich habe ChatGPT gefragt: „Was machst du, wenn du zu etwas keine Information findest?“
„Wenn ich zu einer bestimmten Frage oder einem bestimmten Thema keine Informationen finde, dann gebe ich eine entsprechende Antwort, dass ich dazu keine Informationen habe. In manchen Fällen kann ich auch eine ähnliche oder verwandte Information anbieten, die möglicherweise hilfreich sein kann.“
Soweit zum Thema Schule und Studium. Irgendjemand hat also irgendwie das „Heideröslein“ falsch eingegeben oder die unbekannte Version findet sich priorisiert in den Datenbanken.
Was sind die anderen Bedenken?
Ein großes Bedenken, dem ich mich anschließe, ist die mangelnde Transparenz des ChatBots. Wir wissen nur, dass es Datenbanken gibt, die er nutzt, aber nicht, was diese beinhalten. Das ist am einfachen Beispiel des Heiderösleins zu sehen. Beinhalten diese also rassistische, frauenverachtende oder sonstige diskriminierende Stereotypen, führt das zu entsprechenden Aussagen.
Der Datenschutz ist ein weitere Bedenken: Michael Will, der Datenschutzbeauftragte beim bayrischen Landesamt für Datenschutzaufsicht, bringt es auf den Punkt, wenn er sagt: „KI darf keine Blackbox sein, wo hinter einer Wand dann alles Mögliche geschehen kann“.
Weitere detaillierte Angaben zum Thema finden Sie, in verständlicher Form, bei „Dr. Datenschutz“ und bei anderen Quellen. Es gibt viele weitere Bedenken wie massenhafter Verlust von Arbeitsplätzen, Schädigung oder Manipulierung von Menschen, dass eine Maschinenintelligenz unkontrollierbar wird, der Missbrauch für militärische Anwendungen oder ähnliches.
Was also tun?
Brauchen wir eine Dr. Susan Calvin?
Ich denke nicht. Es gibt weniger ein Problem mit der Maschinenintelligenz an sich. Das Problem liegt beim Menschen, also den Programmiererinnen und Programmierern der Algorithmen und den „Befüllern“ der Datenbanken.
Extrem wird es, wenn Maschinenintelligenz in der Lage sein wird, ihre Weiterentwicklung selbst vorzunehmen. Fehler, beabsichtigte oder unbeabsichtigte, in der Grundprogrammierung werden sich potenzieren. Die Maschinenintelligenz kann keine ethischen Entscheidungen treffen und wird diese Fehler nicht erkennen.
Fragen wir nochmal ChatGPT: „Können Sie ethische Aussagen machen?“
„Als Sprachmodell mit künstlicher Intelligenz habe ich keine eigenen Überzeugungen oder Meinungen. Ich bin darauf programmiert, Antworten zu geben, die auf Mustern und Assoziationen beruhen, die ich aus riesigen Mengen von Textdaten gelernt habe. Daher treffe ich keine eigenen ethischen Aussagen.“
Was wir wirklich brauchen, ist die Technikfolgenabschätzung bereits bei der Entwicklung. Diese haben wir wieder mal nicht von vornherein betrieben und versuchen jetzt nachzuarbeiten. Ja, bei Asimov gab es die Robotergesetze, so einfach wird das für uns nicht.
Ob bei der Atomforschung, der Genetik oder jetzt bei der KI (Maschinenintelligenz), der Mensch neigt dazu, Dinge zu erforschen, ohne Beachtung der Folgen für die Menschheit.
Wir brauchen nicht Susan Calvin, als Roboterpsychologin, wir brauchen eher einen Wissenschaftspsychiater und/oder Gesellschaftspsychiater.
Keine Kommentare bisher