Dr. Sarah Mandl ist Forscherin am Institut für Psychologie der TU Chemnitz, Bereich Persönlichkeitspsychologie und Diagnostik. Wir lernten uns beim „Wissenschaftskino“ der Sächsischen Akademie der Wissenschaften kennen. Dort war sie im Podium bei der Diskussion zum Film „Ich bin Dein Mensch“.

Am 10.04.2024 sprachen wir in der TU Chemnitz über die Herausforderungen und sozialen Auswirkungen von Künstlicher Intelligenz (KI) und Robotern in der Gesellschaft. Bezüge zu Isaac Asimov sind bei dem Thema nicht zufällig.

Als erstes herzlichen Glückwunsch zur erfolgreichen Dissertation. Kommen wir gleich zum Thema, der Titel ihrer Promotionsarbeit „Soziale und moralische Maschinen: Die Wahrnehmung verkörperter digitaler Technologien“ sagt einiges über ihr Forschungsgebiet aus. Das Thema, was mich umhertreibt, ist Künstliche Intelligenz, oder Maschinenintelligenz. Verkörperte digitale Technologie, da reden wir nicht nur, aber auch von Robotern?

Genau, so ist es.

Ein Roboter ist für mich „KI auf zwei Beinen“, oder auch auf vier Beinen. Man hatte ja letztes Jahr, bei der SPIN2030 in Leipzig, ganz groß auf dem Tablet von Pepper stehen „ChatGPT“.

Dazu vielleicht gleich die Einschränkung, nicht jeder Roboter ist mit KI ausgestattet. Es gibt natürlich die Roboter, die mit KI ausgestattet sind. Es gibt auch Roboter, die im Prinzip per Joystick gesteuert werden. Das heißt, da ist immer eine Person in Hintergrund, die steuert den und die steuert auch sämtliche Reaktionen. Das heißt, wir sprechen in dem Kontext nicht nur von KI, sondern primär von der Verkörperung von digitalen Technologien.

Wenn ich es richtig verstanden habe, beschäftigen Sie sich also mit dem Zusammenspiel oder Zusammenleben von Mensch und Maschine. Dafür verwenden Sie den Begriff „Hybride Gesellschaft“. Was ist das und brauchen wir dazu jetzt eine spezielle Psychologie? Wo liegen die Herausforderungen?

Vielleicht ganz kurz zur Erklärung, was sind „Hybride Gesellschaften“. Hybride Gesellschaften setzen sich primär zusammen aus einerseits Menschen, wie sie bisher in unserer Gesellschaft natürlich existieren, andererseits aber auch mit künstlichen Akteuren, die zunehmend eine Rolle spielen werden. Und zwar nicht nur im privaten Kontext, ich bin eher im öffentlichen Bereich unterwegs, denken wir beispielsweise an Pepper. Sie haben Pepper schon angesprochen.

Pepper als Concierge?

Als Concierge beispielsweise, oder denken Sie an Putzroboter, die im öffentlichen Raum auf Bahnhöfen unterwegs sind. Auch das sind natürlich Roboter, wo es drauf ankommt, weiß ich überhaupt, was der da macht und muss ich das überhaupt wissen? Das heißt, es geht immer um das Zusammenspiel der, wir nennen sie „incidental users“, also zufälligen NutzerInnen.

Das heißt, den Personen, die kein Vorwissen haben, die Laien sind, die sich damit auch nicht befassen müssen und sollen. Aber die diesen Robotern trotzdem im gesellschaftlichen Leben, in ihrem Alltag begegnen und dann mehr oder weniger mit diesen interagieren. Da gibt es diese Begegnungen, in denen keine Interaktion stattfindet, sondern wo ich nur sage: Da ist ein Roboter.

Aber es gibt auch Situationen, wo ich mit denen tatsächlich in Interaktion trete. Und das sind dann die, wo psychologische Fragestellungen eine Rolle spielen. Das heißt, einerseits aus der Sozialpsychologie die soziale Wahrnehmung, andererseits aber auch persönlichkeitspsychologische Konstrukte, wie: Welche individuellen Unterschiede sind in der Person begründet und was für einen Einfluss haben die auf die soziale Wahrnehmung oder auf die Interaktion an sich? Das vielleicht mal zur Begrifflichkeit der hybriden Gesellschaften.

Die Herausforderungen sind vielschichtig und die sind nicht nur psychologischer Natur. Ich möchte unbedingt auf die Interdisziplinarität dieses Themas hinweisen. Im Sonderforschungsbereich „Hybrid Societies“ arbeiten Fachleute aus unterschiedlichsten wissenschaftlichen Disziplinen, unter anderem Maschinenbau, Jura, Sozialpsychologie, Persönlichkeitspsychologie, Sprachwissenschaften.

Wir haben viele verschiedene Disziplinen, weil alle ihre eigenen relevanten Fragestellungen reinbringen. Rechtliche Belange spielen da auch eine Rolle: Was passiert, wenn der Roboter etwas kaputt fährt? Das sind Punkte, die von den JuristInnen bearbeitet werden.

Das Thema der Hybriden Gesellschaften umfasst viele verschiedene Punkte, die auch von unterschiedlichen Disziplinen erörtert und diskutiert werden müssen. Und das möglichst jetzt, bevor es tatsächlich dazu kommt, dass diese Gesellschaften existieren. Wenn wir uns erst dann Gedanken machen, wenn sie da sind, dann ist es vielleicht ein zu spät. Wir sollten das schon vorher klären.

Darauf komme ich zum Schluss nochmal zurück. Menschen betrachten ja Roboter auf verschiedene Weise, nützliches Werkzeug, interessantes Spielzeug, Haussklave, Konkurrenz, Gefahr. Der Saugroboter ist sozusagen der Haussklave. Sie sprechen in Ihrer Dissertation auch von Integration in die menschliche Gesellschaft. Was ist damit gemeint?

Serviceroboter Plato. Foto: Thomas Köhler
Serviceroboter Plato. Foto: Thomas Köhler

Vielleicht am Beispiel eines speziellen Typs der Roboter erklärt, und zwar der Telepräsenzsysteme. Das sind Systeme, die im Prinzip menschgesteuert sind. Ein konkretes Beispiel, ich sitze hier in Chemnitz, jemand in meiner Heimatstadt Wien möchte mit mir in Verbindung treten. Dieser hat beispielsweise einen Double-3-Roboter. Das ist so ein kleines, fahrendes Ding mit einem Tablet obendrauf. Per Video kann ich dann direkt mit dieser Person kommunizieren, als wären wir in einer Videokonferenz.

Ich kann aber auch durchs Institut laufen und der Person dann unterschiedliche Dinge zeigen. Und die Person kann diesen Telepräsenzroboter auch selbst steuern. Wenn ich sage, schau mal da, dann kann sie ihn dort hinsteuern und das persönlich über die Webcam wahrnehmen. Das ist jetzt in dem Kontext natürlich einfach nur eine nette Spielerei.

Wenn wir aber an Gefahrensituationen denken, also an Gasexpositionen oder so, da möchten wir keine Menschen reinschicken. Da wäre dann ein Telepräsenzsystem, das wir da rein schicken und uns live über die Videokamera eine Einschätzung des Schadens machen können.

Ich kann Telepräsenzsysteme auch in unterschiedlichen Ausführungen haben. Ich kann welche haben, die als Transportmittel dienen, oder welche mit Feintuning, das heißt die haben kleine Händchen und können dort damit umgehen. Es geht um die Integration dieser Systeme in die Gesellschaft. Beispielsweise werden Telepräsenzsystem im schulischen Kontext schon eingesetzt.

Kinder mit chronischen Erkrankungen, die nicht in die Schule gehen können, können über diese Telepräsenzsysteme in Interaktion mit den KollegInnen, mit den Peers reden.

Kommen wir zu den Robotern an und für sich. Sie unterscheiden Industrieroboter, soziale Roboter und androide Roboter. Erstere sind klar, wie definieren Sie die beiden anderen?

Roboter Navel. Foto: Thomas Köhler
Roboter Navel. Foto: Thomas Köhler

Soziale Roboter können unterschiedlicher Natur sein, die können als Tiere designt werden, wenn sie an „Sony Aibo“ denken, oder als menschenähnlich wie beispielsweise Pepper oder auch Navel, den wir bei unserer Professur für unsere Forschung nutzen. Der Kern dieser Roboter ist immer, dass sie designed sind für die Interaktion mit Menschen. Die haben üblicherweise Sensoren, die Bewegungen wahrnehmen, Audioausgänge, aber auch Audioeingänge und sie sind üblicherweise eher freundlich designed.

Das sind selten Roboter, die gruselig oder irgendwie sehr gefährlich aussehen. Das heißt, die sind eher für ältere Personen in Pflegeheimen, die dann vielleicht durch Pepper animiert werden oder Kinder mit Autismusspektrumsstörungen, die mit Kaspar interagieren.

Da gibt es verschiedene Varianten, wie Paro, die Roboterrobbe bei Demenzkranken. Androide Roboter hingegen sind ganz stark menschenähnlich designed, da geht es um das genaue Abbild eines Menschen. Das sind Roboter, denen begegnen wir so noch nicht. Die sind wirklich für Forschungszwecke. Das ist eine Handvoll Roboter.

Der soziale Roboter, das wäre zum Beispiel Pepper. Der niedliche oder knuffige, wie man es nennen will. Zu den Androiden gehört auch Ameca, dem bin ich ja schon begegnet. Wie reagieren denn Menschen im ersten Kontakt auf diese unterschiedlichen Roboter?

Roboter Ameca. Foto: Thomas Köhler
Roboter Ameca. Foto: Thomas Köhler

Dazu gibt es tatsächlich, wie es so oft in der Wissenschaft ist, unterschiedliche Befunde. Einerseits haben wir den Begriff des „Uncanny Valley“, der ein ganz bekannter Begriff aus der Robotikforschung ist. Das Uncanny Valley beschreibt, dass Roboter, je menschenähnlicher sie designt sind, desto positiver werden sie wahrgenommen, bis zu einem gewissen Punkt.

Dieser ist dann das Uncanny Valley. Das heißt, wenn sie fast menschenähnlich sind, aber dann so kleine Ungereimtheiten da sind. Beispielsweise keine oder zu schnelle Atmung, oder keine oder zu schnelle Augenbewegungen. Dann wird’s gruselig. Sie kennen das vielleicht von Porzellanpuppen, wenn die falsch designed sind. Ähnlich ist es bei Robotern.

Wenn sie dann wieder ganz menschenähnlich sind, dann fällt es auch wieder weg, dann werden sie sehr positiv wahrgenommen. Das heißt, es ist wirklich so dieser Bereich zwischen menschenähnlich, aber nicht ganz menschenähnlich und sehr menschenähnlich.

Ich fand es spannend, als ich Ameca kennenlernte. Es war eigenartig, menschenähnlich, aber nicht menschlich, das war ein eigenartiges Gefühl.

Genau, das ist genau dieser Begriff, des Uncanny Valley. Eine Anekdote aus meinem Forschungsalltag, als wir zu der „Sozialen Wahrnehmung von Telepräsenzsystemen“ mit Pepper geforscht haben. Unsere Proband/-innen fanden in der letzten Studie Pepper so ablenkend und dann schon etwas gruselig.

Weil Pepper immer wieder mal zwischendrin Bewegungen mit den Händen, mit dem Körper macht. Und die ProbandInnen waren im ersten Moment völlig begeistert: „Boah, ein richtiger Roboter“. Und dann, wenn der sich hinten bewegt und sie gar nicht wussten warum, war es eigentlich schon gruselig. Das heißt, auch da kippt es schon in dieses: „Ich bin mir nicht ganz sicher, ob ich das so gut finde.“

Wenn der Roboter, nehmen wir Pepper, der ja dieser knuffige Typ ist, Menschen Anweisungen gibt, wie reagieren die darauf?

Roboter Pepper. Foto: Thomas Köhler
Roboter Pepper. Foto: Thomas Köhler

Auch hier wieder unterschiedliche Ergebnisse, wie immer. Grundsätzlich gab es in einer Studie mit verschieden designten Robotern keinen Unterschied, für die Probanden war das eher so: „O.k., das ist halt ein künstlicher Agent, der mir den Weg weist.“ Das hängt mit der sozialen Wahrnehmung zusammen. Das heißt, inwieweit schätze ich den überhaupt als so kompetent ein, dass er mir Anweisungen geben kann?

Inwieweit traue ich ihm zu, dass er weiß, wo ich hin möchte? Andererseits gibt es auch Studien, in denen das in die Richtung kippt, dass man der Technik zu sehr vertraut. Also dass man sagt, Menschen machen Fehler, Technik macht keine Fehler. Schwierig.

Das war in einem Beispiel einer Studie, dass die Personen einem Roboter gefolgt sind, der sie nicht ins Freie geführt hat, sondern zur Gefahr hin. Und die Menschen meinten, der Roboter weiß das doch. Wusste er in dem Moment nicht. Das heißt, man glaubt trotzdem eher an die Technik. Da gibt es viele Knackpunkte, die da eine Rolle spielen. Das Design wird auf jeden Fall eine Rolle spielen. Ich muss das irgendwie auch empfinden, ich muss diesen Roboter so sehen, dass ich dem auch vertrauen kann.

Vertrauen ist ein ganz großes Thema bei uns, auch in meiner Forschung. Ich muss den Roboter als kompetent genug empfinden. Und ich muss natürlich auch von meiner Seite aus bereit sein, mit einem Roboter zu interagieren. Das ist auch nicht immer der Fall.

Ein wichtiger Aspekt in Ihrem Forschungsinteresse ist, moralische Entscheidung durch künstliche Entitäten. Kann diesen denn überhaupt eine Moral implementiert werden?

Das ist gleich so die große Frage. Böse Frage!

Wir sprachen am Rande des Wissenschaftskinos schon mal ein bisschen über unseren Freund Isaac Asimov, der gemeint hat: Drei, später vier, Robotergesetze genügen. Geht das überhaupt mit diesen moralischen Entscheidungen?

Als Spoiler, also das wird in nächster Zeit eher nicht der Fall sein. Ein Punkt ist der, es wäre auf jeden Fall immer kulturabhängig, ich kann nicht eine Moral überkulturell festlegen. Das zeigt sich in ganz verschiedenen Aspekten. Wenn wir ans Moral Machine Experiment von Awad und Kollegen denken, die haben Millionen von Datenpunkten weltweit gesammelt und festgestellt, dass es zumindest drei große Cluster gibt, in die sich die einzelnen Regionen einordnen und die unterschiedliche Präferenzen hatten.

Das heißt, wenn wir jetzt wirklich in die Moral-Thematik reingehen, wir werden es nicht schaffen, dass wir das weltweit hinbekommen. Dazu stellt sich die Frage, sind Menschen überhaupt der Goldstandard für moralisches Entscheiden? Man weiß es nicht.

Also, unter uns, ich würde es anzweifeln, aber grundsätzlich müssten wir uns auch entscheiden: Was für eine Art Moral möchten wir haben? Da gibt es ja auch Unterschiede. Möchte ich eher in die Richtung deontologischer Moralvorstellungen oder anderer Theorien gehen? Wie soll eine künstliche Entität das entscheiden, wenn wir Menschen uns schon damit schwertun?

Das Begeisternde an Asimov und seinen Robotergesetzen war für mich, dass er so einen minimalistischen Konsens vorausgesetzt hat. Und im Weltstandard werden wir wohl über einen minimalistischen Konsens nicht hinausgehen können.

Werden wir nicht. Tatsächlich gibt es in der Moral Machine Experiment-Studie einen Unterschied zwischen westlichem und östlichem Cluster in Europa. Da sind wir wirklich in einem ganz engen Bereich. Ich möchte auch gerne wissen, würden Menschen es überhaupt akzeptieren, würden sie die Entscheidungen von künstlichen Entitäten tatsächlich besser bewerten?

Das kann ja auch eine Variante sein, dass man sagt, aber die macht das auf Basis von vorgegebenen Algorithmen. Die aber natürlich, und das führt uns zum nächsten Problem, die immer auf Basis von Daten entstehen. Und die Daten können ja schon in unterschiedlichster Weise gebiased sein. Das heißt, die Thematik ist einfach so vielschichtig, dass wir uns immer nur kleine Punkte davon ansehen können.

Ich führe gerade eine Studie zu unterschiedlichen Entscheidungen durch, die einmal von einem Menschen, einmal Maschine, im Sinne von verkörperten digitalen Technologien, getroffen wird. Gibt es da Unterschiede, wie Menschen denen dann vertrauen, inwieweit sie denen zustimmen. Da gibt es Unterschiede, in verschiedenen Aspekten. Es gibt einerseits High-Stake-Dilemmata, also das sind Dilemmata, wo es tatsächlich tödliche Ausgänge gibt.

Wir kennen wahrscheinlich alle das Trolley-Dilemma, in dem es darum geht, dass ein Wagen auf Schienen unterwegs ist, wo die Entscheidung steht, ob entweder eine Person oder fünf Personen getötet werden, dazu müsste man die Weiche umstellen.

Andererseits Low-Stake-Szenarien, bei denen es um durchaus relevante Punkte geht, die aber keine tödlichen Ausgänge haben. Also beispielsweise soll einer Person Bewährung bewilligt werden, oder nicht?

Wir haben aktuell das Thema Einsatz von KI in der Bewerbungssituation. Viele sagen, das Ergebnis nochmal von Menschen geprüft werden, weil ein Mensch sagen kann: Ich frage noch mal nach. Wenn die Bewerbungen von einer KI bewertet wird, ist das kritisch?

Es ist kritisch, aber ich glaube, es gibt da auch kein wirkliches richtig oder falsch. Ich glaube, man muss das einzelfallabhängig machen, denn eine KI würde eventuell Punkte wie Geschlecht, Alter und so etwas vielleicht ausklammern. Vielleicht aber auch nicht, und das wissen wir nicht. Das liegt in den Algorithmen.

Eines der nächsten geplanten Gespräche ist zu Machine Learning, also zur Auswahl von Trainingsdaten und wie eine KI trainiert wird. Es gibt einen menschlichen Einfluss, denn die KI ist ja nur so gut wie der Algorithmus und wie die Trainingsdaten. Ich habe im vorigen Jahr einen ersten Artikel über KI geschrieben. Da habe ich zum Schluss bemerkt: „Was wir wirklich brauchen, ist die Technikfolgenabschätzung bereits bei der Entwicklung.“ Sie beschäftigen sich ja nun schon mit den Technikfolgen. Was passiert in der Gesellschaft? Die sozialen und androiden Roboter haben ja Einfluss darauf. Zum Schluss habe ich dann geschrieben: „Wir brauchen nicht Susan Calvin als Roboterpsychologin, wir brauchen eher WissenschaftspsychologInnen.“ Das sind Sie jetzt.

Dann versuche ich mich mal in diese Rolle einzufinden. Wie soll ich das beantworten? Im Prinzip stimme ich zu, wir müssen uns auf jeden Fall mit den Folgen beschäftigen und wir sollten es jetzt machen. Wir sollten das jetzt machen, bevor die Dinge tatsächlich in Massenproduktion gehen. Momentan merke ich in meinen Studien, die Leute haben noch nicht wirklich Anknüpfungspunkte oder Berührungspunkte mit den Robotern, die ich für meine Forschung nutze.

Aber das wird in den nächsten Jahrzehnten zu einem gewissen Teil kommen. Ich glaube nicht so schnell, wie wir es uns jetzt denken, es braucht wohl doch noch etwas länger, bis es massentauglich ist. Wir sollten uns jetzt überlegen, was wollen wir, dass die dürfen.

Ein ganz wichtiger Punkt ist, sollen die überhaupt Rechte bekommen? Das ist natürlich dann das nächste, da geht es um juristische Fragestellungen. Wenn wir die Roboter menschenähnlich designen, wenn die im Prinzip ihre eigenen Lernalgorithmen haben, sich auch selbst weiterentwickeln, sind wir dann ganz wahrscheinlich auch in verschiedensten dystopischen Romanen.

Es gibt ja diese zwei Szenarien. Das eine ist R Daneel von Asimov und das andere ist Golem von Stanislaw Lem, Sie kennen die beiden. Wo entwickelt sich das hin? Golem war hochintelligent, er hat sich abgeschaltet, hat gesagt, ihr seid mir einfach zu blöd. Und R Daneel ist ja letztendlich auch verschwunden. Ich bin kein Technik-Skeptiker, es stellt sich aber die Frage: Vertraut der Mensch der Technik und wie weit vertraut er ihr?

Ich glaube, zwei Punkte sind da ganz wichtig. Ein Punkt ist, dass wir schauen müssen, dass die Menschen drin bleiben in der Loop. In Fachbegriffen „Human in the loop“. Das heißt, dass wir Menschen schlussendlich immer mitnehmen, gerade wenn wir jetzt an Militärtechnologien denken, mit denen ich mich nicht beschäftige, die aber immer wieder eine Rolle spielen, auch hinsichtlich Vertrauen, auch hinsichtlich moralischer Entscheidungen.

Das ist natürlich eine der Technologien, die da ganz vorne auch besprochen werden müssen, dass wir dann aber nicht sagen, wir nehmen uns als Menschen raus aus der Verantwortung, sondern dass ein Mensch verantwortlich ist und dass wir nicht sämtliche Verantwortung abtreten können.

Das Thema sehe ich als absolut schwierig an, aus einem ganz einfachen Grund. Ich bin gegen autonome Waffen. Vollautonome Waffen sind ein no-go. Die andere Seite ist aber: Wie gut bilden wir den am Abzug aus, dass der nicht die Empfehlung der KI zum Schießen als Befehl zum Schießen betrachtet? Also, dass er nicht am Ende ein ausführendes Element ist.

Ein absolut valid point.

Für mich ein ganz wichtiges Thema und das Thema habe ich schon mit einem Philosophen und Lehrer besprochen, diese ganze Entwicklung bedeutet, dass wir eine weitaus bessere Bildung brauchen. Wir müssen ja die Entscheidung einer künstlichen Intelligenz auch bewerten können.

Schon bei ChatGPT, da fängt es an, dass wir wissen müssen, das greift auch nur auf Daten zurück, die können fehlerhaft sein. Und Entscheidungen von künstlichen Intelligenzen, nenne ich es jetzt mal als Überbegriff, die müssen nicht korrekt sein.

Im meinem ersten Artikel zu ChatGPT hatte mir das Programm eine dritte Strophe vom „Heideröslein“ geliefert, die im Original nicht existiert. Wahrscheinlich wurde ihm bei den Trainingsdaten nur die erste Strophe eingelesen, aber ihm war bekannt, dass das Gedicht drei Strophen hat. Also musste er die erfinden. Ergo, wenn ich die auch nicht kenne, dann kann ich das Ergebnis nicht bewerten. Wenn Sie in der Psychologie mit KI arbeiten und Sie nicht mehr in der Lage sind, die Vorschläge der KI zu bewerten, darf das überhaupt sein?

Definitiv nein. Wir müssen auf jeden Fall das auch noch mal in den Fokus stellen, dass wir kritisch denken, dass wir auch Entscheidungen oder Ideen, die beispielsweise ChatGPT liefert, dass wir die auch nochmal hinterfragen, dass die nicht der Weisheit letzter Schluss sind.

Und dazu gehört Bildung, immer höhere Bildung. Ansonsten landen wir in einer Zweiklassengesellschaft, die einen wissen, der kann sich irren und die anderen vertrauen.

Das ist auch ein Punkt, der von vielen Forschern kritisch gesehen wird, da geht es um explainability (Erklärbarkeit) und Transparenz und auch um Erklärbarkeit für Personen, die Laien sind, auch für Menschen mit geistigen Behinderungen, für Kinder, für Eltern die sich damit nicht auskennen, dass sie trotzdem in dem Moment, wo sie mit so einer Technik in Interaktion treten wissen, was macht die, was kann die und was kann sie nicht. Das ist vielleicht der größere Punkt: Was kann sie nicht?

Wenn ich mir vorstelle, ich stelle einen Roboter als Interaktionspartner für eine ältere Person in einen Raum. Die Person soll mit dem interagieren. Da gibt es Datenschutzbedenken, der hat eine Videokamera, zeichnet irgendwelche Daten auf, wo sind die gespeichert? Erster Punkt, juristische Fragestellung. Zweiter Punkt, die Person muss wissen, dass das kein Mensch ist, der damit ihr interagiert.

Da geht es um Punkte wie Täuschung. Täuscht dieses System vor, dass es mehr kann, dass es Emotionen erkennen kann, dass es selber Emotionen empfindet? Das kann es nicht. Wie auch? Und das muss der Person klargemacht werden, die damit interagiert, dass sie schlussendlich mit einer Maschine interagiert, dass das kein Mensch und auch kein Menschenersatz ist.

Also das gleiche Problem, welches wir jetzt schon bei Sprach-Chatbots am Telefon haben. Es muss klar sein, dass ich mit dem Chatbot rede und nicht mit einem Menschen. Die Stimmen werden immer ähnlicher, die Reaktionen werden immer ähnlicher, aber es bleibt eine Maschine. Dazu kommt, der Chatbot zeichnet alles auf.

Es gibt da schon auch Worterkennungs-Systeme, aber es geht auch sehr viel um Kontext. Es geht um Betonungen. Es geht darum, in welchem Kontext sage ich was. Und was für mich halt ein ganz wesentlicher Punkt ist, ich darf Menschen nicht vortäuschen, dass sich da mehr dahinter verbirgt, als es tatsächlich ist.

Und wir sind da gerade an so einem Knackpunkt, nicht mal absichtlich, aber ganz oft werden über Science Fiction Erwartungen geweckt, die schlussendlich nicht erfüllt werden können.

Ich denke, dass wir uns dessen bewusst sein müssen: Alles, was menschlich an dem Roboter ist oder sein wird, ist ein Imitat. Es ist kein Original.

Industrieroboter. Foto: Thomas Köhler
Fremdartig erscheinend, da kein menschenähnliches Design: ein Industrieroboter. Foto: Thomas Köhler

Es ist kein Mensch. Punkt. Das ist genau der Punkt, der einfach für mich ganz relevant ist und mit dem wir arbeiten. Natürlich versuchen wir herauszufinden, wie menschenähnlich soll ein Roboter gestaltet sein. Einfach, weil wir als Menschen dazu neigen, mit etwas gut zu kommunizieren, was uns relativ ähnlich ist, was einen Kopf hat, was vielleicht Augen und einen Mund hat.

Das kennen wir als Menschen, damit interagieren wir von klein auf. Das heißt, es ist einfacher, als wenn wir einen sehr industrielastig gestalteten Roboter haben, der auf vier Rädern fährt.

Obwohl in einer Rettungssituation die Leute vielleicht lieber einem Schäferhund-Roboter hinterherlaufen würden als Menschen. Weil der Hund bekannt ist als Rettungshund.

Okay, vielleicht. Kontextabhängigkeit ist auch ein ganz großer Punkt. Aber grundsätzlich: Wir interagieren leichter mit Dingen, die wir kennen, die auf uns menschenähnlich wirken. Und da müssen wir aufpassen. Das ist auch einer meiner Forschungspunkte. Wie weit sollen wir da gehen? Wo ergibt das Sinn?

Ein Beispiel, mit dem ich mich befasse, das ist Gender, Gender bei Robotern. Hat es Sinn, dass ich die irgendwie männlich oder weiblich konnotiert designe? Ja, macht es tatsächlich. Ich muss aber aufpassen, dass ich da keine Stereotype verstärke, das bringt ganz neue ethische Probleme mit sich.

Es ist nicht witzig in der heutigen Zeit, dass Leute sich immer noch fragen, wenn eine Frau ein technisches Problem erklärt, ob sie kompetent ist.

Genau, Sie sagen genau dieses Wort.

Und wenn ein Mann über Säuglingspflege redet: Ob der kompetent ist?

Aber Sie sagen da genau das richtige Wort Kompetenz. Es gibt tatsächlich Studien dazu. Roboter, die in der Pflege eingesetzt werden, sollten tendenziell eher weiblich konnotiert sein, in der Sicherheit eher männlich. Das bringt uns natürlich zu der Frage: Wollen wir das überhaupt? Ich will es nicht. Also ich möchte schon auf eine eher egalitäre Ebene, dass wir sagen: egal.

Oder wir machen sie gleich androgyn?

Das funktioniert gar nicht, das wird aus mehreren Aspekten schwierig. Es gibt Studien dazu, dass das viel weniger akzeptiert wird. Es wirkt dann schon wieder sehr uncanny, das wirkt dann schon wieder eigenartig und Stimmfärbung tatsächlich in neutral zu erwischen ist ganz schwierig. Das wirkt dann irgendwie seltsam. Ist ein spannendes Thema, wirklich eines meiner Herzensthemen, mit dem ich mich super gerne beschäftige.

Das war ja auch einer meiner Gründe für unser Gespräch. Man denkt bei KI und Robotern immer an Technik, aber was dahinter steckt an Psychologie, für die Gesellschaft und für den Menschen, das fällt ja immer so ein bisschen unter den Tisch. Deshalb hatten wir am Anfang auch die Einstiegsfrage: Brauchen wir das überhaupt?

Ja, unbedingt, definitiv. Wenn wir zum Beispiel überlegen, wenn wir von ChatGPT reden, wir geben was ein, was macht er draus? Warum ist er ein „er“? Es ist ein „es“, es ist eine KI. Wir neigen aber dazu. Wir sind Menschen, wir neigen dazu, dass wir Assoziationen bilden. Die zu erforschen, ist natürlich spannend.

Das „er“ kommt ja im Prinzip von der Presse, weil es immer heißt: der ChatGPT, der Chatbot. Ich nehme mich da nicht aus, es ist halt so einfach.

Ja, genau, es ist tatsächlich für mich ein unheimlich spannendes Thema. Und wir sind da auch noch nicht am Ende mit der Forschung. Wir machen da mit jeder Tür, die wir öffnen, 20 neue auf.

epaper
Cover Leipziger Zeitung Nr. 124, VÖ 03.05.2024. Foto: LZ

Zum Schluss noch ein kleines bisschen Ausblick. Wie geht denn das Ganze weiter? Es sind die ersten Versuche, die Sie, letzten Endes unter Laborbedingungen, durchführen.

Genau. Es gibt momentan einen Trend in der Forschungslandschaft, dass wir wieder weggehen von anthropomorphen, also menschenähnlichen, Robotern, dass wir eher wieder hingehen zu anders designten Robotern. Ich weiß nicht, inwieweit das dann tatsächlich so bleibt. Wir müssen auch immer daran denken, Forschung ist nur die eine Sache, was wird von den großen Konzernen dann auf den Markt gebracht, ist die andere.

Ich denke, es ist trotzdem wichtig, dass wir uns weiterhin damit beschäftigen, wie menschenähnlich wollen wir es und was macht es mit uns als Menschen. Ich denke, dass wir sehr, sehr viele positive Aspekte mitbekommen. Wenn ich jetzt an 2020 denke, an die Covid-Pandemie. Für Personen, die in Krankenhäusern ohne Kontakt zu Außenwelt waren, da hätte ein Telepräsenzsystem uns schon weiterhelfen können.

Oder wenn wir dadurch älteren Personen die Möglichkeit bieten können, dass sie länger alleine und autonom zu Hause sind, weil sie einen Roboter haben, der ihnen beispielsweise aufhelfen kann, der an Tabletteneinnahmen erinnert. Das sind positive Aspekte, die sehe ich absolut positiv.

Wir dürfen aber nicht anfangen zu denken, wir könnten da irgendwie Roboter, die statt uns leben schaffen. Ich denke jetzt an den Film bzw. das Buch Surrogates. Das wird es nicht werden. Und wir müssen auch überlegen, inwieweit sollen wir Regeln aufstellen, wie man mit Robotern umgeht. Da gibt es so viele Aspekte, die Beachtung finden müssen.

Aber ich glaube, wir sind auf einem Weg, der uns geradezu an den Scheideweg führt. Wie wollen wir es? Wie werden wir weitermachen? Ich erinnere mich an einen Kommentar beim Wissenschaftskino: „Es ist relativ egal, was wir wollen, es werden dann schlussendlich die großen Player entscheiden, maybe“. Aber ich kann trotzdem für mich entscheiden? Will ich da mitgehen oder will ich es nicht?

Es wird sich technologisch nicht heute, aber in 10–20 Jahren, vielleicht nicht mal so lange, für ganz viele Sachen ein Roboter entwickeln lassen. Ich denke jetzt nur mal an die Pflege im Krankenhaus, Altenheim und so weiter. Für mich als Mensch stellt sich die Frage: Wollen wir das Pflegepersonal damit unterstützen, oder dadurch ersetzen?

Das ist genau der Punkt. Wenn ich mir vorstelle, ich habe einen Pflegeroboter, der die harte Arbeit verrichtende Pflegepersonal unterstützt, dann hat das Pflegepersonal mehr Zeit und könnte die freigesetzte Zeit in eine soziale Interaktion investieren, was ich absolut begrüßenswert fände. Ich glaube, da sind wir uns einig, dass das eigentlich eine schöne Entwicklung wäre.

Wenn ich aber sage, ich lege die Leute nur noch durch Roboter, ich lagere die nur noch durch Roboter um beispielsweise und die sehen dann gar keine Menschen mehr oder nur noch via Tablet, das möchte ich nicht. Das ist keine Zukunft, in der ich gerne leben möchte.

Das heißt, ich glaube, es kommt wie immer, wie in fast allen Aspekten auf die Abwägung ab an. Wir müssen einerseits schauen, was funktioniert, was kriegen wir auch technisch hin. Und da gibt es noch so viele Probleme. Also da gibt es noch ganz viele Punkte, wo ich denke, na das wird schwierig.

Ob wir dann mal da landen, wo Asimov mit seiner Foundation gelandet ist, dass nämlich im Foundation-Projekt der letzte Roboter verschwindet und zum Mythos wird, weil die Menschen sich gegen die Roboter entscheiden, das ist die große Frage.

Ja, genau. Ich würde jetzt mal davon wirklich absehen, ich denke nicht, dass wir so weit kommen. Ich bin eher skeptisch, ich denke da beispielsweise an Haut und Sensorik. Da wird schon so lange dran herumentwickelt.

Zu der ganzen Thematik gehört ja auch die Prothetik. Es ist ja Wahnsinn, was da passiert ist. Ich denke an Ihren Kollegen hier in Chemnitz, den Prof. Bertolt Meyer.

Ja, wir haben zusammen tatsächlich auch Projekte.

Ja, es ist vieles passiert, was unheimlich positiv ist. Was dann aber bei manchen Menschen schon wieder zu den Befürchtungen des Transhumanismus führt. Wenn man dann noch Elon Musk hört, der einen Gehirn-Chip implantieren will und andere Dinge. Das ist aber nicht unser heutiges Thema, obwohl wir alle Science-Fiction-verseucht sind. Das war’s von meiner Seite. Ich bedanke mich vielmals bei Ihnen, Frau Dr. Mandl und viel Erfolg weiterhin.

Vielen Dank für Ihr Interesse. Alles Gute.

„KI, Roboter und Mensch – brauchen wir dafür Psychologie, Frau Dr. Mandl?“ erschien erstmals im am 03.05.2024 fertiggestellten ePaper LZ 124 der LEIPZIGER ZEITUNG.

Sie wollen zukünftig einmal im Monat unser neues ePaper erhalten? Hier können Sie es buchen.

Empfohlen auf LZ

So können Sie die Berichterstattung der Leipziger Zeitung unterstützen:

Keine Kommentare bisher

Schreiben Sie einen Kommentar