Johannes Wobus ist Mitinhaber der Firma Wobus & Wächter, einem Service-Unternehmen für Datenanalysen. Er hat als Kenner der Materie auch an einem interaktiven Projekt mit dem Namen Made to Measure teilgenommen, bei dem es darum ging, Nutzern von Google und Facebook zu zeigen, wie viele Daten diese Unternehmen über sie sammeln und wie man daraus ihre komplette Persönlichkeit rekonstuieren kann.
Johannes Wobus : Das war ganz witzig, Made to Measure. Hast du gesehen, wie der Vorgängerfilm heißt? Nee. The Cleaners?
Erzähl mal was über das Projekt! Du kannst es besser zusammenfassen als ich.
Das ist eigentlich ganz simpel. Die Regisseure, die Truppe hinter Made to Measure, haben mich gezielt angesprochen, weil ich mich gerade auf LinkedIn massiv gestritten hatte mit der Pro-TikTok-Fraktion. Ich hatte immer eine gewisse Expertise im Hintergrund aufgebaut, im Bereich der Erhebung von Datensätzen über Social Media. Damals war ich sehr aktiv in dem Kontext Twitter und Instagram.
Worum ging es da?
Ich erinnere mich zum Beispiel noch sehr gut daran, als meine zwei Neffen und die Nichte so ein bisschen ausgerastet sind. Die hatten mich besucht und meine Schwester klagte mir ihr Leid: Meine Kids sind nur noch im Internet. Mach mal deine Onkelpflichten, sei mal ein bisschen streng. Ich habe zu den Kids gesagt: Wir machen eine coole Onkel-Nichte-und-Neffen-Zeit.
Ihr könnt die ganze Nacht ausgehen, surfen, Netflix gucken, aber wir reden darüber am nächsten Tag. Dann habe ich ihnen am Morgen gesagt: Ich weiß, wo ihr wart. Wie? Kommt mal ran, zum Rechner, Klimper, Klimper, Klimper, an meine Instagram-Daten ran. Datei aufgemacht: Ihr wart zu dem Zeitpunkt auf der Party und habt das gemacht, ihr wart an diesem Ort, davor wart ihr an diesem, diesem, diesem, diesem Ort.
Und sie: Woher weißt du das? Weil ihr das auf Instagram gepostet habt, unter Verwendung von bestimmten Hashtags, bestimmter Sprachfarbe und bestimmten Location-Tags.
Das war damals mein Einstieg, Spuren im Netz und die Irrsinnigkeit, dass man das freiwillig preisgibt. Und die drei Kids: Oh Johannes, verrat’s nicht der Mutter! Meine Schwester hat tatsächlich nie was davon erfahren.
Dafür gibt es aber genau zwei Bedingungen: Erstens: Die Noten werden besser. Zweitens: Ihr passt sämtliche Datenschutzeinstellungen und euer Posting-Verhalten ab sofort an und informiert alle, die ihr kennt. Das geht jetzt teilweise sogar so weit, dass der Große von meiner Schwester mich anruft und mich gesten- und wortreich diszipliniert, wenn er der Meinung ist, ich baue Scheiße im Internet.
Also ihr überwacht einander.
Genau. Letztens hat er mich wieder besucht und hat gesagt: Johannes, wieso verwendest du Bluetooth Geräte? Bist du irre? Da hab ich erst mal so eine Art Sensibilisierung entwickelt. Und da bin ich in eine Phase reingerutscht, wo ich zum Beispiel auf LinkedIn ständig mit Werbetreibenden gestritten hatte. Als sie angefangen haben, diese Datenschleuder TikTok zu bespielen oder Chat House und teilweise auch WhatsApp. Gibt es Chat House noch?
Ich habe lange nichts davon gehört.
Und meine Streitlust, du hast wahrscheinlich auch gesehen, dass ich sehr meinungsstark auftreten kann. Das hatten dann die Regisseure rund um The Cleaners mitbekommen und sprachen mich dann gezielt an: Hast du Bock da mitzumachen? Ja, kein Thema, wenn es etwas bringt, bei einem gewissen pädagogischen Nutzen. Und darum geht es ja bei Made to Measure.
Ich kippe Daten ein bei Google, über mein normales User-Verhalten und Google verwurstelt die Daten so, dass, wenn ich emotional verstimmt bin, dann habe ich ein ganz anderes Sprach- und Surfverhalten. Also bekomme ich dann, im krassesten Fall, Medikamente antidepressiver Natur angeboten. Das geht gar nicht.
Mein Part beim Made to Measure war es zu zeigen: Da gibt es eine Option, sich die Daten zu besorgen. Liebe Leute, seid froh, dass ich eine gewisse Moral pflege und diese Daten nicht verkaufe. Ich habe auch gezeigt, wie einfach das geht.
Du hast ja gesagt, das Projekt war dir wichtig.
Ja, das war mir tatsächlich sehr, sehr wichtig. Ich kenne ja auch gerade in Leipzig viele Lehrer. Und habe auch gesagt, kein Thema: Wenn ihr einen Termin macht mit dem Projektprogramm, ich komme da vorbei und dann quatsche ich.
Was würdest du raten? Ich meine, wir reden ja permanent über digitale und Medienkompetenz an Schulen. Was würdest du jetzt von deiner Warte aus empfehlen? Was sollen die Eltern, die Schulen denn machen? Ich meine, nicht nur sagen: Geht bitte erst mit 16 auf TikTok oder so was. Was soll man eigentlich den Kids beibringen, was sollen sie im Netz tun, lassen oder auch einfach ignorieren? Ich meine, sämtliche Kinder- und Jugendschutzfilter haben sich nicht bewährt.
Ich bin privat und inoffiziell immer mal in Workshops aktiv. Bei diesen Geschichten wähle ich immer eine Art Schocktherapie. Ich zeige meinen Leuten, wie einfach kann man Deepfakes bauen.
Ein simples Beispiel: Ich hatte eine Freundin zu Gast, die auch Lehrerin ist. Dann sage ich so zu ihr: Willst du mal wissen, was Deepfakes sind? Ja, Johannes, unbedingt. Dann sage ich so: Darf ich von dir ein Deepfake machen? Das bleibt ja ein Offline-Ding. Ja, Johannes, sehr gerne. Komm, wir machen drei Selfies. So, darf ich jetzt mal ein bisschen herumexperimentieren? Darf ich dich mal nackig machen als Deepfake? Was, das geht? Ja, das geht. Darf ich? Ja, wir sind ja unter uns, ist ja alles fake.
Hier, Klimper, Klimper, Klimper. Und dann bist du nackig. Dann sage ich: Jetzt fang mal an zu denken. Ich bin cool, ich mache da keine Scheiße. Komm, wir löschen das wieder. Jetzt fang mal an nachzudenken. Und dann klingelt es so ein bisschen im Gehirn. Und mit dieser Art Schocktherapie gehen die raus. Das wäre grandios, wenn man so etwas unter kontrollierten Bedingungen in der Schule mal zeigen könnte. Natürlich würde ich in der Schule niemals zeigen, wie man ein Deepfake baut.
Nein, aber zeigen, dass man aus diesen Bildern das machen kann.
In der Schule mache ich das zum Beispiel so: Ich nehme die Bilder, gehe woanders hin, in einen anderen Raum, sodass man die Software nicht sieht, da wird es dann gebastelt.
Du sagtest schon, was du mit deinen Nichten und Neffen gemacht hast. Also mal zum Beispiel sagen: Leute, passt auf, ich kenne euren User-Namen bei Instagram, TikTok oder sonst wo. Ich zeige euch einfach, was ihr letzte Woche alles so gemacht habt. Obwohl ich mit euch nicht verbunden bin, ich folge euch nicht, ihr folgt mir nicht, ich kann es euch aber zeigen. Das wäre eine solche Schocktherapie, wo manche vielleicht anfangen würden zu denken: Ich muss mal ein bisschen vorsichtiger sein.
Oder was ich auch mit Peter und Maria gemacht habe, ich habe mit denen ein Dreiergespräch geführt rund um Ransomware-Attacken. Und da frage ich die: Kennt ihr das? Habt ihr so etwas schon mal in der Datentiefe gesehen? Das ist auch eine Schocktherapie. Wenn ein Unternehmen zu mir kommt und Beratung sucht, dann reden wir darüber: Was befindet sich da drin, welchen Schaden kann es anrichten?
Wenn zum Beispiel bei diesem berühmten MotelOne Leak, bei dem herauskam, dass plötzlich Name, Adresse, Kreditkarten-Nummer, alles betroffen war. Und dann frage ich immer: Wie fühlst du dich jetzt? Schlecht, genau, was machst du jetzt damit? Und damit habe ich ganz viele Leute erreicht und sensibilisiert.
Also Schocktherapie, bei Kindern natürlich angepasst.
Unter pädagogischer Betreuung, klar. Ich bin ja eigentlich Erziehungswissenschaftler von Haus aus.
Dann bist du ja da auch fit auf der Ebene.
Genau, man kriegt das ja auch mit, wie weit man gehen darf.
Das ist so etwas, was mich bewegt. Ich spreche mit dir nicht für irgendwelche Nerds, sondern für ganz normale Leute, um die für diese ganze KI-Geschichte ein bisschen zu sensibilisieren. Einerseits unbegründete Ängste abbauen, andererseits zu fragen, welche Möglichkeiten bestehen und welchen Bedarf es gibt. Ein Bedarf, den ich ganz extrem sehe, ist Bildung.
Ich weiß nicht, ob du da involviert warst: Auf LinkedIn war ja letztens ein Post, dass eine Bank gesagt hat: Wir brauchen perspektivisch keine Mathematik mehr an den Schulen, denn die KI kann das. Die meisten, auch ich, haben gesagt: Halt, wer prüft dann das Ergebnis der KI auf Plausibilität? Verlassen wir uns blind darauf?
Die KI halluziniert mittlerweile ganz stark. Ich kann dir auch mal den Rat geben: Spiel mal ein bisschen mit ChatGPT herum, aber besorge dir unbedingt ein Tool, das nennt sich GPT4All, das ist die Offline-Variante. Und da gibt es das Datenmodell Mistral, Deutsch-Englisch, von Facebook trainiert. Und schau dir mal die Unterschiede zwischen den Texten an. Das ist fantastisch. ChatGPT erzeugt sehr, sehr krasse Muster. GPT4All mit Mistral definitiv nicht.
Ich war ja letztens richtig begeistert als ich ChatGPT gefragt habe: Kennst du Thomas Köhler, Journalist bei der Leipziger Zeitung? Da sagte er: Thomas Köhler ist ein Journalist bei der Leipziger Zeitung, zeichnet sich aus durch sehr gut recherchierte Texte. Da habe ich mich gefragt, ob der weiß, wer vor dem Computer sitzt? Für mich ist die geringere Gefahr die KI selbst. Die Gefahr ist der Mensch, der sagt: Das, was die KI mir sagt, ist die Wahrheit.
Das ist die gewaltige Gefahr, das sehe ich genauso. Mach mal ein Experiment und sag ChatGPT: Schreibe mir ein Loblied auf. Thomas, Leipzig, Journalist.
Der wird ein wunderbares Loblied schreiben. Und das veröffentliche ich unter: Das sagt das Internet über mich.
Und da gehst du mal weiter: Du nimmst die Texte, befüllst sie mit einem kompletten Block und diesen Block pushst du mit SEO-Technik und black-hat auf „Wahrheit“ hoch. Und schon wird das, was die KI ausgedacht hat, in die Realität überführt.
Und dann gehst du noch weiter und nimmst dir diesen Traffic-Spirit und simulierst den Traffic über Google und sagst: Thomas, Leipzig, weltbester Journalist, Pulitzerpreis-verdächtig. Das volle Programm ballerst du rein. Und schon erscheinst du unter diesen Begriffen in den Google Trends.
Ich hatte dazu mal ein sehr interessantes, auch durchaus sehr hitziges Streitgespräch mit einem Influencer-Marketer, weil er als Legitimations- oder als Argumentationsgrundlage Google Trends gewählt hat, um etwas zu beweisen. In dem Streitgespräch habe ich gesagt: Okay, ich habe einen Laptop mit, wir machen jetzt mal was. Ich zeige dir was: Wie schnell und effektiv man unter anderem Google Trends manipulieren könnte, wenn man das so will. Deswegen: Immer kritisch bleiben, Dinge hinterfragen. Und immer auf das Bauchgefühl achten.
Johannes, wir haben uns etwas verquatscht. Vielen Dank für das Gespräch.
Keine Kommentare bisher
Danke für dads Interview, endlich mal eines, in dem es konkret wird, wo nicht (nur) über Politik geredet und Meinungen wie Monstranzen vor sich hergetragen werden, sondern konkret Ideen, probleme und Lösungen aufegzeigt werden. Macht zwar alles bisschen Angst vom Thema her, weil man merkt, wie groß die Promethische Lücke zwischen Technik und Individuum wird und weil man auch spürt, dass die Schule mit ihren Lehrplänen noch immer knochentief in der Technik-Geschichte steckt und da nicht rauskommt, obwohl das gerade bei DeepFakes und KI so wichtig wäre, aber gut, immerhin werden die Probleme genau benannt, hoffen wir, dass einige Lehrer es lesen oder wenigstens paar Hanseln im Kultusministerium, aber die sitzen wahrscheinlich noch immer an ihren Faxgeräten.