Bürgerräte werden momentan von einigen Menschen und Institutionen als das ultimative Mittel für demokratische Bürgerbeteiligung promotet. So gab es das „Forum gegen Fakes – Gemeinsam für eine starke Demokratie“ der Bertelsmann-Stiftung, welches ein Bürgergutachten zum Umgang mit Desinformation erstellte. Die Handlungsempfehlungen zu den einzelnen Themen wurden von den 120 Teilnehmerinnen und Teilnehmern des Bürgerrates und auch durch online-Teilnehmende abgestimmt.

Nach Übergabe des Bürgergutachtens an die Bundesinnenministerin soll dieses nun vom Ministerium für die Erstellung der Strategie der Bundesregierung zum Umgang mit Desinformation genutzt werden.

Die Auswahl der Teilnehmenden

Für den oben genannten Bürgerrat gibt es dazu keine Aussagen, es bleibt nur übrig, sich auf den Bertelsmann-Leitfaden „Bürgerbeteiligung mit Zufallsauswahl“ zu beziehen.

Dort findet man schon unter „Losverfahren in der Politik haben eine lange Geschichte“ problematische Ableitungen. So heißt es: „Von der Antike bis ins 18. Jahrhundert kamen Losverfahren bei der Besetzung von Ämtern und Regierungen zum Einsatz, um Vetternwirtschaft vorzubeugen, aber auch, um Bürger zum Dienst am Gemeinwesen zu verpflichten.“ Das ist korrekt.

Das Problem dabei liegt in der Definition des „Bürgers“. Das antike römische Bürgerrecht (Civitas Romana) beispielsweise war nur freien, männlichen Römern vorbehalten. Frauen, Sklaven und Ausländer waren ausgeschlossen. Ob dadurch wirklich Vetternwirtschaft vermieden wurde, ist fraglich. Im Zeitraum bis zum 18. Jahrhundert wurden die Losverfahren nur für einen geringen Teil der Bevölkerung, nach Standeszugehörigkeit, durchgeführt.

Der Zufallsauswahl für das aktuelle Forum musste aber auch durch Quotierung und Gewichtung einzelner Gruppen nachgeholfen werden. Genug davon, es geht ja um Ergebnisse.

Medienkompetenz in den Lehrplänen

Es steht, mit Einschränkungen, außer Frage, dass die Förderung der Medienkompetenz essenziell wichtig ist. Der Bürgerrat meint zu wissen, wie das funktioniert.

Dabei gibt es einige seltsame Forderungen im Dokument auf den Seiten 24/25: „Ein neues eigenes Schulfach Medienkompetenz ab dem dritten Schuljahr einführen und bereits gegebene Bildungsempfehlungen aus Unterrichtsfächern herausnehmen, wo sie bereits integriert sind (bspw. Sachkunde, Geschichte).“

Die Notwendigkeit der Einführung des Faches „Medienkompetenz“ ist größtenteils unstrittig. Der Bürgerrat geht aber so weit zu sagen: „Das Thema hat in anderen Fächern nichts zu suchen“. Das ist zu kurz gesprungen, denn Medienkompetenz ist fachbezogen in jedem Schulfach wichtig. Diese ist kein losgelöstes Thema, welches dann eventuell prüfungsrelevant ist.

In der Begründung heißt es, ungeschickt ausgedrückt: „Ziel ist es, möglichst vielen Kinder und Jugendliche (mit und ohne Lerneinschränkungen) Desinformation nahezubringen und Selbstverantwortung mit dem Umgang der Medien zu fördern.“

Nein, wir müssen nicht Desinformation nahe bringen, sondern das Erkennen und den Umgang mit dieser. Das hätte bei einer redaktionellen Bearbeitung auffallen müssen. Das ist nur ein erstes Beispiel, es wird noch schlimmer.

Bewusstes Posten zur Vermeidung der Verbreitung von Desinformation

In dieser Handlungsempfehlung auf Seite 34/35, die allerdings nur 77 % Zustimmung fand, wird gefordert, den Social-Media-Plattformen die absolute Macht über die Nutzerinnen und Nutzer zu geben.

Es heißt dort: „Vor dem Posten soll es eine angemessene Bedenkzeit (2–5 Minuten) für alle Inhalte auf Social-Media-Plattformen geben. Innerhalb dieser Bedenkzeit überprüft eine KI den Inhalt auf mögliche Desinformation, beispielsweise im Hinblick auf Schlagwörter, welche auf sensible Themen (wie beispielsweise Wahlbeeinflussung, Migration) hinweisen. Der Katalog an problematischen Schlagwörtern ist stetig von den Mitarbeiterinnen und Mitarbeitern der Plattformen zu aktualisieren.“

Egal, was als Begründung weiter angeführt wird – wie Warnhinweis bei Erkennung von Desinformation – ist diese Forderung absolut kritisch. Es steht die Frage: „Wer prüft, nach welchen Kriterien?“ Die Antwort wird dort schon gegeben. Eine KI der Plattform prüft nach Schlagworten, die von der Plattform selbst festgelegt werden.

Kommen wir als Erstes zu dieser ominösen „künstlichen Intelligenz“ und springen zurück auf Seite 29 mit der Handlungsempfehlung „Mündigkeit der Bürgerinnen und Bürger durch Transparenz über Medien und Rückverfolgbarkeit von Quellen fördern“. Dort finden wir den Punkt „Kennzeichnung KI-generierter Inhalte“, in diesem wird – wenn auch nicht wörtlich – die Problematik KI-generierter Inhalte deutlich gemacht.

Bei der Prüfung auf Desinformation soll nun eben jene KI die Lösung sein? Das muss man nicht verstehen.
Das Grundproblem ist aber, dass bei der Erfüllung dieser Forderung einem Elon Musk die absolute Kontrolle der Inhalte von X-Twitter geradezu aufgezwungen wird.

KI soll sich selbst prüfen und kontrollieren

In der mit 95 % Zustimmung abgestimmten Handlungsempfehlung „Entwicklung von Technologien zur Kennzeichnung von Desinformation“ taucht die KI wieder auf.

„Wir empfehlen die verstärkte Entwicklung von KI-Technologien zur Kennzeichnung von Desinformation.“
Das Vertrauen in die KI kennt scheinbar keine Grenzen: KI-generierte Inhalte werden generell als Problem erkannt → dem muss entgegengewirkt werden → KI kommt dabei eine große Bedeutung zu → ergo eine KI prüft Inhalte, die von einer anderen KI erstellt wurden.

Die Empfehlung läuft auf einen Wettbewerb der Entwickler von KI hinaus, allerdings nicht „Wer hat die beste KI?“, sondern „Wer kann seine KI am besten, im Sinne dieser Empfehlung, vermarkten?“ Am Ende werden die Verbreiter von Desinformationen KI einsetzen, um ihre Texte so zu formulieren, dass die Prüf-KI die Desinformation nicht erkennt. Also: Lasset die KI-Spiele beginnen!

Was ist mit der Meinungsfreiheit?

Das Grundgesetz sagt in Artikel 5 (1): „Jeder hat das Recht, seine Meinung in Wort, Schrift und Bild frei zu äußern und zu verbreiten und sich aus allgemein zugänglichen Quellen ungehindert zu unterrichten. Die Pressefreiheit und die Freiheit der Berichterstattung durch Rundfunk und Film werden gewährleistet. Eine Zensur findet nicht statt.“

Wenn also der Bürgerrat auf Seite 37 feststellt: „Desinformation wird definiert als ‚gezielte Falschinformation, die verbreitet wird, um Menschen zu manipulieren. Ziel ist es, öffentliche Debatten zu beeinflussen, die Gesellschaft zu spalten sowie den Zusammenhalt und die Demokratie zu schwächen‘“, dann ist der Kampf gegen Desinformation selbstverständlich kein Eingriff in die Meinungsfreiheit.

Wie oben festgestellt, will der Bürgerrat aber die Prüfung einer noch weitgehend ungeprüften Technologie überlassen. Einer Technologie, die von Menschen, Firmen und Institutionen entwickelt und betrieben wird, deren Intentionen nachweislich Einfluss auf die Ergebnisse beim Einsatz der Technologie haben.

Mit dieser Technologie soll erkannt werden, was eine Meinung und was eine gezielte Desinformation ist. Das ist reines Wunschdenken und Technologiegläubigkeit. Die Realisierung dieser Forderung kann und wird durchaus zu Eingriffen in die Meinungsfreiheit führen.

Fazit: Es gibt noch mehr kritische Punkte, wenn man das Dokument liest. Allein die Thesen von unabhängigen Stellen oder Medienhäusern, denen Verantwortung übertragen werden soll, wären einen Artikel wert. Haben diese eine Agenda, sind sie besser als staatliche Akteure? Aber genug davon, man kann und muss darüber diskutieren.

Ob ein Bürgerrat, zufällig, aber mit Quotierungen ausgewählt, das richtige Instrument ist, um solche komplexen Fragestellungen zu klären, kann man bezweifeln. Das Ergebnis dieses Formats ist ernüchternd, besonders die These, dass KI uns schützen wird, ist mehr als zweifelhaft.

Legt man die Meinungsfreiheit in die Hand von Tech-Konzernen bzw. Social-Media-Plattformen, dann schafft man ein enormes Missbrauchspotential. Vielleicht fehlten den Teilnehmenden aber auch grundlegende Informationen. Wer weiß das schon?

Empfohlen auf LZ

So können Sie die Berichterstattung der Leipziger Zeitung unterstützen:

Keine Kommentare bisher

Schreiben Sie einen Kommentar