Ersetzt die Künstliche Intelligenz bald Juristen? Was muss man als Privatperson oder als kleines mittelständisches Unternehmen (KMU) beachten, wenn man ChatGPT & Co verwendet, ohne Rechtsverletzungen zu begehen? Es gibt viele Fragen im juristischen Bereich. Wir haben dazu mit Rechtsanwalt Peter Hense gesprochen. Peter ist Fachanwalt für IT, Datenschutz, Marken- und Wettbewerbsrecht und Travel Industry Law, bei der Leipziger Anwaltskanzlei Spirit Legal.

Wir haben uns beim OTMR-Barcamp kennengelernt, sind seitdem per Du und haben das auch im Gespräch beibehalten.

Peter, wenn man an das Thema KI im Zusammenhang mit Juristereidenkt, dann sagen die einen: Ich brauche bald keinen Anwalt mehr, wenn die KI richtig läuft, dann kann die das. Andere sagen: Die KI ist ein Arbeitsbeschaffungsprogramm für Anwälte, weil es so viele ungeklärte Fragen gibt. Wie kann man das, aus Deiner Sicht als Jurist, einschätzen?

Gute Frage! Ich kann keiner der beiden Ansichten irgendwas abgewinnen. Das liegt aber auch einfach daran, dass die Antwort auf solche und ähnliche Fragen nicht von Juristen gefunden wird, sondern man müsste, wenn man sich denn für dieses Thema interessiert und sich eine Meinung erlauben will, eigentlich mit der Technologie oder mit den Technologien genauer beschäftigen.

Dann entdeckst Du relativ schnell, wo die unbestrittenen Stärken sind und wo die ganz großen Schwächen sind. Vor allen Dingen, wo die dicken Wände sind, gegen die das alles knallt und wo es nicht weitergeht. Künstliche Intelligenz, ist ja nur ein buzzword, dass künstliche Intelligenz den Menschen, außerhalb hoch spezialisierter Einzelaufgaben, in irgendeiner Form ersetzen wird, davon sind wir weit entfernt.

Du meinst also, dass es keine ganzen Berufsgruppen trifft?

Es gibt einen ganz großen Anwendungsfall, der tatsächlich Auswirkungen auf den Arbeitsmarkt hat und der auch weh tut, das ist das Thema Übersetzung und Transkription. Also alles, was mit Sprache zu tun hat. Wenn Leute heute mit KI zu tun haben, denken sie immer an ChatGPT und lustige Bildergeneratoren.

Das ist alles Zeug, was so in den 2010er Jahren angelegt und erfunden wurde, wo aber die ersten Anwendungsfälle auch wirklich praktisch nur für Übersetzung gedacht waren. Nicht als Suchmaschinenersatz und nicht dafür, um menschliche Arbeitsleistung zu substituieren. Übersetzer und Übersetzerinnen haben es sicherlich in Zukunft deutlich schwerer, denn das, was diese Systeme von einer Sprache in die andere Sprache übertragen können, das ist schon bemerkenswert.

Ähnlich, auch wenn es das eine Worte und das andere Bilder sind, ist das bei Bildern und Illustrationen. Der Bedarf an Illustratorinnen und Illustratoren, sowohl bei Bewegtbildern als auch bei Grafikern, wird massiv beeinträchtigt durch diese Bildgeneratoren.

Witzig, wie gesagt, technisch ist das alles das Gleiche. Diffusionsmodelle und Sprachmodelle sind alle Transformer-Architekturen.

Euch Juristen betrifft das also weniger, oder gar nicht?

Wir Juristinnen und Juristen, wir Rechtsanwälte, sind davon eigentlich nur komplett peripher betroffen. Klar nutzen viele Leute diese Tools, wie ChatGPT, um sich irgendetwas umformulieren zu lassen, oder eine E-Mail in einer anderen Sprache oder in einem anderen Ton zu schreiben. Das ist doch alles ganz hübsch, aber den großen Sprung nach vorn oder die große Angst davor, löst nichts davon aus, weil, das ist das was Leute häufig unterschätzen: Recht vor Gericht zu bekommen, hat etwas mit Macht und mit Strategie und Taktik zu tun.

Macht insofern, als dass da vorne jemand oder mehrere sitzen, die eine Entscheidung fällen. Das ist nicht immer transparent, deswegen gibt es eigentlich keine Datenpunkte, von denen gelernt werden kann. Das ist nicht eine mathematische Vorgabe, nicht eine Gleichung, die zu lösen ist, sondern ganz häufig Bauchgefühl auch bei den Gerichten. Kann man kritisieren, ist aber, wenn man vernünftige Richterinnen und Richter hat, der richtige Weg.

Das zweite ist, es kommt häufig darauf an, dass ich mit mehr als nur mit Sprache arbeite. Das heißt, um Dinge zu verstehen, muss ich ein Verständnis haben für Konzepte. Also: Was ist Eigentum, was ist Besitz, was ist eine Ehe, was bedeutet familiäre Bindung, was ist Geld?

Die Systeme, die wir aktuell sehen, die wir aktuell im Einsatz haben, die können mit diesen abstrakten Konzepten in Summe nichts anfangen. Es gibt kein System, welches ein Weltmodell hat. Sie können nur Sprache generieren, basierend auf den Durchschnittswerten, welcher Wortbestandteil als Nächstes kommen könnte.

Das heißt, man bekommt mit niedriger Varianz bestückte Texte ausgegeben, aber das ist weder Rechtsrat, im Sinne von da hat jemand was verstanden und gibt mir einen guten Tipp, noch ist es zum Beispiel für uns Anwälte qualifiziert nutzbar, weil wir häufig nach Informationen suchen, die nicht zu finden sind. Wir suchen Lücken und müssen in Lücken stoßen, da finden diese Modelle halt nichts zum Ansetzen.

Da ist halt, wenn etwas in einem Schriftsatz nicht steht, dann müsste die KI wissen, was dort nicht steht. Das kann sie nicht, weil eben dieses Weltwissen nicht besteht.

Das war sehr ausführlich! Eine andere Frage: Wenn ich als Privatperson oder als ein kleines mittelständiges Unternehmen (KMU), KI-Tools nutze, was muss ich beachten? Als Beispiel: Ich brauche ein Logo oder einen Werbeslogan für das Unternehmen. Beauftrage ich eine Werbeagentur, dann muss diese sich um Urheberrecht und ähnliches kümmern. Ein KI-Tool kann ich bei Verstößen nicht haftbar machen, selbst wenn ich das beim prompting angebe.

Berechtigte Fragen, die könntest Du in gleicher Weise stellen zum Thema, was mache ich mit einem Dieseltrafo, was mache ich mit einer Bohrmaschine, wer ist denn dafür haftbar? Am Ende ist es ein Stück Technik, ein dummes Stück Technik, das bedauerlicherweise ein bisschen so aussieht, als wäre es intelligent. Wobei mittlerweile Bohrmaschinen ja auch durchaus manchmal intelligenter als ihre Benutzer sind, wenn ich so an Drehzahlregulierung und Drehmomentregulierung denke.

So etwas existiert nie im luftleeren Raum. Wenn ich mich auf einer Webseite einlogge, die irgendwo auf einer fernen Insel registriert ist und mir dort Bilder erstellen lasse, dann ist das nicht anderes, als wenn ich mich auf einer Webseite einlogge und diese Bilder als Stockfotos herunterlade. Ich muss halt meinen Vertrauen dort suchen, wo ich es gelassen habe und wenn ich es halt auf Tonga gelassen habe, dann muss ich es halt auch in Tonga suchen, das heißt, ich werde dafür uneingeschränkt einstehen müssen.

Das heißt, ich bin immer dafür haftbar?

Wenn mir ein Microsoft Co-Pilot irgendwas vorschlägt, dann ist die Frage schon ein bisschen anders, denn das ist ja ein Diensteanbieter, der gibt mir einen Service und der kann in seine Geschäftsbedingungen reinschreiben, was er möchte.

Wenn der mir plötzlich vertrauliche Informationen anderer Unternehmen oder Bilder ausliefern würde, die tatsächlich urheberrechtlich geschützt sind, zum Beispiel einen Spiderman oder einen Superman, und ich müsste eigentlich wissen, dass ich diese Bilder nicht werblich verwenden darf und ich verwende das werblich, dann würde ich schon sagen, dass der Anbieter dafür haftbar zu machen ist.

Ich kann die Haftung für die Rechtmäßigkeit meiner Dienste niemals vollständig ausschließen, das ist nach deutschem und europäischen Recht unmöglich, das heißt sogenannte Kardinalpflichten muss ich immer erfüllen. Rechtmäßigkeit ist eine Kardinalpflicht. Ich kann nicht einfach geklautes Zeug da draußen verkaufen und dann sagen, ups habe ich nicht gewusst.

So funktioniert die Rechtsordnung nicht. Das heißt, ich sollte halt sehr genau schauen: Was ist der Einsatzbereich, in dem ich das Tool einsetzen möchte? Ein Foto für eine Kampagne auf Social Media kann vollkommen harmlos sein, kann aber auch wahnsinnig nach hinten losgehen, wenn ich dieses Foto auf Plakate verwende und auf 5000 Aufstellern aufklebe, dann kann es eben passieren, dass ich das wieder entfernen muss und das kostet dann sehr, sehr, sehr viel Geld.

Wer haftet, wenn eine Firma einen KI-Chatbot für den technischen Support einsetzt und der einen Tipp gibt, der dazu führt, dass das Gerät, überspitzt gesagt, in die Luft fliegt?

Wenn ich Dienstleister einsetze, muss ich halt schauen, habe ich dort möglicherweise mal eine Chance Regress zu nehmen bei denen, das wäre schon mal nicht schlecht. Ansonsten Augen auf, ausprobieren, ausprobieren, ausprobieren und dann kommt man sehr schnell zu dem Ergebnis, dass Chatbots im Kundenservice eine sehr dumme Idee sind. Ich will jetzt nicht ins Detail gehen, warum das nicht funktionieren kann. Technisch können die nicht so stabil sein, nicht die Qualitätsanforderungen erfüllen, wenn ich sie direkt in den Kundenkontakt schicke.

Das ist etwas anderes, wenn ich diese Chatbots als Expertenunterstützungssysteme in einem Callcenter einsetze, wo nochmal ein Mensch draufschaut. Ich gebe allen den Tipp, wenn sie bei irgendeiner Airline einen Chatbot haben, fragt noch mal bitte nach der Berechnung der Umsatzsteuer für ein Ticket. Insbesondere bei einem Flug, der zum Beispiel aus Deutschland ins außereuropäische Ausland geht. Da werden die Preisangaben und Auskünfte schon katastrophal schlecht sein.

Wir haben auch Beispiele gesehen, wo ein Anbieter von Medizinprodukten sich zunächst einen Monat lang gefreut hat, wie wunderbar der Chatbot die eigenen Produkte mit anderen verglichen hat. Dann hat mal ein Experte aus einem anderen Unternehmen darauf geschaut und gesagt: Das haben wir doch gar nicht im Angebot, das stimmt gar nicht. Nutzer haben sich auch beschwert und gefragt: Wo kriege ich denn das Produkt mit der Kennzeichnung XY23, was hier so angepriesen wird?

Das existierte halt nicht. Da ist, wie gesagt, nach zwei Monaten dann Schluss gewesen und es wurde viel Geld versenkt. Der Mensch ist in der Kommunikation mit dem Menschen nicht zu ersetzen.

Wie sieht das aus mit dem Datenschutz bei den KI-Tools online laufen, also ganz klassisch ChatGPT? Im Gegensatz zu GPT4All, welches lokal auf meinem Rechner läuft, weiß ja niemand, was mit den Daten passiert. Wenn ich personenbezogene Daten dort eingebe, verstoße ich dann schon gegen die DSGVO?

Ja, das ist eigentlich auch nicht anders, als wenn ich Daten irgendwo auf einer Webseite verarbeiten lasse, sei es für spell checking, also für Rechtschreib- und Grammatikprüfung. Jetzt habe ich es halt woanders hochgeladen. Ich sollte halt generell versuchen, solche Informationen zu vermeiden.

Wenn ich ein lokales Modell habe, von dem du auch gesprochen hattest, also GPT4All, dann werden die Daten auch bei mir auf meinem System verbleiben. Die Modelle per se können nicht speichern, was ihnen eingegeben wurde. Die Trainingsdaten sind ein anderes Thema, aber die können eigentlich ihre Eingaben nicht behalten.

Das ist aber bei einem API-Zugriff zu ChatGPT nicht ausgeschlossen, es kann sein, dass die da Informationen daraus extrahieren. Grundsätzlich wäre es sicherlich zu wünschen, dass im Rahmen einer Erziehung hin zu: Was sind Stärken, Schwächen, was sind die Grenzen dieser Systeme? Schon in der Schule müsste gesagt werden: Guckt mal, wir haben hier ein solches lokales Modell stehen, das läuft auf unserem Rechner.

Das können wir auch auf eure Rechner packen, wenn ihr das wollt. Mit einer einigermaßen starken Grafikkarte kriegt ihr so ein kleines Modell ganz flott zum Laufen. Dann seht ihr, das machen die so, so funktioniert das, so könnt ihr das nutzen. Dann gibt es auch datenschutzrechtlich kein anderes Problem, als wenn ich einfach nur ein OpenOffice-Dokument auf dem Rechner öffnet, das ist die gleiche Kategorie.

Wenn ich mit Daten mit Dritten teile, weil ich Online-Dienste nutze, sind die Probleme wieder die gleichen, wie ich sie früher hatte. Ich mache irgendwo ein Sharepoint auf, ich habe irgendwo ein Pastebin und stelle ins Internet frei zugänglich irgendwelche Informationen. Das ist in der Regel immer eine dumme Idee.

Ein Konzern, der annähernd weiß, was er macht, hat ja Rechtsberatung oder eine eigene juristische Abteilung. Die haben natürlich mit Haftung ganz andere Sachen, die haben auch zur Not noch…

… finanzielle Mittel im Hintergrund. Die können es sich leisten, Scheiße zu machen.

Aber der Privatmann, das kleine mittelständische Unternehmen, die haben das ja alles nicht. Finger weg von Fotogenerierung und Umgang mit generativer KI, könnte man das so sagen?

Bei Texten funktioniert das schon: Ich habe eine Anfrage aus China und möchte gerne einem chinesischen Kunden irgendwas antworten, oder einem englischsprachigen Kunden, und ich habe große Schwierigkeiten, in dieser Sprache zu kommunizieren. Ich habe auch kein Geld, jemanden dafür einzustellen. Das können diese Systeme einigermaßen gut leisten.

Wenn ich sage: Bitte verbessere, mache aus meinem deutschen, oder aus meinem geradebrechten englischen, Text, einen guten Text auf Englisch, dann kann ich das noch einigermaßen nachvollziehen. Selbst wenn ich nur gebrochen spreche.

Bei Chinesisch muss man schon ein gutes Vertrauen haben. Da muss ich jetzt sagen: Sehr vorsichtig, aber grundsätzlich ist das machbar. Man hat sich mittlerweile im Geschäftsverkehr an automatisierte Übersetzungstools gewöhnt. Ich habe zum Beispiel gerade das gemacht, ich habe gestern erst auf Englisch mit einem Chinesen kommuniziert, dann habe ich mir den Spaß gemacht und habe auf ChatGPT eine Tabelle gemacht, links englisch, rechts chinesisch, einfach als Höflichkeit, fand ich ganz witzig. Er hat sich sehr gefreut.

Bei Übersetzungen macht die KI aber auch noch Fehler.

Wie gesagt, man muss aufpassen, weil diese Systeme durchaus auch Übersetzungsfehler machen können. Die Sätze einfach halten, nicht zu kompliziert machen und nicht die Fahrlässigkeit begehen, riesige Dokumente reinzuschieben und dann zu hoffen, dass die richtigen Informationen daraus extrahiert werden. Das funktioniert nicht ohne Weiteres, nur mit sehr, sehr viel Mühe in korrekter Form, aber das kann schon hilfreich sein.

Es gibt auch noch einen weiteren Einsatzbereich, den ich sehr gut finde. Das ist das Thema: Übertragen von Texten, welcher Art auch immer, in leichte Sprache und in einfache Sprache, das ist ganz wunderbar. Ich kann mir auch Sachen vorlesen lassen und erklären lassen. Ich kann mir Vertragsphrasen auseinandernehmen lassen, um sie besser zu verstehen, wenn da jemand Lust dran hat. Ich kann aber auch teilweise meinen Mathe-, Deutsch-, Physik- oder Bio-Unterricht punktuell nachholen.

Das sind tatsächlich tolle Sachen. Wenn ich Legastheniker bin, dann kann ich auch sagen: Bitte verbessere und korrigiere meinen Text. Dann habe ich nicht mehr Angst davor, dass ich Arbeitskolleginnen und Arbeitskollegen fragen muss, ob sie es mir umschreiben, neu schreiben oder korrigieren. Das heißt, an der Stelle hat die Technik auch eine inklusive Wirkung, die ich sehr begrüße.

Um auf das Thema zurückz kommen, Du sagst also: KI ist ein Werkzeug, welches man Bedacht einsetzen muss?

Ich darf auf keinen Fall sagen: Ich bete das an, finde das alles wahnsinnig toll und das wird jetzt die Weltherrschaft an sich reißen. Also davon ist es so weit entfernt, wie es nur sein kann.

Um auf die Ausgangsfrage zurückzukommen, wir werden also Anwälte und Juristen behalten?

Wir werden sowieso weniger, und es ist aktuell schwierig, Leute zu finden.

Das Fachkräfteproblem wollen wir jetzt nicht thematisieren, das ist eine andere Sache. KI wird also auch nicht das große Arbeitsbeschaffungsprogramm, aber es wird spannend, sich damit zu beschäftigen.

Insbesondere alle, die manuell oder praktisch arbeiten, von Pflegerin bis hin zum Elektriker, aber auch im Management, wenn ich Management als Umgang mit Menschen verstehe, können sich nicht einfach in die Ecke setzen und schmollen. Ich denke, alle die werden es punktuell leichter haben, aber nicht ersetzt werden. Es werden ein paar Aufgaben überflüssig werden, so wie das Handy die Telefonzelle überflüssig gemacht hat.

Aber die Telefonzelle vermisst niemand wirklich. Es wird ein paar mehr Sachen geben, die ich auf meinem Mobiltelefon machen kann, da wird das alles am Ende hin konvergieren. Aber für diejenigen, die bislang auf Internet, Mobiltelefon und sonstiges verzichtet haben, wird die Kluft weiter wachsen.

Peter, ich danke Dir für das Gespräch und Deine Zeit!

Empfohlen auf LZ

So können Sie die Berichterstattung der Leipziger Zeitung unterstützen:

Keine Kommentare bisher

Schreiben Sie einen Kommentar