Vereinfacht KI den Zugang der Menschen zu ihren Rechten?
Ziel jeder Rechtsberatung, ob sie von Rechtsanwält:innen oder nicht-anwaltlichen Legal-Tech-Unternehmen kommt, ist der Zugang zum Recht. Auch in der Sozialberatung lassen sich viele Berater:innen davon leiten, dass sie Menschen einen Zugang zu ihren Rechten verschaffen wollen. Je nachdem, wen man fragt, was das eigentlich ist, dieser Zugang zum Recht, erhält man aber unterschiedliche Antworten: Die Vertreter:innen der Rechtsberufe sehen das eher eng: Zugang zum Recht, das sei der Zugang zu einer gerichtlichen Entscheidung, sagen viele von ihnen. Sie betonen, dass die Gesetze und die Rechtsprechung klar abgesteckt haben, was mit "Recht" gemeint ist. Wer dieselbe Frage Sozialwissenschaftler:innen oder Berater:innen in der Sozialen Arbeit stellt, bekommt häufig Antworten, die weiter gehen: Recht sei mehr als das, was die Jurist:innen in ihrer engen Perspektive sehen; Zugang zum Recht habe mit Gerechtigkeit zu tun, mit sozialer Teilhabe, mit Empowerment. Ist es wichtig, zu entscheiden, wer recht hat? Sinnvoller ist es wohl, nach Gemeinsamkeiten zu suchen. Und die sind: die Existenz von Rechten, das Wissen um Rechte und die Möglichkeit, diese in einem rechtsstaatlichen System durchzusetzen.1 Der Zugang zum Recht kann und sollte außerhalb der Gerichte beginnen. Es muss aber jedem Menschen der Weg zu einer gerichtlichen Entscheidung offenstehen.
An allen Stellen dieses manchmal längeren Wegs, als den man sich den Zugang zum Recht vorstellen kann, gibt es Menschen, die zurzeit überlegen, wie sie Algorithmen oder KI einsetzen können, um Rechtsinformationen zu geben, Beratung effizienter zu machen, bei der Vertretung in der Durchsetzung von Ansprüchen zu helfen und Entscheidungen vorzubereiten oder sie sogar zu treffen.
Fachleute sollten Inhalte füllen
Es empfiehlt sich, dass wir uns zunächst einmal vergegenwärtigen, dass nicht alles, was KI genannt wird, auch KI ist. Grob gesagt: Es gibt regelbasierte, auf "Entscheidungsbäumen" fußende Beratungs-Tools, die häufig in der Gestalt von Chatbots daherkommen. Die sind häufig hilfreich und verhältnismäßig unproblematisch, wenn sie von Fachleuten mit Inhalt gefüllt sind und die Nutzer:innen wissen, dass diese Tools nur für eine begrenzte Auswahl von (typischen) Sachverhalten Antworten bereithalten. Bei solchen "Low-Tech-Tools" handelt es sich regelmäßig noch nicht einmal um echte Einzelfallberatung, sondern eher um strukturierte Information.
Wir bewegen uns von der Information in Richtung Einzelfallberatung, wenn wir über Tools nachdenken, die auch auf Künstlicher Intelligenz beruhen: Künstliche Intelligenz bedeutet, dass Software in der Lage ist, 1. Eindrücke wahrzunehmen, 2. diese Eindrücke zu verstehen, 3. daraus eine Reaktion abzuleiten und 4. zu lernen.2 In der Rechtsberatung gibt es einige rechtssichere und gut funktionierende Angebote: Rechtsdurchsetzungs-Tools im Bereich der Verbraucher:innen-Rechte wie Flightright, Rightmart und Wenigermiete.de stehen hier als bekannte Beispiele für sogenannte Legal-Tech-Tools. Die meisten Tools, die eine Kombination von regelbasierten Algorithmen und KI nutzen (hybride Tools), arbeiten aber nicht unmittelbar an der Schnittstelle zu Mandant:innen und Kund:innen, sondern werden in Kanzleien und Legal-Tech-Unternehmen eingesetzt: Es handelt sich zum Beispiel um Software, die große Mengen (vergleichbarer) Texte metadatiert, um sie handhabbarer zu machen, zum Beispiel in Massenverfahren wie den Schadensersatzverfahren im Zusammenhang mit dem Diesel-Skandal. Anwaltskanzleien nutzen solche Software und mittlerweile auch Gerichte.
In den vergangenen Monaten experimentierten Kanzleien, Unternehmen und Wissenschaftler:innen mit Tools, die auf sogenannten Large-Language-Modellen (LLM) beruhen; der ChatGPT-Chatbot ist das bekannteste LLMTool. Hier handelt es sich um Sprachgeneratoren, die trainiert sind, Antworten in korrektem Deutsch (und mittlerweile zahlreichen anderen Sprachen) zu geben. Für Branchen, die im Wesentlichen mit Sprache und mit Wissen arbeiten, sind zahlreiche Einsatzgebiete denkbar. Die Fähigkeiten von LLM-Tools sind in den letzten Jahren exponentiell gewachsen; die inhaltliche Qualität der Antworten wird immer besser. Allerdings: Diesen Tools kommt es nicht in erster Linie auf inhaltlich richtige Antworten an. Sie sind darauf trainiert, dass ihre Antworten sprachlich korrekt sind und plausibel scheinen. Trotzdem ist eines der Risiken solcher Sprachgeneratoren weiterhin das der "Halluzination": Da Tools wie ChatGPT nicht über ein inhaltliches Verständnis verfügen, können sie eigene Antworten nicht kritisch prüfen. Antworten können also inhaltlich völlig falsch sein und - besonders gefährlich: ChatGPT und Co. sind nie unsicher, ob ihre Antwort korrekt ist oder nicht. Das kann in die Irre führen. (Viele Jurist:innen, die mit ChatGPT gespielt haben, können von frei erfundenen Gerichtsentscheidungen samt formal korrektem Aktenzeichen berichten, die ChatGPT selbstbewusst vorgetragen hat.)
Die Qualität der Antworten wird immer besser
Andererseits zeigen Themenbereiche, zu denen viele gute Informationen in den allgemeinen Internet-Trainingsdaten vorhanden waren, dass ChatGPT verblüffend korrekte Antworten gibt. Und es ist möglich, auf ChatGPT oder ähnlichen Modellen basierende Tools selbst weiterzutrainieren, mit eigenen Daten. Eine der weltweit größten Rechtsanwalts-Kanzleien hat das - in einem geschützten Datenraum - Anfang 2023 mit großen Mengen von Rechtsdaten getan und ist zu dem Ergebnis gekommen, dass die Qualität der Antworten immer besser geworden ist und der von jungen Anwält:innen am Anfang ihrer Berufstätigkeit entsprach. Außerdem kann man als Nutzer:in lernen, Fragen ("Prompts" genannt) so zu formulieren, dass die Antworten auch inhaltlich besser werden. Zuletzt: Was LLM-Tools besonders gut können, ist, umfangreichere Texte, die man ihnen zu "lesen" gibt, zusammenzufassen, wichtige Punkte herauszuarbeiten und Antworten in einer für die Leser:in adäquaten Sprache zu geben, auch in einfacher Sprache. Die Sprachfähigkeiten sind zurzeit auch das, was am besten funktioniert. Viele Jurist:innen haben festgestellt: ChatGPT funktioniert für sie, um bei einer in der eigenen Praxis vielleicht nicht alltäglichen Frage eine erste Idee zu bekommen, also: um Gedanken zu sortieren; und ChatGPT funktioniert, um einen eigenen, fachlich korrekten Text auf Kohärenz zu prüfen, sprachlich zu glätten oder sonst anzupassen. Wichtig ist allerdings zu wissen: ChatGPT und andere Tools nutzen, wenn man die öffentlich zugänglichen Versionen verwendet, die eingegebenen Texte, um die eigenen Fähigkeiten weiter zu trainieren. Vertrauliche Daten sollte man also nie eingeben, wenn man ChatGPT und vergleichbare Tools ausprobiert.
KI-Tools können Beratung nicht ersetzen
Eines sollte also klar sein: KI-Tools gehören nicht in die Hände von Mandant:innen und Kund:innen, wenn es um echte Einzelfallberatung geht. Das heißt auch, die skizzierten Fähigkeiten von KI ersetzen nicht die:den erfahrene:n Berater:in. Aber sie können sie unterstützen, sowohl in der konkreten Einzelfallberatung als auch bei der Verbesserung interner Prozesse. Möglicherweise können gut trainierte, auf LLM beruhende Tools im Vorfeld der Beratung allgemeine, nicht auf den Einzelfall zugeschnittene Informationen geben. Die langfristig interessantesten Anwendungen allerdings werden solche sein, in denen regelbasierte Algorithmen und Sprachmodelle ineinandergreifen. Ein denkbares Beispiel: eine Anwendung, die die Unterlagen, die ein Klient in der Schuldnerberatung mitbringt, scannt, ausliest und automatisch einen (mehr oder weniger vollständigen) strukturierten Sachverhalt erstellt. Mit so einer Anwendung könnte die:der Berater:in einen guten Teil der Zeit, die sie:er für diesen Klienten hat, für ein persönliches, vertrauensbildendes Beratungsgespräch verwenden, statt mühsam den Sachverhalt selbst erarbeiten zu müssen.
Große Kraft können KI-Tools auch da entfalten, wo in der Einzelfallberatung Daten über zahlreiche vergleichbare Sachverhalte und über Klient:innen generiert werden. Diese per Hand zu metadatieren und analysierbar zu machen, wäre unverhältnismäßig aufwendig. Wo aber KI-Systeme Datenpunkte zum Beispiel bundesweit von allen Caritas-Beratungsstellen erfassen, anonymisieren, metadatieren und strukturieren, da können solche Informationen Auskunft geben über Muster von unbefriedigten Bedarfen, über Entwicklungen und regionale Besonderheiten, um nur wenige Beispiele zu nennen. Diese Informationen wären wertvoll für den Austausch der Beraterinnen und Berater untereinander und könnten sogar eine wichtige Grundlage für datenbasierte sozialpolitische Forderungen von Sozialträgern darstellen. Wir erkennen im Rechtsmarkt gerade die großen Chancen von Analytics-Technologie; es lohnt sich für die Rechts- wie für die Sozialberatung, darüber nachzudenken, wie man die Datenschätze nutzbar machen kann, die in der Beratung vieler Einzelfälle entstehen.
Ausprobieren lohnt sich
Zuletzt aber zurück zur Einzelfallberatung: Im Justiz- und Rechtsmarkt sind in den letzten wenigen Jahren gute Innovationslabore entstanden, in denen alle Akteur:innen im Wissen um die rechtlichen und ethischen Risiken von Legal Tech und KI die Chancen solcher Tools testen und Ideen für bessere Zugänge zum Recht entwickeln. Für die Sozialberatung gibt es einige ähnliche Pilotprojekte. Für beide Beratungsbranchen gilt: Ausprobieren lohnt sich - sinnvollerweise in interdisziplinären Teams, in denen Berater:innen, die die Bedürfnisse der Klient:innen kennen, IT-Expert:innen und Fachleute für die rechtlichen Rahmenbedingungen gemeinsam Ideen entwickeln.
Anmerkungen
1. Brügmann, C. in: Riehm, T.; Dörr S. (Hrsg.): Handbuch Digitalisierung und Zivilverfahren. Berlin, 2023.
2. Kaulartz M.; Braegelmann, T. (Hrsg.): Rechtshandbuch Artificial Intelligence und Machine Learning. München, 2020.
Folgenreiche Kürzungen
Wenn ChatGPT zu dir sagt: „Ich bin hier, um dir zuzuhören“ …
Gemeinwohlorientierte KI: Wie die Wohlfahrt zur Vorreiterin werden kann
Vereinfacht KI den Zugang der Menschen zu ihren Rechten?
Social-Media-Arbeit: Social-Media-Arbeit Was brauchen Jugendeinrichtungen?
Statement: Besser beraten mit digitalen Tools?
Den Verband neu ausrichten
Die Zustiftung – ein Eigentor?
Hinterlassen Sie einen Kommentar zum Thema
Danke für Ihren Kommentar!
Ups...
Ein Fehler ist aufgetreten. Bitte laden Sie die Seite erneut und wiederholen Sie den Vorgang.
{{Reply.Name}} antwortet
{{Reply.Text}}