Die Kammern (Bar Associations) in Florida und Kalifornien sind einem Reuters-Bericht zufolge landesweit die ersten, die entsprechende Leitfäden für Anwältinnen und Anwälte herausgegeben haben. Weitere könnten bald folgen. Anlass sind unter anderem mehrere Fälle, in denen Anwälte vor Gericht Dokumente verwendet haben, die mithilfe von generativer KI erstellt worden sind und die Hinweise auf Urteile enthalten, die es nicht gibt.
Fehler wie diese können passieren, wenn die Ergebnisse von ChatGPT und Co nicht ausreichend auf Halluzinationen überprüft werden. Deshalb fordern bereits einige US-Bundesrichter, dass Anwältinnen und Anwälte offenlegen müssen, wenn sie generative künstliche Intelligenz nutzen. Die Kammern haben ihre Richtlinien nun in Form von Gutachten herausgegeben. Sie sollen Anwälten helfen, die Berufsregeln zu befolgen und dadurch Sanktionen wie den Ausschluss aus der Anwaltschaft zu vermeiden.
Das Gutachten aus Florida sieht beispielsweise vor, dass Anwältinnen und Anwälte die Erlaubnis ihrer Mandanten einholen müssen, bevor sie vertrauliche Informationen an KI-Programme weitergeben. Das kann zum Beispiel erforderlich sein, wenn sie ChatGPT bitten, einen Schriftsatz zu verfassen. Ein Einverständnis sei jedoch nicht erforderlich, wenn die verwendeten Informationen nicht vertraulich sind oder eine interne Plattform zum Einsatz kommt, ohne dass Dritte einbezogen werden.
Abrechnung nach Stundensätzen auf dem Prüfstand
Mit Blick auf die Gebühren empfehlen beide Kammern, dass Anwälte keine Stundensätze für die Zeit erheben dürfen, die sie durch den Einsatz von KI sparen. Florida empfiehlt zudem, dass Anwältinnen und Anwälte die Einführung von Erfolgs- oder Pauschalhonoraren in Erwägung ziehen sollten.
Insgesamt stellen die Kammern klar, dass Anwältinnen und Anwälte, die generative KI nutzen, deren Ergebnisse genauso kritisch überprüfen sollten wie die Arbeit von Mitarbeitenden wie zum Beispiel Paralegals: „Das berufliche Urteilsvermögen eines Anwalts kann nicht an die generative KI delegiert werden und bleibt jederzeit in seiner Verantwortung“, heißt es in dem Gutachten des State Bar of California.
Regulierung in Deutschland liegt beim Gesetzgeber
Hierzulande ist die Situation eine andere: Die KI-Regulierung ist in Deutschland Aufgabe des Bundesgesetzgebers. Weitere Vorgaben, die umgesetzt werden müssen, kommen aus der EU, etwa in Form des sogenannten AI Act. Laut Bundesrechtsanwaltskammer (BRAK) steht das im Gegensatz zu den USA, wo die einzelnen Bundesstaaten unabhängig vom föderalen Gesetzgeber agieren können.
Entsprechend hat die BRAK keine Leitlinien zum Umgang mit generativer KI an ihre Mitglieder herausgegeben: „Die BRAK selbst darf nicht regulieren und auch nicht in den Markt und den Wettbewerb eingreifen“, sagte eine Sprecherin. „Wichtig ist uns insbesondere aber der verantwortungsvolle Umgang mit KI. Insofern beobachten wir die Entwicklungen natürlich sehr genau und bringen uns auch ein, beispielsweise in regulative Überlegungen des Bundesministeriums der Justiz.“ Zusätzlich gebe es Fachausschüsse, zum Beispiel zum Thema Legal Tech oder zum Einsatz von KI im Strafprozessrecht.
Auch andere Interessenvertretungen wie der Legal Tech Verband haben bisher keine Richtlinien erarbeitet. Empfehlungen für den Einsatz von KI werden hierzulande somit bisher überwiegend auf individueller Ebene formuliert: von den immer zahlreicher werdenden Kanzleien und Rechtsabteilungen, die sie im Arbeitsalltag einsetzen.