Einführendes

In einem gemeinsamen Arbeitskolloquium wollen wir disziplinübergreifend in den Rechtswissenschaften mit Blick in Wissenschaft und Rechtspraxis und in der Diskussion mit weiteren Wissenschaftsdisziplinen erfragen, was Datafizierung und Digitalisierung für das Recht selbst bedeuten. Kann man mittels Algorithmen, kann man mittels Daten Recht schöpfen? Lässt sich aus unstrukturierten, ggf. für den juristischen Blick unsystematischen oder jedenfalls intransparenten, Daten Recht erkennen? Ist die Rechtswissenschaft im weiteren Sinne auf die Datafizierung und die damit einhergehende Quantifizierung vorbereitet, verfügt sie über die richtigen Methoden und welche sind das? Die gemeinsame Diskussion jener Fragen erfordert die Auseinandersetzung mit den Grundlagen des Rechts in allen Bereichen des Strafrechts, des Zivilrechts und des Öffentlichen Rechts. Zudem kann sie nur unter Einbeziehung der Praxis und der einschlägigen Nachbardisziplinen gelingen, etwa der Data Science, der Statistik, der Informatik, der Linguistik oder der Philosophie. Der intra- und interdisziplinäre Diskurs soll es insbesondere ermöglichen, die mit der zu beobachtenden Quantifizierung des Rechts tatsächlich einhergehenden Risiken zu konkretisieren und zugleich die Chancen für Recht und Rechtswissenschaft zu identifizieren. Die Datafizierung soll also nicht aufgehoben, sondern es sollen Prozesse entwickelt werden, sie mit rechtlichen Grundlagen auch in der Anwendung zu verbinden. Das erfordert freilich im Kern auch eine Debatte über philosophisch soziale Perspektiven. Quantitative Rechtswissenschaft muss kein „No Go“ sein.
Erfragen wollen wir im Einzelnen mit einem Fokus auf der Rechtslinguistik, was Texterkennung im Recht überhaupt leisten kann und was sie insbesondere leisten sollte. Mit Blick auf eine mögliche quantitative Rechtswissenschaft gilt es zu fragen, was Zahlen, das Messen und Wiegen im Recht, was Algorithmen im Recht überhaupt ermöglichen und zugleich bedeuten. Wann und unter welchen Voraussetzungen lässt sich etwa eine damit einhergehende Bewertung auf Basis gesammelter Fakten rechtfertigen, wann ist der damit einhergehende Verlust allein individueller Entscheidungsfindung tragfähig und wann nicht? Gegenübergestellt, welche Chancen und Risiken ergeben sich aus der Modellierung, Quantifizierung und Visualisierung relationaler Daten im Recht (kritische Netzwerktheorie)? Im Weiteren löst dies auch Fragen aus, ob sich etwa die teils aufwendigen Prozesse gerichtlicher Entscheidungsfindung effektiver und funktionaler gestalten lassen sowie ob sich gerichtliche Entscheidungen mittels Algorithmen sogar vorhersagen lassen (predictive analytics). Dies ermöglicht zu erfragen, ob und wie weit eine Modellierung des Rechts entlang der Strukturen datafizierter Entscheidungsprozesse möglich und sinnvoll ist, und wie sich im Vergleich datafizierte Anwendungen (z.B. KI) und menschliche Entscheidungen bei der Analyse und Anwendung des Rechts auf das Recht auswirken. In einer Podiumsdiskussion mit Vertreterinnen und Vertretern von Wissenschaft und Praxis wollen wir den Diskurs über die Digitalisierung der Anwendung des Rechts für ein breiteres Publikum öffnen.

– Marten Breuer, Jochen Glöckner, Rüdiger Wilhelmi und Liane Wörner