Titel
Dialog schliessen

Bitte warten
Daten werden geladen...

Kuselit Rezensionen

Bernd Schünemann / Marie-Theres Tinnefeld / Roland Wittmann (Hrsg.) - Gerechtigkeitswissenschaft

Titel: Gerechtigkeitswissenschaft Cover
Autor: Bernd Schünemann / Marie-Theres Tinnefeld / Roland Wittmann (Hrsg.)
Verlag: Berliner Wissenschaftsverlag
Ort: Berlin
Jahr: 2005
Seiten: 490
Preis: 128,00
ISBN: 978-3-8305-0932-5
Internet: http://www.bwv-verlag.de
Rezensent: Dr. Axel Schwarz, Bukarest
Quelle: Kuselit Verlag GmbH

 

Bernd Schünemann / Marie-Theres Tinnefeld / Roland Wittmann (Hrsg.)

Gerechtigkeitswissenschaft - Kolloquium aus Anlaß des 70. Geburtstages von Lothar Philipps

Berlin 2005

ISBN 978-3-8305-0932-5


Bewertung

Hochwissenschaftliche Arbeit, überwiegend gut lesbar, empfehlenswert für Wissenschaft und Praxis

Inhalt

Aktuelle Arbeiten zu Rechtstheorie und Rechtslogik, Rechtsinformatik und Strafrecht

Zielgruppe

Wissenschaft und wissenschaftlich interessierte Praktiker

Was kann man lernen?

Aktueller Stand fundamentaler rechtswissenschaftlicher Forschung

Herausgeber / Autor

Prof. Dr. jur. Dres. jur. h.c. Bernd Schünemann, Universitätsprofessor
Lehrstuhl für Strafrecht, Strafprozessrecht, Rechtsphilosophie und Rechtssoziologie, geschäftsführender Direktor des Institutes für Rechtsphilosophie und Rechtsinformatik und Direktor des Institutes für die gesamten Strafrechtswissenschaften der Ludwig-Maximilians Universität München, Direktor des Instituts für Anwaltsrecht an der Ludwig-Maximilians Universität München, Ehrendoktorwürde der Mongolischen Staatsuniversität in Ulan Bator sowie der Universität Saragoza;

Prof. Dr. Roland Wittmann, Richter am Brandenburgischen Oberlandesgericht a.D., Juristische Fakultät der Europa-Uni­versität Viadrina in Frankfurt (Oder);

Prof. Dr. Marie-Theres Tinnefeld, Juristin und Publizistin mit Schwerpunkt Datenschutz- und Wirtschaftsrecht, verantwortlich für die Ausbildung für betrieblichen Datenschutz an der Fachhochschule München und Mitglied im wissenschaftlichen Beirat des FifF (Forum InformatikerInnen für Frieden und gesellschaftliche Verantwortung e.V.)

 

Spaß am Nachdenken

In seiner Laudatio schreitet Roland Wittmann den wissenschaftlichen Weg des Jubilars ab. Seine Wanderung beginnt mit dem Einsatz des Eins- und Existenzquantors zur Erklärung des normentheoretischen Unterschieds zwischen Ge- und Verboten, durchstreift die fantastischsten Landschaften verschiedener Logiken, in denen der Satz vom ausgeschlossenen Dritten nicht gilt, und gelangt schließlich zu der Erkenntnis, dass Rechtstheorie sich nicht in formalen Strukturen erschöpft, sondern Wesenselement materialer Gerechtigkeit ist, die vielen modernen Rechtsmanagern abhanden gekommen zu sein scheint. 

Das Werk vereinigt 16 Beiträge zu Rechtstheorie und Rechtslogik (Erster Teil), 4 Beiträge zur Rechtsinformatik (Zweiter Teil) sowie 6 Beiträge zum Strafrecht (Dritter Teil). Natürlich ist es an dieser Stelle nicht möglich, auf alle Beiträge so intensiv einzugehen, wie es ihnen gebührt.[1] Je nach Interesse und Neigung wird sich der Leser auf diesen oder jenen Aspekt konzentrieren. Die Lektüre garantiert nicht nur ein Vergnügen für jeden, der Spaß am Nachdenken hat, sondern hält auch einige intellektuelle Überraschungen bereit.

José Manuel Aroso Linhares von der Juristischen Fakultät der Universität Coimbra, der sich in diesem Jahr mit auf dem Semiotikkongress in Dünkirchen[2] mit Fragen der Unbestimmtheit und Entscheidung auseinandergesetzt hat, eröffnet die Reihe der Beiträge mit der mehr rhetorischen Frage, ob wir „noch eine kritische Rechtstheorie“ brauchen und bejaht diese anhand eines Vergleiches der Konzepte von Richard Posner und Stanley Fish. Er nennt diesen Vergleich „Konversationsstück“ und befleißigt sich einer Wissenschaftssprache, die geeignet ist, dem Leser Ehrfurcht einzuflößen. In einem ganz anderen Gewand kommt der Beitrag von Norbert Brieskorn von der Hochschule für Philosophie in München (Institut für Gesellschaftspolitik)[3], dessen Lebenswerk auf Rechts- und Sozialphilosophie sowie Sozialethik ausgerichtet ist, daher. Er behandelt - gleichermaßen tiefschürfend und vergnüglich für den Leser - Gemeinsamkeiten und Unterschiede „vom Rat, den Räten und vom Beraten“ und deren Verhältnis zum Gesetz im Verlauf der Jahrhunderte bis in die Zeit des Auskunftsvertrags des § 676 BGB a.F. Nach der Schuldrechtsreform ist man heute geneigt, den neuen § 311 III BGB n.F. anzufügen, um die geradezu boomende Bedeutung der Information im Recht wie der und Informatik[4] zum Ausdruck zu bringen.[5] Das Dilemma der heutigen Zeit dürfte gesamtgesellschaftlich gerade darin bestehen, dass sich einerseits in der Wissenschaft Weisheit und Machtlosigkeit wie andrerseits in der Politik grenzenlose Inkompetenz und Macht paaren. Aber daran konnte bereits Platon nichts ändern.

Danach beschäftigen sich José de Sousa e Brito (Richter am portugiesischen Verfassungsgericht a.D.) mit dem Syllogismus in Recht und Ethik und Rechtsanwalt Tassilo Eichberger mit „Kant, sich selbst und den bestirnten Himmel anblickend, während Friedrich Lachmayer, der sich im Ruhestand der Rechtsinformatik der EU verschrieben hat, über „universalia in re“ durch Muster- und Muttererkennung sinniert und Arthur Merin[6] Topik und Wahrscheinlichkeit im juristischen Argument analysiert.

Verblüffend einfach und überzeugend zeichnet sodann Ulfrid Neumann[7] eine Skizze zum Verhältnis von Logik und Argumentation. Ehemals konnte der Jubilar Lothar Philipps die Angemessenheit der intuitionistischen Logik, in welcher der Satz vom ausgeschlossenen Dritten nicht logisch gültig ist, als Instrument juristischen Argumentierens nachweisen und auf seiner Suche nach weiteren Alternativen zur klassischen Logik das Modell der dialogischen Logik für Probleme der Beweislastverteilung und schließlich auch „Fuzzy-Logic“ fruchtbar machen. Mit spielerischer Leichtigkeit und amüsant[8] entwickelt Ulfrid Neumann diesen Weg weiter zur parakonsistenten Logik, die auf das Ex-falso-quodlibet-Theorem verzichtet. Ergeben sich nämlich kontraintuitive Ergebnisse, kann das logische Kalkül keinen Vorrang genießen, sondern muss - so Neumann - vielmehr hinter den Standards fachspezifischer Argumentation zurücktreten und durch neue Kalküle ersetzt werden.

In seinem Beitrag zur Stabilität der Verfassung und Dimensionen der Auslegung fasst Marijan Pavčnik[9] aus Slowenien die wesentlichen Dilemmas des juristischen Verstehens zusammen, die von den meisten Rechtsanwendern als Naturgesetzmäßigkeit angesehen und nicht weiter hinterfragt werden. Das erste Dilemma ist die Frage nach dem Inhalt des Rechtstextes, wobei er leider nicht die weiterführenden Arbeiten Friedrich Müllers zum Begriff der Rechtsnorm erwähnt und deshalb in  Auslegungsargumenten allenfalls knappe Anweisungen sieht, wie man handeln soll. Das zweite Dilemma sieht er im Fehlen einer geschlossenen Kette von Auslegungsargumenten. Und als drittes Dilemma kommt hinzu, dass zwischen grammatikalischen, logischen, systematischen, historischen und teleologischen Interpretationsmethoden, die auf Savigny zurückgeführt werden, kein Rangverhältnis existiert. So kann es wohl sein, dass - wie Radbruch es formulierte - der Rechtstext (der Verfassung) klüger als der Verfassungsgeber und der Ausleger klüger als beide ist.

Umso mehr verblüfft Francesco Romeo[10] aus Italien mit seinen Ausführungen zum künstlichen Recht. Er behauptet, experimentell nachweisen zu können, dass lernfähige Computer richterliche Entscheidungen nicht nur simulieren, sondern auch zutreffende Urteile in neuen Sacherhaltskonstellationen fällen können. Ein neuronal vernetzter Computer wiederholt nicht den berechneten Durchschnitt gesammelter Computer, sondern berücksichtigt stärker Präzedenzfälle in Übereinstimmung mit allgemeinen Bewertungsprinzipien der Rechtsprechung. Das theoretisch wichtige Ergebnis der Experimente besteht darin, dass die Bestimmungen selbst nicht ausreichen, um eine Schlussfolgerung zu erhalten. Weder kommt jeder Bestimmung in der Anwendung der gleiche Wert zu, noch lässt sich jede Bedeutung mit einer Aussage zum Ausdruck zu bringen.[11] Vielmehr enthält ein Urteil zusätzliche Informationen im Hinblick auf die Gesamtheit der Bestimmungen und es ist nicht möglich, solche Werte a priori festzulegen, da sie sich weder auf eine Norm an sich, noch auf die Verhaltensweise, sondern auf das Urteil zur Verhaltensweise beziehen. Diese zusätzlichen Informationen entstammen – so Francesco Romeo - einer prälogischen Welt, die von der klassischen Rechtswissenschaft beharrlich verdrängt wird.[12] Eine der Folgen dieser Uneinsichtigkeit ist die übermäßige Normierung, der wir täglich zunehmend ausgesetzt sind. Sie fördert nicht Rechtssicherheit, sondern mindert sie und ist der Nährboden für Widersprüche[13]. Die Forschungen zeigen, dass es in absehbarer Zukunft möglich sein wird, z.B. Analogien in die Computersprache zu übersetzen und wenigstens teilweise das „gemeinsame juristische Basiswissen“ zu erfassen, das der Sprachanalytiker Carcaterra[14] die endokrinischen Erkenntnisse nennt. Heute stehen wir dem Phänomen gegenüber, dass das Streben nach Rechtssicherheit zu übermäßiger Normierung und Unübersichtlichkeit führt.  Die Zukunft wird zeigen, ob ein elektronischer Richter, der im Internet operiert, dem abhelfen kann.

Im Anschluss hieran vergleicht Heinrich Scholler[15] westliche und fernöstliche Gerechtigkeitssymbole und deren unterschiedliche Schuld- und Schamkultur, während der Mitherausgeber Bernd Schünemann sodann die Aktualität Savignys Rechtsbegriff belegt und sich daran wagt, moderne Phänomene des Gottesstaates, der früheren Sklavenhaltergesellschaften und des Unrechtsstaates bis hin zur Globalisierung zu untersuchen. Er greift dabei auf Alexys Definition des Rechts zurück, wonach das Recht in einem Normensystem besteht, das unter anderem „nicht extrem ungerecht“ sei. Schünemann kombiniert in einer geradezu verblüffenden Verständlichkeit Elemente von Kelsens Normenpyramide, Dworkins[16] Prinzipientheorie und Max Webers Wirksamkeitskriterium mit Radbruchs Geltungsvorbehalt bei schlechthin ungerechten Gesetzen und gelangt zu überraschenden Ergebnissen, bei denen der Rechtwissenschaft die Aufgabe einer vierten Gewalt zufällt.

Danach wendet sich Michaela Strasser[17] „Macht und Ohnmacht der Wissensgesellschaft“ zu und stellt klar, dass Akkumulation von Informationen ebenso wenig mit Wissen zu verwechseln ist wie die Informationsgesellschaft mit der Wissensgesellschaft[18]. Nicht alles ist Wissen, was die Information transportiert. Trotz oder gerade wegen eines ungeheuren Wissenszuwachses muss Wissen methodisch reduziert werden. Gleichzeitig wirkt die Ökonomisierung des Wissens als Selektionskriterium des Erkenntniszusammenhangs. Recherchen unterliegen permant der Tendenz, nur das zu suchen, was letztlich Vorurteils-Wissen bestätigt. Trotz aller Informationsflut ist Wissen immer nur partiell, oder um mit Sokrates zu sprechen, nur eine „Antwort auf ein wahrgenommenes Nichtwissen“.

Der Beitrag der Mitherausgeberin Marie-Theres Tinnefeld „Maske und Anonymität – Erscheinungsformen und menschenrechtliche Fundierung“ wirft die Fragen auf, wie viel Freiheit der Mensch braucht und wie viel Freiheit Staat und Bürger ertragen. Nicht erst seit der verfassungsrechtlichen Anerkennung des Grundrechts auf eine elektronische Privatsphäre[19] - so belegt die Autorin - stellt die Möglichkeit des Verbergens eine Seite menschlicher Sozialität dar, die auch in der digitalisierten Welt daten- und strafrechtlich zu schützen ist. Um in Freiheit zu überleben, soll der Mensch selbst darüber entscheiden können, wie viel er von sich selbst offen legen will. Das Recht auf Anonymität trotzt der informationellen Übermacht des Staates.

Dietmar von der Pfordten[20] bringt schließlich formale Operatoren der Prädikatenlogik ein, wenn er auf die zentralen Alternativen eingeht, die das heutige Rechtsverständnis dominieren: „Law in Action / Realismus (Soziologismus, Deskriptivismus)“ auf der einen Seite und „Law in Books“ / Normativismus (reine Rechtslehre) auf der anderen Seite. Als Alternative zu den diese beiden Ansätze verbindenden Theorien (z.B. Harts zweistufiges Regelmodell und sozial akzeptierte Tatsache, aber auch die Ansätze von MacCormick, Weinberger, Dreier, Alexy und Koller) betont von der Pfordten den Vorrang der Begriffe. Er stellt die These auf, dass Begriffe für das Recht kognitiv primär sind. Tatsächliche Regelungen und Institutionen, sprachliche Normen, Regeln, Prinzipien oder Argumente können seiner Ansicht nach nur Akzente setzen oder die Gewichtung graduell zwischen Begriffen, Normen und Normrealisation verschieben, aber nichts am grundsätzlichen Vorrang der Begriffe ändern. Eine adäquate Rechtstheorie könne im Kern  immer nur  eine Begriffstheorie sein, nicht jedoch System- und Verhaltensbeschreibung oder Normtheorie, Normlogik, Argumentationstheorie oder Regeltheorie. Dazu bedient sich von der Pfordten auf der Ebene der Kognition eines „Atomismus der Begriffe“, in welchem die Begriffe als kleinste kognitive Einheiten aufzufassen sind, wobei er leider nicht darauf eingeht, wie diese kleinste kognitive Begriffseinheit festzustellen ist. Dazu genügt offensichtlich nicht seine Unterscheidung dreier Verhältnisalternativen (zwischen Individualbegriffen, zwischen Individual- und Allgemeinbegriffen und schließlich zwischen Allgemeinbegriffen). Um der reinen Quantifikation zu entgehen, entwickelt von der Pfordten aus den „drei grundlegendsten denkinternen Alternativen der Verbindung von Begriffen“ (S. 215: Unterschied, Beziehung und Einheit) ein Modell des Verhältnisses von Begriffen, das Relation, Qualität und Modalität verbindet. Allerdings muss auch von der Pfordten einräumen, dass sich a) an den Rändern der Rechtsgebiete Ungenauigkeiten und Schwächen und b) beim Aufbau von Begriffsnetzen Interessen und Wertungen nicht vermeiden lassen.

Zu einem völlig anderen Ergebnis gelangt Peter Warta[21]. Er nimmt sich des Unterschiedes zwischen Recht und Rechtstext an: Kann Recht außerhalb (der Köpfe) von Menschen existieren oder handelt es sich dann um nicht anderes als bedrucktes Papier? Warta nähert sich dem Kern der Frage, ob die Rechtswissenschaft überhaupt und wenn ja, inwieweit eine Wissenschaft darstellt: „Was passiert eigentlich auf dem Weg von der Erzeugung einer Norm bis zu deren Erkenntnis?“ Der Normgeber kodiert seinen Willen in der Form eines Normtextes, der von dem gedanklichen Inhalt der Norm zu unterscheiden ist. Der Normtext ist nicht und kann nicht identisch sein mit der Norm selbst. „Zwischen ursprünglich kodiertem und dann rekonstruiertem geistigen Inhalt besteht keine logische oder empirische Brücke“. Damit glaubt Warta, sich von der Idee eines objektiven Rechts außerhalb (der Köpfe) der Menschen wie von der Illusion eines kollektiven Rechtsbewusstseins verabschieden zu müssen. Dass das unkodierte „Original“ der Norm überhaupt nicht zur Verfügung steht, ist das Ende der für die Reine Rechtslehre grundlegenden Unterscheidung zwischen Rechtsnorm als dem objektiven Sinn eines Willensaktes und Rechtssatz als der Beschreibung der Rechtsnorm. Die für die Rekonstruktion der Rechtsnorm entscheidenden Zeichenketten sind nach Warta nicht in dieser selbst enthalten und können auch nicht durch logisches Schließen ermittelt werden. Die Interpretation einer Rechtsnorm wird so zu einem „sozial gelernten“ Vorgang unter Anwendung „außerhalb des Rechts stehender, also metajuristischer Schreib- und Sprachregeln“.

Den rechtstheoretischen Teil des Werkes beschließt der Mitherausgeber Roland Wittmann - ganz passend zu den vorherigen Überlegungen - mit seinem Beitrag „Analogie, Hintergrundwissen und Evidenz“, den er treffenderweise mit dem Satz einleitet:

„Die juristischen - sog. - Schlüsse sind nicht sicher.“

 



[1] Die nachfolgende Rezension beschränkt sich auf den rechttheoretischen Teil.

[2] http://www.univ-littoral.fr/irsl2008.htm

[3] http://www.hfph.mwn.de/lehrkoerper/igpmit/brieskorn

[4] Zur Informatik im Recht hätte man sich noch mehr Beiträge gewünscht, z.B. auch zum Verhältnis zwischen  Relationsmethode und Alghoritmus.

[5] Vgl. Christian Kersting, “Informationshaftung Dritter: Vertrauen auf Verlässlichkeit“, JR 2008, 312 ff; derselbe, „Die Dritthaftung für Informationen im Bürgerlichen Recht, München 2007 (mit Rezension von Schwarz, Axel in VuR, Verbraucher und Recht, Heft 2 / 2009, S. 79): Auch Knut Amelung, „Informationsbeherrschungsrechte im Strafprozess“, Berlin 1990; derselbe, „Die Darstellung der Lehre von den Informationsbeherrschungsrechten für den 67. Deutschen Juristentag in Erfurt“, JR 2008, 327 f.

[6] Eine Reihe seiner semantischen Untersuchungen sind online gestellt unter http://www.uni-konstanz.de/FuF/Philo/Philosophie/philosophie/42-0-merin-arthur.html

[7] Goethe-Universität Frankfurt am Main, Fachbereich Rechtswissenschaft, Institut für Kriminalwissenschaften und Rechtsphilosophie

[8] Ulfried Neumann nutzt dazu das Beispiel eines intelligenten Studenten, der in einer Strafrechrechtsklausur zwei sich widersprechende Theorien anwendet, und dadurch den Argwohn des Prüfers erregt.

[9] Ordentlicher Professor an der Juristischen Fakultät der Universität Ljubljana, http://www.pf.uni-lj.si/fakulteta/pedagogi/prof.-dr.-marijan-pavcnik-univ.-dipl.-prav./

[10] Professore Associato in Informatica Giuridica, Dipartimento di Scienze Giuridiche, Università G.D’Annunzio, Pescara-Chieti. Eine etwas weitere Fassung seines Beitrags findet sich in „Esplorazioni nel Diritto Artificiale“, i-lex Scienze Giuridiche, Scienze Cognitive e Intelligenza Artificiale, Rivista quadrimestrale on-line: www.i-lex.it, Settembre 2004, numero 1, http://www.i-lex.it/articles/volume1/issue1/romeo.pdf. Unter www.i-lex.it lassen sich auch die neuestens Veröffentlichungen Romeos einsehen.

[11] was möglicherweise mit den Schwierigkeiten alltagspsychologischer Selbstbeschreibungen zu tun hat, vgl. z.B. Holm Tetens, in „Geist, Gehirn, Maschine. Philosophische Versuche über ihren Zusammenhang“, Stuttgart 2005.

[12] Dies gilt besonders für die Rechtsquellenlehre, vgl. Schwarz, Axel, „Ronsho to tetsuzuki - hogen no ichimondaiten“ (Argumentation und Rechtsquelle / Reasoning and procedure – the issue of the sources of law) Hogaku Zasshi, Journal of Law and Politics of Osaka City-University, Vol. 37, 1991, Nr. 3, S. 105 – 113.

[13] So zuletzt Sven Wolf, Kuriositäten in der sozialversicherungsrechtlichen Gesetzgebung, SGb 2008, 516 – 523, 522, der die „Komplexität statt Transparenz in der Sozialversicherung“ unter die Lupe nimmt.

[14] Gaetano Carcaterra, “Del metodo dell’interpretazione giuridica” in Esperienze giuridiche del ‘900, a cura di F.Modugno, Milano, 2000.

[15] Prof. Dr. iur. Dr. h.c. Heinrich Scholler, em. Professor für Politik und Öffentliches Recht an der Ludwigs-Maximilians-Universität.

[16] Der amerikanische Rechtsphilosoph Ronald Dworkin (*1931) wandte gegen die Geltung des Rechtspositivismus’ ein, dass eine Rechtsordnung nicht nur aus Normen (Regeln), sondern auch aus Prinzipien bestehe.

[17] Ao. Univ.Prof. DDr. Michaela Strasser, Grundlagen- und Wertewandelforschung, Philosophie sowie Soziologie von Recht und Politik, Universität Salzburg, http://www.uni-salzburg.at/portal/page?_pageid=205,108417&_dad=portal&_schema=PORTAL

[18] Wissensgesellschaft will nicht heißen, dass wir alle sehr viel wissen, sondern nur dass Wissen von großer Bedeutung für die Gesellschaften ist, „die vordem den alten Industrien zukam“, Martin Carrier, „Wissenschaft im Wandel: Ziele, Maßstäbe, Nützlichkeit“, Information Philosophie. 3/2009, S. 16.

[19] BVerfG, U. v. 27.02.2008 - 1 BvR 370/07, 1 BvR 595/07 - "Online-Durchsuchung"

[20] Prof. Dietmar von der Pfordten, Lehrstuhl für Rechts- und Sozialphilosophie an der Universität Göttingen

[21] Peter Warta, Jahrgang 1939, Werbebranche, Rechtstheorie, praktische Implikationen, z.B. „Wie man das Recht begräbt“, Die Presse 21.03.2008, http://diepresse.com/home/spectrum/zeichenderzeit/371650/index.do