Kunst, Mode, Kitsch und Kultur

Die Kunst, keine Kultur zu sein

Kunst wird gemeinhin als Teil der Kultur verstanden. Ich denke, dass diese Auffassung dem Begriff der Kunst nicht gerecht wird und zusammen mit einer Vermischung verschiedener Bedeutungen des Begriffs „Kultur“ zu keiner zufrieden stellenden Definition des Begriffs „Kunst“ führen kann. Denn „Kultur“ ist einerseits im Deutschen der Sammelbegriff für Musik, Kunst und Malerei, andererseits aber der Begriff für ein menschliche Gemeinschaften verbindendes Element gemeinsamer Normen und Werte.

"Kultur (von lateinisch cultura „Bearbeitung, Pflege, Ackerbau“) bezeichnet im weitesten Sinne alles, was der Mensch selbst gestaltend hervorbringt, im Unterschied zu der von ihm nicht geschaffenen und nicht veränderten Natur." (Wikipedia)

Als schnöder Sammelbegriff ist der Begriff „Kultur“ daher viel zu Schade. Fasst man Kultur dagegen – wie in Wikipedia – als eine Ansammlung von Memen, die durch Sozialisierung, insbesondere dem Lernen von Normen, innerhalb einer Gemeinschaft festgelegt werden, kann man den Begriff „Kunst“ klar trennen: Kultur definiert das informelle Regelwerk in einem System, das zu dessen Erhalt dient; Kultur ist damit per se Konvention und Ordnung.

Kunst dagegen hinterfragt die bestehende Kultur, regt neue Denkanstöße ausserhalb dieser Kultur an und bricht kulturell vorgegebene Denkmuster auf. Eigenschaften, die man gemeinhin der Kreativität zuordnen würde. Wird Kunst gesellschaftlich assimiliert, also von der Kultur vereinnahmt, wird sie zu Kitsch. Kunst steht für mich für das Chaos, das kreative Schaffen ausserhalb von Systemzwängen und somit gerade als Kontrapunkt zur Kultur. Kunst, die als „Kultur“ vermarktet wird, hat schon längst aufgehört, Kunst zu sein; sie wurde zur Ware degradiert.

Ist das Kunst, oder kann das Kitsch?

Jedes Kunstwerk ist nach diesem Verständnis aus seiner Zeit heraus zu betrachten, also im Kontext der Normen und Werte der Gesellschaft seiner Zeit. Der Künstler stellt sich ausserhalb dieser Normen, er experimentiert mit neuen Techniken, er schafft andere Blickwinkel auf die Gesellschaft, indem er sich über bestehende Normen hinwegsetzt. Werden diese Normen allerdings von der Gesellschaft aufgegriffen, werden sie zur Mode. Es entstehen die ersten Kopien, die als Mem verbreitet werden, bis hin zum Aufgehen in den kulturellen Errungenschaften einer Gemeinschaft. Sie werden zu Kitsch, zur Mona Lisa, die von tausend T-Shirts prangt und an jedem Souvenir-Stand in Paris käuflich erworben werden kann. Das damals Revolutionäre, wie der leichte Silberblick der Dame im Porträt, wird tausendfach modifiziert und kopiert. Die Revolution selbst wird zum Kitsch, zum Che Guevara-Anstecker an der Ladenkasse.

Die Entstehung der Entarteten

Ich möchte diese Gedanken anhand der sogenannten „entarteten Kunst“ im Dritten Reich näher erläutern. Der Versuch der Nationalsozialisten, neben der „deutschen Wissenschaft“ eine „deutsche Kultur“ zu schaffen, führte dazu, dass Kunstwerke, die nicht der nationalsozialistischen Ideologie entsprachen, als „entartet“ bezeichnet und verboten wurden. Die Kunst wurde normiert und alles ausserhalb dieser Kunst als „entartet“ gesehen. Nach meiner Sichtweise wurde damit aber lediglich eine Trennung vollzogen, die eh bereits faktisch existierte: eine Kunst, die per Definition ja unabhängig von kulturellen Vorgaben sein muss, hört auf, Kunst zu sein, wenn sie sich der Kultur unterordnen muss. Aus den freischaffenden Künsten wurde Kitsch wie die verklärte Bauernromantik, oder die Herrenmenschen-Abbildungen eines Arno Breker, immer orientiert am „edlen griechischen“ Schönheitsideal einer rassistisch verklärten und staatlich geförderten Ideologie.

Die Frage stellt sich somit, ob eine Staat überhaupt Kunst fördern oder ob sein Wirken sich lediglich auf Kultur beziehen kann. Der Staat ist als Organisationsform in erster Linie an dem Erhalt der ihm innewohnenden kulturellen Errungenschaften interessiert. Das Fördern von Kunst, die mitunter gerade diese Kultur in Frage stellt, kann sich somit als kontraproduktiv erweisen. Auf der sicheren Seite befindet sich ein Staat, der kulturelle Einrichtungen wie Theater und Opern unterstützt, in denen die 100. Aufführung des Freischütz in nahezu unveränderter Form aufgeführt wird. Durchaus ein kulturelles Erlebnis, aber ist das noch Kunst? Würde der Regisseur den Freischütz in die Moderne verlegen, würde der Freischütz somit neue Blickwinkel auf aktuelle gesellschaftliche Probleme ermöglichen, er würde ein Stück künstlerische Freiheit zurückerlangen, die dem Stück durch das automatisierte Herunterspielen genommen wurde. Ob zum Beispiel Brechts Nachkommen und Rechteinhaber ihm und seinen Werken einen Gefallen getan haben, indem sie auf Ausführung dieser Werke möglichst nahe am Original bestanden? Das Urheberrecht erweist sich hier wieder einmal als größter Feind der Kunst, obwohl es eigentlich ihrer Förderung dienen sollte.

Kunst lebt von der Variation, von Vielfalt. Das bedeutet, dass auch Kitsch durch Entfremdung, durch Entfernung seiner kulturellen Identität, wieder zu Kunst werden kann. Ein Staat muss akzeptieren, dass Kunst niemals gesteuert, wohl aber gefördert werden kann, und selbst dann nur ausserhalb der Schablone wirtschaftlicher und ideologischer Anforderungen. Diese Freiheit der Kunst wird in Deutschland vom Grundgesetz (Art 5) garantiert, hindert die Politik und Medien aber nicht daran, immer wieder auf’s Neue „Leitkulturen“ definieren zu wollen, nach denen „Kunst“ als identitätsstiftend gefördert wird. Doch wo um Kultur gekämpft wird, ist die Kunst stets das erste Opfer.

Willkürenritt

Nietzsche, der sich von einem glühenden Bewunderer Richard Wagners zeit seines Lebens zu einem entschiedenen Gegner seiner Werke wandelte, schrieb in seinem Zarathustra das oft zitierte „Man muss noch Chaos in sich haben, um einen tanzenden Stern gebären zu können.“ Der junge Nietzsche bewunderte den angehenden Künstler Wagner, der sich gegen die Normen seiner Zeit wandte, mit den Regeln und Konventionen brach, klassisch versinnbildlicht in der Figur des Wotans in Der Ring der Nibelungen, der die von ihm selbst gegebenen Regeln bricht. Ein leuchtender Stern in der bräsigen Ordnung des nachrevolutionären Deutschlands. Später wandelten sich die Motive Wagners hin zur christlichen Weltanschauung und Ästhetik, der Leitkultur seiner Zeit. Diesen Schritt vom Künstler hin zum Kulturschaffenden, vom kritischen Revolutionär (der Wagner vielleicht selbst nie gewesen ist) zum Vorzeigeobjekt einer neu erwachsenen deutschen Identität, hat Nietzsche ihm nie verziehen. Schuf Wagner am Ende seiner Karriere dennoch Kunstwerke, oder war dies bereits die handwerklich hochwertige Verkitschung der Erwartungshaltung seiner Bewunderer und Förderer?

In der schleichenden Vereinnahmung ruht vielleicht die größte Gefahr für Künstler. Wenn die eigene Kunst zur Kultur wird, wenn damit gesellschaftliche Erwartungshaltungen einhergehen, die immer und immer wieder erfüllt werden müssen, wenn das kreative Chaos der Routine weichen muss, wenn man sich von seinen eigenen Werken entfremdet, weil sie nicht mehr aus einem inneren Antrieb, sondern aus äusserem Zwang zur Konformität heraus entstehen, dann stirbt das Selbstbild des Künstlers als selbstbestimmtes Subjekt, gebunden durch Verträge als Opfer seines eigenen Erfolgs. Und am Schluss finden sich im Souvenirladen nicht nur T-Shirts mit Aufdrucken der Mona Lisa und Nietzsche-Sprüchen wieder, sondern auch von Kurt Cobain, der mal sagte: „Ich hoffe, dass ich sterbe, bevor ich Pete Townsend werde.“ War Nietzsche eigentlich Künstler?

Entarte Kunst
http://de.wikipedia.org/wiki/Entartete_Kunst

Mona Lisa
http://de.wikipedia.org/wiki/Mona_Lisa

Nietzsche Contra Wagner
http://de.wikipedia.org/wiki/Nietzsche_contra_Wagner

 

 

 

 

 

 

 

 

 

 

Veröffentlicht unter Nicht kategorisiert | Verschlagwortet mit , , , | Hinterlasse einen Kommentar

Big Data – Was du letzten Sommer nicht getan hast

Der Fluch des Savants

„Behörden und Unternehmen können ruhig alles über mich wissen. Ich habe ja nichts zu verbergen“. Wie oft habe ich diesen Satz schon in meinem Leben gehört, während ich versuchte, an Infoständen und bei Diskussionen das abstrakte Thema der Überwachung und Datensammelwut von Behörden und Unternehmen zu vermitteln. Wie viele Mühen wurde bereits unternommen, um dem Thema die Abstraktion zu nehmen, den Betroffenen emotional vor Augen zu führen, wie sich Überwachung auf ihre Privatleben auswirken würde? Ein Drahtseilakt zwischen dem Vorwurf gesetzlicher Unredlichkeit („wer ist schon immer gesetzestreu?“), der oft zu ablehnenden Reaktionen führt, und dem Überschreiten der Schamgrenze mit dem Bildnis der Überwachungskamera in Schlaf- und Badezimmer. Alles nur, um dem Totschlagargument „wer nichts zu verbergen hat, hat auch nichts zu befürchten“ zu begegnen. Doch ist das wirklich so? Haben denn nicht gerade diejenigen, die alles offen legen, Nachteile zu befürchten, und sei es nur durch Informationsasymmetrie?

Nehmen wir einmal den – psychologisch bestimmt ungesunden und unglaubwürdigen – Zustand an, dass alle Menschen nichts zu verbergen hätten und vom Zeitpunkt des Aufstehens bis zum Schlafengehen ein gesetzestreues Leben führen würden. Vermutlich wäre dies das Paradies auf Erden, oder die Hölle, je nach Blickwinkel. Eine Art gesellschaftlicher Wärmetod, ohne jegliche Reibung, ohne jegliche Spannung. Jedenfalls würde diese Utopie vollkommen überwacht werden, um den Status Quo aufrecht zu erhalten. Es würden gigantische Datenmengen anfallen, die gefiltert und analysiert werden müssten. Und damit würde sich die Frage stellen: was soll überhaupt gesammelt und analysiert werden? Welche Daten sind überhaupt relevant?

Unser Gehirn hat auf diese Frage eine einfache Antwort: es werden zwar pro Sekunde etwa 100 MB an Daten gesammelt, aber nur ein Bruchteil davon wird überhaupt verwertet und ein noch geringerer Teil davon behalten. Was wir letztendlich im Gedächtnis behalten hängt von sehr vielen Faktoren ab, wie zum Beispiel dem Fokus unserer Aufmerksamkeit, unserer Aufnahmefähigkeit, der Bekanntheit des Vorgangs, der emotionalen Bindung, der Zahl der Wiederholungen und vielem mehr. Die Unmengen an Daten, die aus unserer komplexen Umwelt an uns dringen sorgen somit nicht für eine Überlastung unserer mentalen Kapazitäten, sondern die Komplexität wird herunter gebrochen und mit uns bereits bekannten Daten verknüpft. Das, was wir wahrnehmen, hängt also in großem Maß von dem ab, was wir bereits kennen. Wir können allerdings durchaus auch „wahrnehmen“, was nicht existiert und was uns lediglich unser Gehirn vorgibt.

But what if we add… MORE DATA!

Ein Mehr an Daten bedeutet nicht automatisch eine Verbesserung der Erkenntnis von Situationen, sondern mehr Daten können zu einer Art Informationsrauschen führen, in der jegliche Struktur verloren geht. Die Art und Weise, wie man „Sinn“ in diese Datensammlung bringt, ist daher von höchster Wichtigkeit. „Sinn“ ist hier als eine Art Metaebene zu sehen, auf der die gesammelten Daten nach bestimmten Merkmalen durchsucht werden, um eine gegebene Komplexität zu „verstehen“. Der Analyst/Betrachter hat stets eine gewisse Intention, mit der diese Daten betrachtet werden. Bei den RAF-Rasterfahndungen in den 70er-Jahren zum Beispiel ging es darum, Anhaltspunkte für den Aufenthaltsort von Terroristen zu finden. Bei Marktforschung von Unternehmen geht es darum, den Markt und seine Teilnehmer in Bezug auf die Absatzmöglichkeiten zu analysieren. Die Intention, mit der diese Datensammlungen betrachtet werden, sind entscheidend im Hinblick auf die zu erwartenden Resultate. What you see is all there is.

Es mag zwar nicht wissenschaftlich achtbar sein, nur Daten zu sichten, die für die eigenen Theorien sprechen, statt durch Falsifizierung nach ihrer Ungültigkeit zu suchen, aber es ist nun mal zutiefst menschlich im Streben nach Anerkennung und Bestätigung. Das eigene Weltbild muss doch, einer sich ständig wechselnden Umgebung zum Trotz, fest verankert sein und darf nicht bei jeder neuen Information gleich ins Schwanken geraten! Aber wie ist diese ständige mentale Adaption der „objektiven Realität“ an „unsere Realität“ im Hinblick auf gesammelte Daten zu bewerten? Menschen sind großartig darin, Muster zu erkennen, die sie einmal erlernt haben. Wenn wir Datenansammlungen sehen, versuchen wir, darin Muster zu erkennen, sprich: diesen Daten „Sinn“ zugeben. Sinn steht hierbei für mich gleich der Verankerung des Beobachteten im bereits Bekannten. Im neuronalen Netzwerk unseres Gehirns werden bekannte Verbindungen verstärkt oder mit bereits bekannten Verknüpfungen verbunden.

Unendlich viele Affen, die in Bibeln blicken

Die Gefahr, die nun besteht, ist, dass in den Datensammlungen nach Merkmalen gesucht wird, die in bestimmte „Bilder“ passen. Ein Herr S. sucht Daten, die schlüssig beweisen können, dass Ausländer gewalttätig und arbeitsscheu sind. Also sucht er Daten, die zu diesem Bild passen und ignoriert Daten, die nicht seine Theorie widerlegen würden. Statistische Fehler, die dabei gemacht werden, gehen im emotionalen Rauschen der Empörungswellen unter. Das wird man doch noch sagen dürfen! Ja, aber bitte nicht nachrechnen.

Nehmen wir Wachtmeister K. als Beispiel. Er kennt seine Papenheimer sehr genau und weiss, nach welchen Merkmalen er Ausschau halten muss, um Drogendealer und Kleinkriminelle zu erwischen. Dass auf 100 festgehaltene „Verdächtige“ dunklerer Hautfarbe gerade 1-2 „Erfolge“ vorzuweisen kommen, ist dabei unerheblich: Jeder noch so kleine Erfolg bestätigt seine Theorie, da es keine Vergleichszahlen gibt und aufgrund des Erfolgs nicht der Versuch unternommen wird, herauszufinden, ob die örtlichen Kriminellen vielleicht dazu übergegangen sein könnten, hellhäutige Kuriere zu engagieren, weil diese seltener untersucht werden. In komplexen Systemen bleiben „Erfolgsgaranten“ aufgrund von Rückkopplungen nicht fortdauernd erfolgreich, sondern tragen zunehmend zu einer Destabilisierung bei, weil „unerwünschtes“ Verhalten nicht mehr erkannt wird, so lange einmal festgelegte Regeln/Theorien nicht revidiert werden.

Ein sehr schönes Beispiel für Theoriebildung bei umfangreichen Ausgangsdaten, die mit genügend Phantasie bei der Mustererkennung zu spektakulären Resultaten führte, liefert der sogenannte „Bibelcode“. Anhand der Bücher Mose fand der Journalist Drosnin in der Bibel „codierte“ Hinweise auf zukünftige Ereignisse, wie zum Beispiel der Ermordung des Kennedy-Attentäters Oswald durch Ruby, oder dem Fall der „Zwillingstürme“ an 9/11. Anhand der Datenmenge und durch Anpassung der Such-Schmeta war es nun relativ einfach, derartige Textstellen zu identifizieren und der Bibel und ihren Autoren somit prophetische Eigenschaften zuzuschreiben. Später wiesen einige Mathematiker nach, dass man mit ähnlicher Methode auch prophetische Nachrichten im Buch „Moby Dick“ nachweisen konnte. Korrelation hatte über Kausalität und der Glaube an das Phantastische über die Vernunft gesiegt. Was bei Religionen übrigens nicht unbedingt selten vorkommt.

Teekannen im Orbit

Die Gefahr, die nun von großen Datensammlungen ausgeht, ist also nicht nur, dass man ein Verhalten nachweisen kann, das nachweislich strafbar ist, sondern dass ein Verhalten aus den Daten heraus konstruiert werden kann, das zudem rational belegbar ist. Wenn ich mich per Zufall in einer Funkzelle befinde, in der ein Verbrechen verübt wird, gerate ich durch meine pure Anwesenheit bereits in den Fokus der Ermittlungen. War ich in der Vergangenheit schon mal auffällig? Wurde ein ähnliches Verbrechen vielleicht bereits vor einer Woche verübt und war ich vielleicht ebenfalls in der Umgebung? Muss ich vielleicht durch Abgabe einer DNS-Probe „beweisen“, dass ich nicht an einer Tat beteiligt war? Werden die Proben nach der Untersuchung tatsächlich vernichtet?

Durch die Menge an Daten ist es möglich, derart viele Verdachtsmomente zusammenzufügen, um einer Person ernsthaft zu schaden. Man konstruiert spielend weitere Anhaltspunkte für das tiefere Eindringen in das – eigentlich besonders streng geschützte – private Umfeld. Solche Eingriffe müssen nicht einmal von staatlicher Seite unternommen werden, sondern können zum Beispiel durch Medien erfolgen. RTL 2 und Bunte ermitteln. Misshandelt diese Prominente ihr Kind? Ist der brave Bankangestellte nur die Fassade für sexuelle Ausschweifungen? Je mehr Daten vorhanden sind, desto leichter lassen sich Zusammenhänge konstruieren und das Vermarkten und die Analyse von Zusammenhängen ist ein lukratives Geschäftsfeld. Wo auch nur ein Kontext vermutet wird, ist für Menschen auch schnell ein tatsächlicher Kontext vorhanden, weil oftmals das Bewusstsein für statistische Zusammenhänge fehlt. Und warum nach komplizierten Lösungen suchen, wenn die einfache Lösung doch bereits „rational“ ermittelt auf der Hand liegt? Zahlen lügen nicht! Und Skandale bringen Quote und Einnahmen.

Wo nun einmal der Anfangsverdacht besteht, wird es für den Betroffenen schwer sein, das Gegenteil nachzuweisen, denn aufgrund der Informationsasymmetrie stehen die erhobenen Daten nur dem Ankläger zur Verfügung. Ein Beispiel hierfür sind die Ermittlungen gegen die bundesdeutschen Nachrichtendienste und Verfassungsdienste: Auf der Seite der Geheimdienste gibt es riesige Datensammlungen, deren Zustandekommen und Umfang oft nicht einmal den für die Überwachung dieser Behörden zuständigen Regierungsstellen bekannt sind, auf der anderen Seite gibt es den Besitzer eines kleinen Gehirns, das oftmals schon vergessen hat, was es vorgestern zum Frühstück gab. Wie soll nun ein Beschuldigter glaubhaft darlegen können, dass er etwas nicht begangen hat, wenn die „Beweise“ dafür sprechen? Zur falschen Zeit am falschen Ort.

Es ist also möglich, trotz bestehender „Unschuldsvermutung“ mit vorhandenen Daten nicht nur einen Anfangsverdacht,  sondern hinreichend Indizien zu produzieren, die vielleicht sogar für eine Verurteilung reichen würden. Damit sind nicht nur diejenigen gefährdet, die sich ungesetzlich verhalten, sondern gerade diejenigen, die durch Korrelation unverschuldet in das Umfeld ungesetzlicher Handlungen geraten. Dem Nachweis der Schuld durch gesammelte Daten ist oft nichts entgegenzusetzen, da der Betroffene selbst eben nicht Einblick in die Daten erhält, sondern lediglich in das erkannte Muster, unabhängig davon, ob durch eine alternative Interpretation sich dieses Muster als reine Spekulation entpuppen würde. Letztendlich hat also jeder etwas zu befürchten, jeder etwas zu verlieren, wenn unkontrolliert Daten gesammelt werden, deren Analyse so gut wie keiner Kontrolle durch demokratische Instanzen unterworfen ist, wie es de facto derzeit der Stand in Deutschland und zahlreichen anderen Ländern ist. Es kann jeden treffen, nicht nur „Straftäter“.

Null Collect

Die beste Verteidigung gegen derartige Datenmonster ist die komplette Vermeiden der Erhebung der Daten, sei es durch Mautbrücken, elektronische Gesundheitskarten, Sammeln von elektronischen Kommunikationsdaten und den zahlreichen privatwirtschaftlichen Methoden und Gängelungen am Verbraucherschutz vorbei. Die inhärente Gefahr des Erhebens und Auswertens von Daten ist dabei nicht der Missbrauch von „Vertrauen“ oder die Überprüfung des persönlichen Wohlverhaltens, sondern vielmehr die einer totalitären Unterdrückung persönlicher Freiheit ohne jegliche Rechtssicherheit entgegen der Intention der Menschenrechte. Das Bewusstsein der Möglichkeit einer Überwachung unterscheidet sich nur noch unmerklich vom Bewusstsein, dass man tatsächlich überwacht wird. Eine pluralistische Gesellschaft braucht jedoch die Vielfalt der Möglichkeiten, die aus den individuellen Freiheitsrechten erwachsen. In dieser Vielfalt liegt die Stärke, um in komplexen Gesellschaftssystemen Lösungen für Probleme erarbeiten zu können. Der Schutz dieser Lebensräume sollte oberstes Prinzip jeder verantwortungsbewussten Regierung sein, nicht das Zerstören der Grundlagen dieser Ordnung für einen imaginären Sicherheitsgewinn, der durch Repression erzielt wird. Gesellschaften können auf Dauer nicht durch Repression überleben, sondern sie zerstören sich früher oder später von Innen heraus.

Weiterführende Links:

Russells Teekanne
http://de.wikipedia.org/wiki/Russells_Teekanne

Der Bibelcode/Tora-Code
http://de.wikipedia.org/wiki/Bibelcode

Falsifikation
http://de.wikipedia.org/wiki/Falsifikation

Das Gehirn und seine Informationsverarbeitung:
http://www.projectory.de/koreanisch/sprachenlernen/gehirn.html

Thomas Metzinger – Der Ego-Tunnel:
http://www.perlentaucher.de/buch/thomas-metzinger/der-ego-tunnel.html

Beispiel für eine optische Täuschung
http://www.sehtestbilder.de/optische-taeuschungen-illusionen/images/elefant-fuenf-beine.jpg

Rasterfahndung
http://de.wikipedia.org/wiki/Rasterfahndung

What you see is all there is – Thinking Fast And Slow
http://en.wikipedia.org/wiki/Thinking,_Fast_and_Slow

Freakonomics
http://freakonomics.com

Veröffentlicht unter Nicht kategorisiert | 2 Kommentare

Flüssigsprengstoff (Teil 2)

Intention

Nachdem ich im 1. Teil bereits auf die für mich sehr unbefriedigende Ausgangssituation von Liquid Democracy und somit auch von Liquid Feedback eingegangen bin, möchte ich zu Beginn von Teil 2 einige Begrifflichkeiten erläutern, die ich im folgenden verwenden werde.

1) Liquid Democracy

Da es verschiedene Konzepte von Liquid Democracy gibt, beschäftige ich mich in erster Linie mit den Gemeinsamkeiten, die ich ausmachen konnte: der möglichen Delegation von Stimmen an Delegierte unter Vorbehalt der eigenen Abstimmung. Ich unterscheide hierbei LD mit der Möglichkeit von Kettendelegationen sowie mit eingebautem Verfall der Delegationen.

2) Delegation

Der Begriff der „Delegation“ ist ebenfalls nicht eindeutig klärbar und unterscheidet sich je nach Kontext. Ich verwende ihn hier im Sinne der reinen Weitergabe des eigenen Stimmrechts an einen weiteren Abstimmungsberechtigten.

Ziel meiner Untersuchung soll es sein, festzustellen, inwiefern sich der  oft zitierte Spruch „die Vorteile von LD/LQFB überwiegen für die Nachteile“ überprüfen lässt und wo ich die Gefahren von LD liegen. Den Schwerpunkt lege ich dabei auf eine soziologische, systemische Betrachtung der LD inhärenten Mechanismen und verweise auf bereits bekannte Entwicklungen verschiedener Implementationen von LQFB.

Wozu eigentlich Delegationen?

Wenn man sich mit der Umsetzung von Liquid Democracy in Liquid Feedback beschäftigt, stellt sich die Frage, wieso bei einem Online-tool für kollaboratives Arbeiten und Abstimmungen überhaupt Delegationen verwendet werden. Delegationen bedeuten in einem System (das ohne weiteres ohne Delegationen auskommen könnte, um kollaborative Entscheidungen  ermöglichen zu können) eine weitere Schicht an Komplexität, die sich auch bei der Umsetzung des Wahlverfahrens z.B. in einer Software in erhöhtem Aufwand niederschlägt.

Als wesentliche Begründung für Delegationen werden immer wieder 2 Argumente ins Feld geführt:

  1. Delegationen ermöglichen Mitbestimmung selbst dann, wenn man selbst nicht die Ressourcen (Zeit, Geld, Sachkenntnis) aufbringen kann oder möchte, um sich an einer Abstimmung zu beteiligen.
  2. Delegationen führen Stimmen denjenigen Experten zu, die Ressourcen aufbringen, um bei Abstimmungen qualitativ hochwertige Entscheidungen zu treffen

Die Begründungen sind für sich genommen durchaus richtig und erleichtern die Beteiligung an Abstimmungssystemen. Sie beeinflussen allerdings auch die Erwartungen und Ergebnisse, die aus einem derartigen System kommen. So bedeutet eine Delegation meiner Stimme an eine weitere Person, dass ich meine persönliche Meinung zu einem Thema auf die bereits vorhandene Meinung einer anderen Person abbilde, bei der ich von einer weitestgehenden Übereinstimmung ausgehe. Von dieser Person kann ich lediglich hoffen, dass sie meine Interessen so vertreten wird, wie ich es selbst tun würde. Die persönliche Präferenz zu einem Thema wird also mit der persönlichen Präferenz einer Person vermischt, die meine Meinung bestmöglich wiedergeben soll. Statt meiner eigenen Kenntnis des Themas können jedoch durchaus persönliche Faktoren bei der Auswahl des delegierten eine Rolle spielen, wie Bekanntheitsgrad, Beziehung zu dieser Person in der Vergangenheit, Vermutungen über die Kenntnis des Sachstands dieser Person. Lapidar gesagt: selbst wenn eine thematische Übereinstimmung vorliegt, bedeutet dies nicht zugleich eine moralische Übereinstimmung mit demjenigen, an den man die Stimme delegieren möchte. Diese Vermischung von persönlicher und thematischer Ebene sehe ich als das erste große Problem von Delegationen an. Zwar besteht die Möglichkeit der Rücknahme einer Delegation, allerdings entsteht bei einem „enttäuschten“ Delegierenden (wobei die Enttäuschung nicht zwingend in der Abstimmung begründet sein muss sondern auf externen Effekten beruhen kann) eine emotionale negative Verbindung zum Delegierten, die nicht der Übereinstimmung zukünftiger Sachfragen entsprechen muss.

Durch den beschriebenen Effekt der bei der Vermischung von Person und Themen muss eine Ansammlung von Stimmen bei einem Delegierten nicht unbedingt auf einen Experten zu diesem Thema hinweisen. Hierzu muss man sich nur zahlreiche „Experten“-Kommissionen ansehen, die zu ihnen vollkommen fachfremden Themen Beschlüsse herbeiführen. Man könnte diese Personenbindung bei Wahlen aufheben, indem man lediglich anonyme Abstimmungen erlaubt, allerdings würde dies in Tools mit „Fernabstimmung“ (elektronisch, Briefwahl etc.) eine Überprüfbarkeit der eigenen Stimmverteilung im Nachhinein nicht mehr erlauben. Ein klassischer Catch-22, der gerne bei Diskussionen übergangen wird und unter „man muss für die schnelle Entscheidungsfindung Opfer bringen“ abgehakt wird.

Oft wird als Pro-Argument für die Bildung von Experten mit hohem Stimmenanteil der „Dunning-Kruger„-Effekt angeführt: „Wenn jemand inkompetent ist, dann kann er nicht wissen, dass er inkompetent ist. […] Die Fähigkeiten, die man braucht, um eine richtige Lösung zu finden, [sind] genau jene Fähigkeiten, um zu entscheiden, wann eine Lösung richtig ist.“ (David Dunning). Abgesehen davon, dass mit Dunning-Kruger auch ein gutes Argument gegen (!) Delegationen aufgeführt wird (denn woher soll ich wissen, wem ich meine Stimme delegieren soll, wenn ich selbst nicht die Kompetenz habe, um bei dem Thema zu entscheiden?), gibt es durchaus andere gruppenpsychologische Effekte, die gegen einen „Expertenrat“ sprechen, wie die Gefahr des Groupthinks, also die Tendenz einer Gruppe von „Fachleuten“, sich selbst zu bestätigen, alles richtig und gut zu machen, während Kritik in der Gruppe durch den Kollektivdruck unterbunden wird. Unterschätze niemals die Macht institutionalisierten Wissens, selbst dann nicht, wenn es sogar für Nichtexperten offensichtlich unsinnig ist (z.B. „Homo oeconomicus“ als Leitbild volkswirtschaftlicher Überlegungen, oder mal die katholische Kirche fragen)!

Eine kurze Geschichte der Delegation

Die Übergabe von Verantwortung lässt sich ausserhalb von hierarchischen Ordnungen kaum denken. Delegationen können generell in einer Hierarchieordnung von Unten nach Oben verlaufen oder von Oben nach Unten. Die Hierarchie muss dabei nicht machtpolitischer Art sein, sondern es kann sich um verschiedene qualitative Maßstäbe handeln, wie z.B. Informationsvorteile oder die körperliche Befähigung. Bei Liquid Democracy wird davon ausgegangen, dass die Delegation von Unten nach Oben erfolgt, wobei die Begründung für die Delegation nicht eindeutig festlegbar ist und von persönlicher Vorliebe über Anerkennung/Übereinstimmung mit den Positionen bis hin zu schlichter persönlicher Bekanntheit reichen können. Dies hat sich im Laufe der Menschheitsgeschichte nur geringfügig geändert, wobei in der prähistorischen Zeit Anführer einer Gruppe aufgrund ihrer qualitativen Vorteile für das Wohl der Gruppe ernannt wurden oder, wie oben bereits erwähnt, aufgrund persönlicher Präferenzen/Bekanntheit dieser Person. Dies ist bei kleinen Gruppen kein Fehler, sondern eine wichtige Interaktion in jeder sozialer Gruppe. Enttäuschungen z.B. durch Verrat bleiben im Gedächtnis der Gruppenmitglieder und beeinflussen zukünftige Entscheidungen, so dass sich quasi als Rückkopplungseffekt eine dem Wohl der sozialen Gruppen angepasste Verhaltensweise ergibt. Diese Verhaltensweisen lassen sich bereits bei verschiedenen Arten von Menschenaffen nachweisen, wobei die Entwicklung der Kommunikation bei Menschen hin zu Sprache und Schrift bedeutete, dass begangene „Untaten“ nicht mehr durch die Sanktionierenden persönlich erfahren werden mussten, sondern an Dritte (Unbeteiligte) weitervermittelt werden konnten. Wer Twitter und Mailinglisten kennt, weiss, wohin dies führen kann. 😉

In solchen Gruppen ernannte Anführer sprachen nicht für die gesamte Gruppe, sondern hatten weiterhin das gleiche „Stimmrecht“ wie jedes andere Mitglied in der Gruppe (u.a. beschrieben in „Origins of Political Order“ von Fukuyama, zu soziologischen Untersuchungen bei Naturvölkern). Analog zu Liquid Feedback war die „Delegation“ (hier als Übertragung von Verantwortung für die Gruppe)  jederzeit widerrufbar, wenn das Wohl der Gruppe durch die Handlungen des „Anführers“ in Gefahr gebracht wurden. Dies war relativ einfach zu bewerkstelligen, da es keinerlei institutionalisierte Machtbasis gab, wie sie später nach der Entstehung der ersten Staaten existierte, und ein Anführer somit keine große Durchsetzungsmöglichkeit von Strafen – abgesehen von seinem persönlichen Einsatz – hatte.

Delegationen sind also nichts „widernatürliches“ sondern können durchaus als ein schon immer bestehender Bestandteil sozialer Gruppen gesehen werden, die im Laufe der Geschichte allerdings viele Umdeutungen erfahren hat. In den Zeiten wachsender Staaten wurden Delegationen zu einem wichtigen Bestandteil der staatlichen Organisation und halfen, bei eingeschränkten Kommunikationsmöglichkeiten eine Ordnung im Staatsgefüge aufrecht zu erhalten. Interessant ist es also, den Effekt von Delegationen in einem Kommunikationsumfeld zu betrachten, das einen hohen Grad an Vernetzung in einer komplexen Umwelt aufweist und dabei kaum noch auf persönliche Kontakte und Erfahrungen der an der Meinungsfindung beteiligten Mitmenschen beruht.

Vox populi, vox Dei?

Ich möchte kurz beschreiben, was eigentlich den Reiz einer kollektiven Meinungsfindung ausmacht, die in der Lage ist, für große Ansammlungen von Menschen ad hoc Handlungsanweisungen zu bilden. In einer komplexen Umwelt überlebt derjenige Organismus, der sich dieser Umwelt am besten angepasst hat. Dies kann durch Anpassung an eine Nische erfolgen, oder durch eine hohe Anpassungsfähigkeit an Veränderungen. Die Spezialisierung auf eine Nische erlaubt es, dass die in dieser Nische zur Verfügung stehenden Ressourcen optimal genutzt werden. Wird dieses Habitat allerdings aufgrund von Umwelteinflüssen zerstört, dann sind Organismen, die nicht anpassungsfähig sind, dem Untergang geweiht. Eine generelle Anpassungsfähigkeit sorgt also in einer Umgebung mit wechselnden Bedingungen dafür, dass Organismen auch bei sich ändernden Lebensbedingungen überlebensfähig sind.

Änderungen in der Umwelt müssen von Organismen wahrgenommen werden können, damit sie darauf reagieren können. Das Feedback der Umwelt und dessen Verarbeitung führt erst zu Reaktionen auf ihr Veränderungen. Vor dem Löwen, den ich nicht sehe, laufe ich auch nicht weg. Dies gilt für Organismen genauso wie für Zusammenschlüsse von Organismen mit sozialen Regeln, die ich hier als Organisationen bezeichnen möchte. Bei Organisationen bestimmen die Kommunikationswege, wie Informationen aus der Umwelt und der Organisation selbst verarbeitet werden. Dies ist bei Menschen oft eine streng hierarchische Form mit einer bidirektionalen, formalisierten Kommunikation, wie bei dem Paradebeispiel Militär, dessen Aufbau sich in den ersten Staatengebilden wiederfindet. Die Lenkung/Steuerung von Organisationen ist also auf die Weitergabe von Informationen angewiesen, wobei die Informationen auf den unterschiedlichen Hierarchieebenen gefiltert werden.

Die Gefahr dieser Vorgehensweise liegt darin, dass wichtige Informationen eben nicht weitergegeben werden, weil ihre Wichtigkeit nicht erkannt wurde, oder weil es Kommunikationsfehler gegeben hat (siehe Challenger-Katastrophe). Normen, Gesetze, Institutionalisierung helfen dabei, die Steuerung von Organisationen  zu erleichtern, allerdings bedeuten sie zugleich eine Aufgabe von Flexibilität in Hinblick auf die Fähigkeit zur Reaktion auf Störungen, die in der Organisation nicht vorgesehen sind, wobei die Störungen durchaus von geschaffenen Strukturen innerhalb der Organisation selbst ausgehen können. Lineare Denkmuster in einer Welt aus positiven und negativen Rückkopplungen tun ihr übriges, um an der Überlebensfähigkeit von Organisationen zu rütteln.

Als Lösungsansatz bietet sich die Methode an, bei der Entscheidungsfindung alle Betroffenen direkt einzubinden, z.B. über Methoden der direkten Demokratie. Die Idee dahinter besagt, dass das Feedback von möglichst vielen Menschen eingeholt werden soll, um darauf aufbauend Entscheidungen zu finden, die zum Fortbestand und „Erfolg“ von Organisationen beitragen  (also „vernünftig“ sind). Die Organisation organisiert sich quasi selbst über die Selbstbetrachtung/Reflexion, die wiederum durch die ihnen angehörenden Individuen erfolgt (Autopoiesis).

Mit dem populären Aufkommen von Kybernetik, Psychologie und Sozialwissenschaften  im 20. Jahrhunderts kamen vermehrt Ideen auf, wie man die gewonnen Erkenntnisse auch politisch verarbeiten könnte. Kernvorstellung dieser Denkrichtung ist die „Weisheit der Vielen„, die in der Piratenpartei als „Schwarmintelligenz“ mehr oder minder zu Ruhm gekommen ist. Doch die „Weisheit“ stellt sich nicht automatisch ein, wenn viele Menschen zusammenkommen, wie jeder wohl bestätigen kann, der  mal einem Oktoberfest oder einem Fussball-Bundesligaspiel beigewohnt hat. Vielmehr gibt es wichtige Grundvoraussetzungen, die erfüllt sein müssen:

  1. Meinungsvielfalt: Innerhalb der Gruppe darf es keine Meinungskonformität geben. Eine möglichst große Zahl subjektiver Erfahrungen erhöht die Qualität des Endergebnisses.
  2. Unabhängigkeit: Die Meinung des Einzelnen ist nicht festgelegt durch die Ansicht der Gruppe, d.h. die Meinung der Gruppe sollte nicht die Meinung des Einzelnen während der Entscheidung bestimmen.
  3. Information: Der Zugang zu Information, die für die Entscheidungen relevant sind, steht allen Mitgliedern der Gruppe offen.
  4. Zusammenführung: Es sind Strukturen vorhanden, die aus den Einzelmeinungen ein Ergebnis ziehen können (also durchaus ein Argument für Delegationen)

Diese Prinzipien finden sich durchweg im Programm der Piratenpartei wieder und lassen sich sehr schön im kurzen Wahlspruch „Denk selbst“ subsumieren. Eine etwas ausführlichere Betrachtung der Zusammenhänge von Programm der Piraten und Erkenntnissen kybernetischer Forschung hatte ich im Beitrag Piraten – Eine Konzeption zusammengestellt, deshalb möchte ich hier nicht weiter darauf eingehen.

Alles fließt – nur wohin?

Wenn man sich die Verteilung der Abstimmenden in LQFB anschaut, wird deutlich, dass es bei vielen Themen bereits 2010 regionale sowie personelle Konzentrationen gab (siehe „Tale of LQFB“ von StreetDogg). Die Konzentrationen sind im Hinblick auf die Prozesse in LQFB (und auch Liquid Feedback) unter Berücksichtigung spieltheoretischer Überlegungen durchaus verständlich. Sie sind meine Hauptsorge.

Ein Delegierter hat zum Zeitpunkt der Abstimmung n Stimmen, die gegen die 1 Stimme derjenigen stehen, die selbst abstimmen und die keine Delegationen auf sich vereinigen. Um eine Parität zu erreichen, müssen sich bei gegensätzlichen Meinungen n Nicht-Delegierende zusammenfinden, um einen Delegierten mit n Stimmen aufzufangen. Der Delegierte hat für den Stimmanteil im Vorfeld Überzeugungsarbeit leisten müssen, dafür ist ihm dieser Stimmanteil bis zum Delegationsentzug gewiss. Die Delegierenden haben bei der Abstimmung einen Aufwand, der gegen Null tendiert, wenn sie nicht nicht gerade die Abstimmung des Delegierten überprüfen möchten. Jedenfalls brauchen sie sich nicht für die Abstimmung zu interessieren, Überzeugungsarbeit zu leisten oder Informationen zu sammeln/Recherche.

Mir ist mindestens eine Variante von Liquid Democracy bekannt, die davon ausgehen, dass es generell nur (!) unverbindliche Meinungsbilder geben kann, denn wenn ein Meinungsbild als definitive Entscheidung übernommen wurde, kann dieses Meinungsbild nachträglich nicht mehr verändert werden, womit die Liquidität aufgehoben wird. Entscheidet sich ein Delegierter also im letzten Moment vor dem Meinungsbild um, müssen die Delegierenden wohl oder übel seiner Meinung folgen. Allerdings würde dieser „Verrat“ wohl mit dem Entzug der Delegationen bestraft werden. Trotzdem ist dies ein gefährliches Einfallstor für die gefürchtete „Politik 1.0“, die mit Hilfe einiger schneller Telefonate die Entscheidungsträger vor einer Abstimmung entsprechend unter Druck setzen kann.

Nicht-Delegierende müssen zwar ebenfalls Überzeugungsarbeit leisten, um Abstimmende von ihrem Standpunkt zu überzeugen (Anhänger mobilisieren), dies allerdings bei jeder Abstimmung neu. Der Aufwand ist hierfür wesentlich höher, als bei einem Delegierten, der z.B. für ein Thema beauftragt wurde. Zudem wiederholt sich der Vorgang der Informationsgewinnung/Recherche bei n Nicht-Delegierenden auch n-mal (unter der Prämisse, dass diese überhaupt stattfindet und in etwa der Recherche eines Delegierten entspricht). Dieser Aufwand wird allerdings erst dann betrieben, wenn überhaupt eine Aussicht besteht, einen Delegierten überstimmen zu können. Wenn zahlreiche Nicht-Delegierende Ressourcen investieren, um dann bei der Abstimmung einem Delegierten zu unterliegen, der mit seinem Stimmpotential die Abstimmung entscheidend beeinflusst hat, werden die Nicht-Delegierenden entweder selbst einen Delegierten „erschaffen“, der als Kristallisationspunkt für ihren Standpunkt dient, oder sie werden der Abstimmung bei dem Thema zukünftig fernbleiben. Desweiteren gibt es die Möglichkeit, vermehrt Überzeugungsarbeit zu leisten (noch mehr Ressourcen investieren)  oder es wird versucht, direkt den Delegierten zu beeinflussen.

Die wahrscheinlichsten Szenarien sind hierbei das Fernbleiben von Abstimmungen, weil die investierten Ressourcen ohne jeglichen Nutzen verloren sind und weitere Investitionen sinnlos erscheinen. Oder es kommt zum Zusammenschluss der Stimmen in einem  oder mehrerenDelegierten. In beiden Szenarien findet eine weitere Konzentration hin zu Delegierten mit hoher Stimmenzahl statt, da die Delegationen zumindest das Gefühl geben, dass man als Gemeinschaft in einer Gruppe abstimmt, die eine gewisse Abstimmungsmacht hat und somit etwas bewirken kann (der Effekt greift auch bei kleinen Parteien, die sich der 5%-Hürde soweit nähern, dass die Wahrscheinlichkeit für ein Überspringen hoch ist, bzw. umgekehrt, wenn der Wert weit unter 5% sinkt). Für die an Abstimmungen beteiligte Personen bietet sich also nur dann ein Anreiz zur Informationsbeschaffung und zur Gewinnung von Delegationen, wenn die Wahrscheinlichkeit gegeben ist, dass sie selbst zu einem Abstimmung beeinflussenden Delegierenden werden können. Alle anderen delegieren oder bleiben der Abstimmung schlichtweg  fern. Eine Entwicklung, die eigentlich dem entspricht, was wir bei den Bundestagswahlen sehen, nur dass die Delegationen in LD jederzeit entzogen werden können, was zumindest die Delegierten dazu zwingen würde, das ganze Jahr so zu handeln, als ob Wahljahr wäre. Qualitativ bessere Entscheidungen, die in einer komplexen Umgebung notwendig wären, sind dadurch allerdings nicht zu erwarten, da der positive Effekt einer Beteiligung aller bei der Wahl durch die Delegationen fast vollständig aufgehoben wird.

Im Hinblick auf die weiter oben genannten Kritierien für eine „Weisheit der Vielen“ erfolgt zwar eine Aggregation der Stimmen hin zu wenigen Delegierenden, die ein Entscheidung beeinflussen können, allerdings auf Kosten der Varietät, der Unabhängigkeit und der Informationsgewinnung. Die so getroffenen Entscheidungen entsprechen nicht mehr dem Wissen von Vielen, sondern letztlich der Sichtweise einiger weniger Delegierter mit hoher Stimmmacht. Die Delegierten müssen dabei nicht zwangsläufig Experten in ihrem Themengebiet sein oder eine Sichtweise haben, die den aggregierten Sichtweisen ihrer Delegierenden entspricht, denn die sachfragenbezogene Transitivität der Delegation ist nur dann gegeben, wenn die Delegation ausschließlich bei einer festgelegten Abstimmung erfolgt und dann auch vollumfänglich dem Willen des Delegierenden entspricht. Bei einer Themendelegation geht die sachfragenbezogene Transitivität in den oben genannten Übertragungen von sachfremden Kriterien unter. Man kann also nicht davon ausgehen, dass ein Delegierter, der eine Abstimmung in einem Thema aufgrund seiner Delegationen beherrscht, in diesem Thema ein Experte ist.

Die psychologischen Effekte bleiben bei einer weitestgehend „normalen“ Verteilung von Selbstabstimmenden ohne größere Delegationen aussen vor. Auch bei homogenen Gruppen mit ähnlichen Ansichten zu einem Thema kommt es nicht zu einer Anhäufung der Delegationen. Ebenfalls unbedenklich ist der Einsatz von LQFB in einem Umfeld, das regional stark begrenzt ist, mit einem Optimum einer persönlichen Bekanntschaft der Abstimmenden. Die negativen Effekte von Delegationen (und insbesondere Kettendelegationen)  treten dann massiv auf, wenn es um polarisierende Themen geht. in diesem Fall  beeinflussen sie die Abstimmungen durch die Art des Prozesses der Abstimmung, nicht durch die den Teilnehmern zur Verfügung stehende Information zum Thema. Die Notwendigkeit einer breiten Informationskampagne zur Gewinnung von Unterstützern (siehe Schweiz bei Volksabstimmungen) besteht nur noch für die Delegierten und kann im Falle eh schon ausreichender Anzahl von Delegationen ganz unterbleiben. Herrschaftswissen wird nicht mehr weitergegeben und eine Weitergabe wird von den Delegierenden so lange nicht verlangt werden, bis sie nicht selbst zu Delegierten werden wollen oder die Delegation zu übertragen wünschen. Je größer die Stimmmacht der Delegierten allerdings ist, desto weniger wahrscheinlich ist die Transformation eines Delegierenden zu einem Delegierten. Selbst der eingebaute Verfall von Delegationen, der hier effektmildernd eingeführt werden kann, würde keine dauerhafte Lösung bieten.

Resümee

Aus den zuvor beschriebenen Betrachtungen folgt für mich:

  1. LD ist ohne systemische Effekte bei kleinen, homogenen Gruppen anwendbar.
  2. Die beschriebenen Effekte führen auf Dauer zu einer Zentralisierung des Stimmgewichts/der Meinungen
  3. Delegationen dürfen, wenn überhaupt, nicht auf Dauer vergeben werden, sondern müssen zeitlich begrenzt bleiben
  4. Liquidität Democracy auf elektronischer Basis verhindert nicht die aktuell bereits vorhandenen Probleme, sondern beschleunigt die Prozesse, die zu Konzentration von Macht und den damit verbundenen Problemen der Beeinflussung führen
  5. Die Kriterien für eine „Weisheit der Vielen“ sind nicht mit den Liquid Democracy inhärenten Prozessen vereinbar

Das für mich erstrebenswerte Ziel einer möglichst breiten Beteiligung an demokratischen Prozessen und der damit verbundenen Möglichkeit qualitativ hochwertiger Entscheidungen unter Berücksichtigung der Vorstellungen der Betroffenen wird von Liquid Democracy und auch von der Implementierung LQFB nicht erfüllt.

Direkte Demokratie eignet sich mMn nicht für die Festlegung schneller Entscheidungen, auch wenn die Zentralisierung der Entscheidungsgewalt letztlich nur von „Superdelegierten“ ausgehen würde. Demokratische Mitbestimmung kann und darf kein Fulltime-Job sein, sondern die Betroffenen müssen selbst entscheiden können, bei welchen Entscheidungen sie sich selbst einbringen möchten, weil es ihre Lebenswirklichkeit betrifft. Hier bietet LD zumindest oberflächlich Abhilfe.

Eine Abgabe von Verantwortungen durch Delegation sehe ich allerdings sehr kritisch, denn aus der Sicht des Delegierenden wird ein Stück weit Vertrauen gegen eine Abgabe von Verantwortung eingetauscht. Man wählt zwar SPD/CDU und ihre Abgeordneten, fühlt sich aber nicht als Wähler verantwortlich, wenn diese Abgeordneten „falsche“ Entscheidungen treffen. Alternativen werden so lange nicht wahrgenommen, bis diese Alternativen selbst ein bestimmtes Quorum erreicht haben (wie erwähnt spielt hier die 5%-Hürde eine große Rolle, siehe hierzu auch den Verfassungsrechtler Hans Herbert von Arnim).

Die elektronische Form benötigt zudem zwingend Klarnamen, die wiederum einer geheimen Abstimmung im Wege stehen, wie sie für Abstimmungen mit freier Entscheidungsmöglichkeit notwendig wäre. Wenn ich Entscheidungen treffen muss, die für mich negative Konsequenzen haben könnten, wenn diese bekannt werden, obwohl sie meiner inneren Überzeugung entsprechen, werde ich mich anders entscheiden (siehe auch Problematik von Überwachungskameras auf öffentlichen Plätzen). Eine Pseudonymisierung der Nutzer entspricht zwar der Möglichkeit, relativ unerkannt bleiben zu können, allerdings erschwert die Pseudonymisierung den Erhalt von Delegationen in einem Liquid Democracy-Umfeld.

Insgesamt müssen für eine Einführung von LD als Abstimmungsideologie dermaßen viele demokratische Errungenschaften geopfert werden, dass für mich als Piraten eine Einführung nicht in Frage kommt. Die wenigen Vorteile, die es für Personen gibt, die nicht selbst abstimmen wollen, werden mit den hier beschriebenen massiven Nachteilen bei Abstimmungen erkauft. Von freier, geheimer und gleicher Abstimmung kann nicht mehr die Rede sein, also Grundlagen, die nicht nur bei Wahlen entscheidend sind. Im direkten Vergleich würde ich einer Implementierung einer direkten Demokratie den Vorzug geben, auch in Anbetracht des Nachtteils, dass sich an Abstimmungen auch Personen beteiligen, die nicht den „Qualitätsstandards“ selbsternannter Expertengruppen entsprechen. Derartige „Störfeuer“ sind durchaus wichtig in Organisationen, die sich Liquidität nicht nur dem Namen nach verschrieben hat.

Die fehlende Konzeption im Vorfeld von LD (siehe Teil 1) macht sich bei der Ausführung bemerkbar. Die bisher aufgetretenen Effekte wie Konzentrationen von Stimmanteilen bei „Superdelegierten“ sind keineswegs behebbare Probleme der Bedienung von LQFB und einer damit erhofften Akzeptanzsteigerung, sondern systemimmanente Probleme von Liquid Democracy, die mMn nicht ohne vollkommene Umstrukturierung des Konzepts behoben werden können. Der bessere Weg wäre die Einführung einer direkten Teilnahme mit der späteren Integration von sehr eingeschränkten Delegationen. Liquid Feedback sollte in erster Linie (ohne Delegationen!) dazu verwendet werden, um kollaborativ Anträge und Positionen zu entwickeln und temporäre Meinungsbilder einzuholen, die dann auf Parteitagen (oder einer LD-fernen SMV-Instanz) abgestimmt werden. Letzten Endes gibt es nichts liquideres als eine direkte Demokratie. Im Hinblick auf die Ursprünge des Delegated Votings bleibt mir nur zu konstatieren, dass bei LD wesentliche soziologische und poltikwissenschaftliche Grundlagen missachtet wurden und das Konzept entweder komplett überarbeitet oder verworfen werden muss. Ich bitte daher ausdrücklich darum, LD (vor allem nicht in seiner Implementierung LQFB) nicht als Basis für eine SMV zu verwenden.

 

 

Veröffentlicht unter Piratenpartei | Verschlagwortet mit , , , , , , | 2 Kommentare