Big Data – Was du letzten Sommer nicht getan hast

Der Fluch des Savants

„Behörden und Unternehmen können ruhig alles über mich wissen. Ich habe ja nichts zu verbergen“. Wie oft habe ich diesen Satz schon in meinem Leben gehört, während ich versuchte, an Infoständen und bei Diskussionen das abstrakte Thema der Überwachung und Datensammelwut von Behörden und Unternehmen zu vermitteln. Wie viele Mühen wurde bereits unternommen, um dem Thema die Abstraktion zu nehmen, den Betroffenen emotional vor Augen zu führen, wie sich Überwachung auf ihre Privatleben auswirken würde? Ein Drahtseilakt zwischen dem Vorwurf gesetzlicher Unredlichkeit („wer ist schon immer gesetzestreu?“), der oft zu ablehnenden Reaktionen führt, und dem Überschreiten der Schamgrenze mit dem Bildnis der Überwachungskamera in Schlaf- und Badezimmer. Alles nur, um dem Totschlagargument „wer nichts zu verbergen hat, hat auch nichts zu befürchten“ zu begegnen. Doch ist das wirklich so? Haben denn nicht gerade diejenigen, die alles offen legen, Nachteile zu befürchten, und sei es nur durch Informationsasymmetrie?

Nehmen wir einmal den – psychologisch bestimmt ungesunden und unglaubwürdigen – Zustand an, dass alle Menschen nichts zu verbergen hätten und vom Zeitpunkt des Aufstehens bis zum Schlafengehen ein gesetzestreues Leben führen würden. Vermutlich wäre dies das Paradies auf Erden, oder die Hölle, je nach Blickwinkel. Eine Art gesellschaftlicher Wärmetod, ohne jegliche Reibung, ohne jegliche Spannung. Jedenfalls würde diese Utopie vollkommen überwacht werden, um den Status Quo aufrecht zu erhalten. Es würden gigantische Datenmengen anfallen, die gefiltert und analysiert werden müssten. Und damit würde sich die Frage stellen: was soll überhaupt gesammelt und analysiert werden? Welche Daten sind überhaupt relevant?

Unser Gehirn hat auf diese Frage eine einfache Antwort: es werden zwar pro Sekunde etwa 100 MB an Daten gesammelt, aber nur ein Bruchteil davon wird überhaupt verwertet und ein noch geringerer Teil davon behalten. Was wir letztendlich im Gedächtnis behalten hängt von sehr vielen Faktoren ab, wie zum Beispiel dem Fokus unserer Aufmerksamkeit, unserer Aufnahmefähigkeit, der Bekanntheit des Vorgangs, der emotionalen Bindung, der Zahl der Wiederholungen und vielem mehr. Die Unmengen an Daten, die aus unserer komplexen Umwelt an uns dringen sorgen somit nicht für eine Überlastung unserer mentalen Kapazitäten, sondern die Komplexität wird herunter gebrochen und mit uns bereits bekannten Daten verknüpft. Das, was wir wahrnehmen, hängt also in großem Maß von dem ab, was wir bereits kennen. Wir können allerdings durchaus auch „wahrnehmen“, was nicht existiert und was uns lediglich unser Gehirn vorgibt.

But what if we add… MORE DATA!

Ein Mehr an Daten bedeutet nicht automatisch eine Verbesserung der Erkenntnis von Situationen, sondern mehr Daten können zu einer Art Informationsrauschen führen, in der jegliche Struktur verloren geht. Die Art und Weise, wie man „Sinn“ in diese Datensammlung bringt, ist daher von höchster Wichtigkeit. „Sinn“ ist hier als eine Art Metaebene zu sehen, auf der die gesammelten Daten nach bestimmten Merkmalen durchsucht werden, um eine gegebene Komplexität zu „verstehen“. Der Analyst/Betrachter hat stets eine gewisse Intention, mit der diese Daten betrachtet werden. Bei den RAF-Rasterfahndungen in den 70er-Jahren zum Beispiel ging es darum, Anhaltspunkte für den Aufenthaltsort von Terroristen zu finden. Bei Marktforschung von Unternehmen geht es darum, den Markt und seine Teilnehmer in Bezug auf die Absatzmöglichkeiten zu analysieren. Die Intention, mit der diese Datensammlungen betrachtet werden, sind entscheidend im Hinblick auf die zu erwartenden Resultate. What you see is all there is.

Es mag zwar nicht wissenschaftlich achtbar sein, nur Daten zu sichten, die für die eigenen Theorien sprechen, statt durch Falsifizierung nach ihrer Ungültigkeit zu suchen, aber es ist nun mal zutiefst menschlich im Streben nach Anerkennung und Bestätigung. Das eigene Weltbild muss doch, einer sich ständig wechselnden Umgebung zum Trotz, fest verankert sein und darf nicht bei jeder neuen Information gleich ins Schwanken geraten! Aber wie ist diese ständige mentale Adaption der „objektiven Realität“ an „unsere Realität“ im Hinblick auf gesammelte Daten zu bewerten? Menschen sind großartig darin, Muster zu erkennen, die sie einmal erlernt haben. Wenn wir Datenansammlungen sehen, versuchen wir, darin Muster zu erkennen, sprich: diesen Daten „Sinn“ zugeben. Sinn steht hierbei für mich gleich der Verankerung des Beobachteten im bereits Bekannten. Im neuronalen Netzwerk unseres Gehirns werden bekannte Verbindungen verstärkt oder mit bereits bekannten Verknüpfungen verbunden.

Unendlich viele Affen, die in Bibeln blicken

Die Gefahr, die nun besteht, ist, dass in den Datensammlungen nach Merkmalen gesucht wird, die in bestimmte „Bilder“ passen. Ein Herr S. sucht Daten, die schlüssig beweisen können, dass Ausländer gewalttätig und arbeitsscheu sind. Also sucht er Daten, die zu diesem Bild passen und ignoriert Daten, die nicht seine Theorie widerlegen würden. Statistische Fehler, die dabei gemacht werden, gehen im emotionalen Rauschen der Empörungswellen unter. Das wird man doch noch sagen dürfen! Ja, aber bitte nicht nachrechnen.

Nehmen wir Wachtmeister K. als Beispiel. Er kennt seine Papenheimer sehr genau und weiss, nach welchen Merkmalen er Ausschau halten muss, um Drogendealer und Kleinkriminelle zu erwischen. Dass auf 100 festgehaltene „Verdächtige“ dunklerer Hautfarbe gerade 1-2 „Erfolge“ vorzuweisen kommen, ist dabei unerheblich: Jeder noch so kleine Erfolg bestätigt seine Theorie, da es keine Vergleichszahlen gibt und aufgrund des Erfolgs nicht der Versuch unternommen wird, herauszufinden, ob die örtlichen Kriminellen vielleicht dazu übergegangen sein könnten, hellhäutige Kuriere zu engagieren, weil diese seltener untersucht werden. In komplexen Systemen bleiben „Erfolgsgaranten“ aufgrund von Rückkopplungen nicht fortdauernd erfolgreich, sondern tragen zunehmend zu einer Destabilisierung bei, weil „unerwünschtes“ Verhalten nicht mehr erkannt wird, so lange einmal festgelegte Regeln/Theorien nicht revidiert werden.

Ein sehr schönes Beispiel für Theoriebildung bei umfangreichen Ausgangsdaten, die mit genügend Phantasie bei der Mustererkennung zu spektakulären Resultaten führte, liefert der sogenannte „Bibelcode“. Anhand der Bücher Mose fand der Journalist Drosnin in der Bibel „codierte“ Hinweise auf zukünftige Ereignisse, wie zum Beispiel der Ermordung des Kennedy-Attentäters Oswald durch Ruby, oder dem Fall der „Zwillingstürme“ an 9/11. Anhand der Datenmenge und durch Anpassung der Such-Schmeta war es nun relativ einfach, derartige Textstellen zu identifizieren und der Bibel und ihren Autoren somit prophetische Eigenschaften zuzuschreiben. Später wiesen einige Mathematiker nach, dass man mit ähnlicher Methode auch prophetische Nachrichten im Buch „Moby Dick“ nachweisen konnte. Korrelation hatte über Kausalität und der Glaube an das Phantastische über die Vernunft gesiegt. Was bei Religionen übrigens nicht unbedingt selten vorkommt.

Teekannen im Orbit

Die Gefahr, die nun von großen Datensammlungen ausgeht, ist also nicht nur, dass man ein Verhalten nachweisen kann, das nachweislich strafbar ist, sondern dass ein Verhalten aus den Daten heraus konstruiert werden kann, das zudem rational belegbar ist. Wenn ich mich per Zufall in einer Funkzelle befinde, in der ein Verbrechen verübt wird, gerate ich durch meine pure Anwesenheit bereits in den Fokus der Ermittlungen. War ich in der Vergangenheit schon mal auffällig? Wurde ein ähnliches Verbrechen vielleicht bereits vor einer Woche verübt und war ich vielleicht ebenfalls in der Umgebung? Muss ich vielleicht durch Abgabe einer DNS-Probe „beweisen“, dass ich nicht an einer Tat beteiligt war? Werden die Proben nach der Untersuchung tatsächlich vernichtet?

Durch die Menge an Daten ist es möglich, derart viele Verdachtsmomente zusammenzufügen, um einer Person ernsthaft zu schaden. Man konstruiert spielend weitere Anhaltspunkte für das tiefere Eindringen in das – eigentlich besonders streng geschützte – private Umfeld. Solche Eingriffe müssen nicht einmal von staatlicher Seite unternommen werden, sondern können zum Beispiel durch Medien erfolgen. RTL 2 und Bunte ermitteln. Misshandelt diese Prominente ihr Kind? Ist der brave Bankangestellte nur die Fassade für sexuelle Ausschweifungen? Je mehr Daten vorhanden sind, desto leichter lassen sich Zusammenhänge konstruieren und das Vermarkten und die Analyse von Zusammenhängen ist ein lukratives Geschäftsfeld. Wo auch nur ein Kontext vermutet wird, ist für Menschen auch schnell ein tatsächlicher Kontext vorhanden, weil oftmals das Bewusstsein für statistische Zusammenhänge fehlt. Und warum nach komplizierten Lösungen suchen, wenn die einfache Lösung doch bereits „rational“ ermittelt auf der Hand liegt? Zahlen lügen nicht! Und Skandale bringen Quote und Einnahmen.

Wo nun einmal der Anfangsverdacht besteht, wird es für den Betroffenen schwer sein, das Gegenteil nachzuweisen, denn aufgrund der Informationsasymmetrie stehen die erhobenen Daten nur dem Ankläger zur Verfügung. Ein Beispiel hierfür sind die Ermittlungen gegen die bundesdeutschen Nachrichtendienste und Verfassungsdienste: Auf der Seite der Geheimdienste gibt es riesige Datensammlungen, deren Zustandekommen und Umfang oft nicht einmal den für die Überwachung dieser Behörden zuständigen Regierungsstellen bekannt sind, auf der anderen Seite gibt es den Besitzer eines kleinen Gehirns, das oftmals schon vergessen hat, was es vorgestern zum Frühstück gab. Wie soll nun ein Beschuldigter glaubhaft darlegen können, dass er etwas nicht begangen hat, wenn die „Beweise“ dafür sprechen? Zur falschen Zeit am falschen Ort.

Es ist also möglich, trotz bestehender „Unschuldsvermutung“ mit vorhandenen Daten nicht nur einen Anfangsverdacht,  sondern hinreichend Indizien zu produzieren, die vielleicht sogar für eine Verurteilung reichen würden. Damit sind nicht nur diejenigen gefährdet, die sich ungesetzlich verhalten, sondern gerade diejenigen, die durch Korrelation unverschuldet in das Umfeld ungesetzlicher Handlungen geraten. Dem Nachweis der Schuld durch gesammelte Daten ist oft nichts entgegenzusetzen, da der Betroffene selbst eben nicht Einblick in die Daten erhält, sondern lediglich in das erkannte Muster, unabhängig davon, ob durch eine alternative Interpretation sich dieses Muster als reine Spekulation entpuppen würde. Letztendlich hat also jeder etwas zu befürchten, jeder etwas zu verlieren, wenn unkontrolliert Daten gesammelt werden, deren Analyse so gut wie keiner Kontrolle durch demokratische Instanzen unterworfen ist, wie es de facto derzeit der Stand in Deutschland und zahlreichen anderen Ländern ist. Es kann jeden treffen, nicht nur „Straftäter“.

Null Collect

Die beste Verteidigung gegen derartige Datenmonster ist die komplette Vermeiden der Erhebung der Daten, sei es durch Mautbrücken, elektronische Gesundheitskarten, Sammeln von elektronischen Kommunikationsdaten und den zahlreichen privatwirtschaftlichen Methoden und Gängelungen am Verbraucherschutz vorbei. Die inhärente Gefahr des Erhebens und Auswertens von Daten ist dabei nicht der Missbrauch von „Vertrauen“ oder die Überprüfung des persönlichen Wohlverhaltens, sondern vielmehr die einer totalitären Unterdrückung persönlicher Freiheit ohne jegliche Rechtssicherheit entgegen der Intention der Menschenrechte. Das Bewusstsein der Möglichkeit einer Überwachung unterscheidet sich nur noch unmerklich vom Bewusstsein, dass man tatsächlich überwacht wird. Eine pluralistische Gesellschaft braucht jedoch die Vielfalt der Möglichkeiten, die aus den individuellen Freiheitsrechten erwachsen. In dieser Vielfalt liegt die Stärke, um in komplexen Gesellschaftssystemen Lösungen für Probleme erarbeiten zu können. Der Schutz dieser Lebensräume sollte oberstes Prinzip jeder verantwortungsbewussten Regierung sein, nicht das Zerstören der Grundlagen dieser Ordnung für einen imaginären Sicherheitsgewinn, der durch Repression erzielt wird. Gesellschaften können auf Dauer nicht durch Repression überleben, sondern sie zerstören sich früher oder später von Innen heraus.

Weiterführende Links:

Russells Teekanne
http://de.wikipedia.org/wiki/Russells_Teekanne

Der Bibelcode/Tora-Code
http://de.wikipedia.org/wiki/Bibelcode

Falsifikation
http://de.wikipedia.org/wiki/Falsifikation

Das Gehirn und seine Informationsverarbeitung:
http://www.projectory.de/koreanisch/sprachenlernen/gehirn.html

Thomas Metzinger – Der Ego-Tunnel:
http://www.perlentaucher.de/buch/thomas-metzinger/der-ego-tunnel.html

Beispiel für eine optische Täuschung
http://www.sehtestbilder.de/optische-taeuschungen-illusionen/images/elefant-fuenf-beine.jpg

Rasterfahndung
http://de.wikipedia.org/wiki/Rasterfahndung

What you see is all there is – Thinking Fast And Slow
http://en.wikipedia.org/wiki/Thinking,_Fast_and_Slow

Freakonomics
http://freakonomics.com

Veröffentlicht unter Nicht kategorisiert | 2 Kommentare

Flüssigsprengstoff (Teil 2)

Intention

Nachdem ich im 1. Teil bereits auf die für mich sehr unbefriedigende Ausgangssituation von Liquid Democracy und somit auch von Liquid Feedback eingegangen bin, möchte ich zu Beginn von Teil 2 einige Begrifflichkeiten erläutern, die ich im folgenden verwenden werde.

1) Liquid Democracy

Da es verschiedene Konzepte von Liquid Democracy gibt, beschäftige ich mich in erster Linie mit den Gemeinsamkeiten, die ich ausmachen konnte: der möglichen Delegation von Stimmen an Delegierte unter Vorbehalt der eigenen Abstimmung. Ich unterscheide hierbei LD mit der Möglichkeit von Kettendelegationen sowie mit eingebautem Verfall der Delegationen.

2) Delegation

Der Begriff der „Delegation“ ist ebenfalls nicht eindeutig klärbar und unterscheidet sich je nach Kontext. Ich verwende ihn hier im Sinne der reinen Weitergabe des eigenen Stimmrechts an einen weiteren Abstimmungsberechtigten.

Ziel meiner Untersuchung soll es sein, festzustellen, inwiefern sich der  oft zitierte Spruch „die Vorteile von LD/LQFB überwiegen für die Nachteile“ überprüfen lässt und wo ich die Gefahren von LD liegen. Den Schwerpunkt lege ich dabei auf eine soziologische, systemische Betrachtung der LD inhärenten Mechanismen und verweise auf bereits bekannte Entwicklungen verschiedener Implementationen von LQFB.

Wozu eigentlich Delegationen?

Wenn man sich mit der Umsetzung von Liquid Democracy in Liquid Feedback beschäftigt, stellt sich die Frage, wieso bei einem Online-tool für kollaboratives Arbeiten und Abstimmungen überhaupt Delegationen verwendet werden. Delegationen bedeuten in einem System (das ohne weiteres ohne Delegationen auskommen könnte, um kollaborative Entscheidungen  ermöglichen zu können) eine weitere Schicht an Komplexität, die sich auch bei der Umsetzung des Wahlverfahrens z.B. in einer Software in erhöhtem Aufwand niederschlägt.

Als wesentliche Begründung für Delegationen werden immer wieder 2 Argumente ins Feld geführt:

  1. Delegationen ermöglichen Mitbestimmung selbst dann, wenn man selbst nicht die Ressourcen (Zeit, Geld, Sachkenntnis) aufbringen kann oder möchte, um sich an einer Abstimmung zu beteiligen.
  2. Delegationen führen Stimmen denjenigen Experten zu, die Ressourcen aufbringen, um bei Abstimmungen qualitativ hochwertige Entscheidungen zu treffen

Die Begründungen sind für sich genommen durchaus richtig und erleichtern die Beteiligung an Abstimmungssystemen. Sie beeinflussen allerdings auch die Erwartungen und Ergebnisse, die aus einem derartigen System kommen. So bedeutet eine Delegation meiner Stimme an eine weitere Person, dass ich meine persönliche Meinung zu einem Thema auf die bereits vorhandene Meinung einer anderen Person abbilde, bei der ich von einer weitestgehenden Übereinstimmung ausgehe. Von dieser Person kann ich lediglich hoffen, dass sie meine Interessen so vertreten wird, wie ich es selbst tun würde. Die persönliche Präferenz zu einem Thema wird also mit der persönlichen Präferenz einer Person vermischt, die meine Meinung bestmöglich wiedergeben soll. Statt meiner eigenen Kenntnis des Themas können jedoch durchaus persönliche Faktoren bei der Auswahl des delegierten eine Rolle spielen, wie Bekanntheitsgrad, Beziehung zu dieser Person in der Vergangenheit, Vermutungen über die Kenntnis des Sachstands dieser Person. Lapidar gesagt: selbst wenn eine thematische Übereinstimmung vorliegt, bedeutet dies nicht zugleich eine moralische Übereinstimmung mit demjenigen, an den man die Stimme delegieren möchte. Diese Vermischung von persönlicher und thematischer Ebene sehe ich als das erste große Problem von Delegationen an. Zwar besteht die Möglichkeit der Rücknahme einer Delegation, allerdings entsteht bei einem „enttäuschten“ Delegierenden (wobei die Enttäuschung nicht zwingend in der Abstimmung begründet sein muss sondern auf externen Effekten beruhen kann) eine emotionale negative Verbindung zum Delegierten, die nicht der Übereinstimmung zukünftiger Sachfragen entsprechen muss.

Durch den beschriebenen Effekt der bei der Vermischung von Person und Themen muss eine Ansammlung von Stimmen bei einem Delegierten nicht unbedingt auf einen Experten zu diesem Thema hinweisen. Hierzu muss man sich nur zahlreiche „Experten“-Kommissionen ansehen, die zu ihnen vollkommen fachfremden Themen Beschlüsse herbeiführen. Man könnte diese Personenbindung bei Wahlen aufheben, indem man lediglich anonyme Abstimmungen erlaubt, allerdings würde dies in Tools mit „Fernabstimmung“ (elektronisch, Briefwahl etc.) eine Überprüfbarkeit der eigenen Stimmverteilung im Nachhinein nicht mehr erlauben. Ein klassischer Catch-22, der gerne bei Diskussionen übergangen wird und unter „man muss für die schnelle Entscheidungsfindung Opfer bringen“ abgehakt wird.

Oft wird als Pro-Argument für die Bildung von Experten mit hohem Stimmenanteil der „Dunning-Kruger„-Effekt angeführt: „Wenn jemand inkompetent ist, dann kann er nicht wissen, dass er inkompetent ist. […] Die Fähigkeiten, die man braucht, um eine richtige Lösung zu finden, [sind] genau jene Fähigkeiten, um zu entscheiden, wann eine Lösung richtig ist.“ (David Dunning). Abgesehen davon, dass mit Dunning-Kruger auch ein gutes Argument gegen (!) Delegationen aufgeführt wird (denn woher soll ich wissen, wem ich meine Stimme delegieren soll, wenn ich selbst nicht die Kompetenz habe, um bei dem Thema zu entscheiden?), gibt es durchaus andere gruppenpsychologische Effekte, die gegen einen „Expertenrat“ sprechen, wie die Gefahr des Groupthinks, also die Tendenz einer Gruppe von „Fachleuten“, sich selbst zu bestätigen, alles richtig und gut zu machen, während Kritik in der Gruppe durch den Kollektivdruck unterbunden wird. Unterschätze niemals die Macht institutionalisierten Wissens, selbst dann nicht, wenn es sogar für Nichtexperten offensichtlich unsinnig ist (z.B. „Homo oeconomicus“ als Leitbild volkswirtschaftlicher Überlegungen, oder mal die katholische Kirche fragen)!

Eine kurze Geschichte der Delegation

Die Übergabe von Verantwortung lässt sich ausserhalb von hierarchischen Ordnungen kaum denken. Delegationen können generell in einer Hierarchieordnung von Unten nach Oben verlaufen oder von Oben nach Unten. Die Hierarchie muss dabei nicht machtpolitischer Art sein, sondern es kann sich um verschiedene qualitative Maßstäbe handeln, wie z.B. Informationsvorteile oder die körperliche Befähigung. Bei Liquid Democracy wird davon ausgegangen, dass die Delegation von Unten nach Oben erfolgt, wobei die Begründung für die Delegation nicht eindeutig festlegbar ist und von persönlicher Vorliebe über Anerkennung/Übereinstimmung mit den Positionen bis hin zu schlichter persönlicher Bekanntheit reichen können. Dies hat sich im Laufe der Menschheitsgeschichte nur geringfügig geändert, wobei in der prähistorischen Zeit Anführer einer Gruppe aufgrund ihrer qualitativen Vorteile für das Wohl der Gruppe ernannt wurden oder, wie oben bereits erwähnt, aufgrund persönlicher Präferenzen/Bekanntheit dieser Person. Dies ist bei kleinen Gruppen kein Fehler, sondern eine wichtige Interaktion in jeder sozialer Gruppe. Enttäuschungen z.B. durch Verrat bleiben im Gedächtnis der Gruppenmitglieder und beeinflussen zukünftige Entscheidungen, so dass sich quasi als Rückkopplungseffekt eine dem Wohl der sozialen Gruppen angepasste Verhaltensweise ergibt. Diese Verhaltensweisen lassen sich bereits bei verschiedenen Arten von Menschenaffen nachweisen, wobei die Entwicklung der Kommunikation bei Menschen hin zu Sprache und Schrift bedeutete, dass begangene „Untaten“ nicht mehr durch die Sanktionierenden persönlich erfahren werden mussten, sondern an Dritte (Unbeteiligte) weitervermittelt werden konnten. Wer Twitter und Mailinglisten kennt, weiss, wohin dies führen kann. 😉

In solchen Gruppen ernannte Anführer sprachen nicht für die gesamte Gruppe, sondern hatten weiterhin das gleiche „Stimmrecht“ wie jedes andere Mitglied in der Gruppe (u.a. beschrieben in „Origins of Political Order“ von Fukuyama, zu soziologischen Untersuchungen bei Naturvölkern). Analog zu Liquid Feedback war die „Delegation“ (hier als Übertragung von Verantwortung für die Gruppe)  jederzeit widerrufbar, wenn das Wohl der Gruppe durch die Handlungen des „Anführers“ in Gefahr gebracht wurden. Dies war relativ einfach zu bewerkstelligen, da es keinerlei institutionalisierte Machtbasis gab, wie sie später nach der Entstehung der ersten Staaten existierte, und ein Anführer somit keine große Durchsetzungsmöglichkeit von Strafen – abgesehen von seinem persönlichen Einsatz – hatte.

Delegationen sind also nichts „widernatürliches“ sondern können durchaus als ein schon immer bestehender Bestandteil sozialer Gruppen gesehen werden, die im Laufe der Geschichte allerdings viele Umdeutungen erfahren hat. In den Zeiten wachsender Staaten wurden Delegationen zu einem wichtigen Bestandteil der staatlichen Organisation und halfen, bei eingeschränkten Kommunikationsmöglichkeiten eine Ordnung im Staatsgefüge aufrecht zu erhalten. Interessant ist es also, den Effekt von Delegationen in einem Kommunikationsumfeld zu betrachten, das einen hohen Grad an Vernetzung in einer komplexen Umwelt aufweist und dabei kaum noch auf persönliche Kontakte und Erfahrungen der an der Meinungsfindung beteiligten Mitmenschen beruht.

Vox populi, vox Dei?

Ich möchte kurz beschreiben, was eigentlich den Reiz einer kollektiven Meinungsfindung ausmacht, die in der Lage ist, für große Ansammlungen von Menschen ad hoc Handlungsanweisungen zu bilden. In einer komplexen Umwelt überlebt derjenige Organismus, der sich dieser Umwelt am besten angepasst hat. Dies kann durch Anpassung an eine Nische erfolgen, oder durch eine hohe Anpassungsfähigkeit an Veränderungen. Die Spezialisierung auf eine Nische erlaubt es, dass die in dieser Nische zur Verfügung stehenden Ressourcen optimal genutzt werden. Wird dieses Habitat allerdings aufgrund von Umwelteinflüssen zerstört, dann sind Organismen, die nicht anpassungsfähig sind, dem Untergang geweiht. Eine generelle Anpassungsfähigkeit sorgt also in einer Umgebung mit wechselnden Bedingungen dafür, dass Organismen auch bei sich ändernden Lebensbedingungen überlebensfähig sind.

Änderungen in der Umwelt müssen von Organismen wahrgenommen werden können, damit sie darauf reagieren können. Das Feedback der Umwelt und dessen Verarbeitung führt erst zu Reaktionen auf ihr Veränderungen. Vor dem Löwen, den ich nicht sehe, laufe ich auch nicht weg. Dies gilt für Organismen genauso wie für Zusammenschlüsse von Organismen mit sozialen Regeln, die ich hier als Organisationen bezeichnen möchte. Bei Organisationen bestimmen die Kommunikationswege, wie Informationen aus der Umwelt und der Organisation selbst verarbeitet werden. Dies ist bei Menschen oft eine streng hierarchische Form mit einer bidirektionalen, formalisierten Kommunikation, wie bei dem Paradebeispiel Militär, dessen Aufbau sich in den ersten Staatengebilden wiederfindet. Die Lenkung/Steuerung von Organisationen ist also auf die Weitergabe von Informationen angewiesen, wobei die Informationen auf den unterschiedlichen Hierarchieebenen gefiltert werden.

Die Gefahr dieser Vorgehensweise liegt darin, dass wichtige Informationen eben nicht weitergegeben werden, weil ihre Wichtigkeit nicht erkannt wurde, oder weil es Kommunikationsfehler gegeben hat (siehe Challenger-Katastrophe). Normen, Gesetze, Institutionalisierung helfen dabei, die Steuerung von Organisationen  zu erleichtern, allerdings bedeuten sie zugleich eine Aufgabe von Flexibilität in Hinblick auf die Fähigkeit zur Reaktion auf Störungen, die in der Organisation nicht vorgesehen sind, wobei die Störungen durchaus von geschaffenen Strukturen innerhalb der Organisation selbst ausgehen können. Lineare Denkmuster in einer Welt aus positiven und negativen Rückkopplungen tun ihr übriges, um an der Überlebensfähigkeit von Organisationen zu rütteln.

Als Lösungsansatz bietet sich die Methode an, bei der Entscheidungsfindung alle Betroffenen direkt einzubinden, z.B. über Methoden der direkten Demokratie. Die Idee dahinter besagt, dass das Feedback von möglichst vielen Menschen eingeholt werden soll, um darauf aufbauend Entscheidungen zu finden, die zum Fortbestand und „Erfolg“ von Organisationen beitragen  (also „vernünftig“ sind). Die Organisation organisiert sich quasi selbst über die Selbstbetrachtung/Reflexion, die wiederum durch die ihnen angehörenden Individuen erfolgt (Autopoiesis).

Mit dem populären Aufkommen von Kybernetik, Psychologie und Sozialwissenschaften  im 20. Jahrhunderts kamen vermehrt Ideen auf, wie man die gewonnen Erkenntnisse auch politisch verarbeiten könnte. Kernvorstellung dieser Denkrichtung ist die „Weisheit der Vielen„, die in der Piratenpartei als „Schwarmintelligenz“ mehr oder minder zu Ruhm gekommen ist. Doch die „Weisheit“ stellt sich nicht automatisch ein, wenn viele Menschen zusammenkommen, wie jeder wohl bestätigen kann, der  mal einem Oktoberfest oder einem Fussball-Bundesligaspiel beigewohnt hat. Vielmehr gibt es wichtige Grundvoraussetzungen, die erfüllt sein müssen:

  1. Meinungsvielfalt: Innerhalb der Gruppe darf es keine Meinungskonformität geben. Eine möglichst große Zahl subjektiver Erfahrungen erhöht die Qualität des Endergebnisses.
  2. Unabhängigkeit: Die Meinung des Einzelnen ist nicht festgelegt durch die Ansicht der Gruppe, d.h. die Meinung der Gruppe sollte nicht die Meinung des Einzelnen während der Entscheidung bestimmen.
  3. Information: Der Zugang zu Information, die für die Entscheidungen relevant sind, steht allen Mitgliedern der Gruppe offen.
  4. Zusammenführung: Es sind Strukturen vorhanden, die aus den Einzelmeinungen ein Ergebnis ziehen können (also durchaus ein Argument für Delegationen)

Diese Prinzipien finden sich durchweg im Programm der Piratenpartei wieder und lassen sich sehr schön im kurzen Wahlspruch „Denk selbst“ subsumieren. Eine etwas ausführlichere Betrachtung der Zusammenhänge von Programm der Piraten und Erkenntnissen kybernetischer Forschung hatte ich im Beitrag Piraten – Eine Konzeption zusammengestellt, deshalb möchte ich hier nicht weiter darauf eingehen.

Alles fließt – nur wohin?

Wenn man sich die Verteilung der Abstimmenden in LQFB anschaut, wird deutlich, dass es bei vielen Themen bereits 2010 regionale sowie personelle Konzentrationen gab (siehe „Tale of LQFB“ von StreetDogg). Die Konzentrationen sind im Hinblick auf die Prozesse in LQFB (und auch Liquid Feedback) unter Berücksichtigung spieltheoretischer Überlegungen durchaus verständlich. Sie sind meine Hauptsorge.

Ein Delegierter hat zum Zeitpunkt der Abstimmung n Stimmen, die gegen die 1 Stimme derjenigen stehen, die selbst abstimmen und die keine Delegationen auf sich vereinigen. Um eine Parität zu erreichen, müssen sich bei gegensätzlichen Meinungen n Nicht-Delegierende zusammenfinden, um einen Delegierten mit n Stimmen aufzufangen. Der Delegierte hat für den Stimmanteil im Vorfeld Überzeugungsarbeit leisten müssen, dafür ist ihm dieser Stimmanteil bis zum Delegationsentzug gewiss. Die Delegierenden haben bei der Abstimmung einen Aufwand, der gegen Null tendiert, wenn sie nicht nicht gerade die Abstimmung des Delegierten überprüfen möchten. Jedenfalls brauchen sie sich nicht für die Abstimmung zu interessieren, Überzeugungsarbeit zu leisten oder Informationen zu sammeln/Recherche.

Mir ist mindestens eine Variante von Liquid Democracy bekannt, die davon ausgehen, dass es generell nur (!) unverbindliche Meinungsbilder geben kann, denn wenn ein Meinungsbild als definitive Entscheidung übernommen wurde, kann dieses Meinungsbild nachträglich nicht mehr verändert werden, womit die Liquidität aufgehoben wird. Entscheidet sich ein Delegierter also im letzten Moment vor dem Meinungsbild um, müssen die Delegierenden wohl oder übel seiner Meinung folgen. Allerdings würde dieser „Verrat“ wohl mit dem Entzug der Delegationen bestraft werden. Trotzdem ist dies ein gefährliches Einfallstor für die gefürchtete „Politik 1.0“, die mit Hilfe einiger schneller Telefonate die Entscheidungsträger vor einer Abstimmung entsprechend unter Druck setzen kann.

Nicht-Delegierende müssen zwar ebenfalls Überzeugungsarbeit leisten, um Abstimmende von ihrem Standpunkt zu überzeugen (Anhänger mobilisieren), dies allerdings bei jeder Abstimmung neu. Der Aufwand ist hierfür wesentlich höher, als bei einem Delegierten, der z.B. für ein Thema beauftragt wurde. Zudem wiederholt sich der Vorgang der Informationsgewinnung/Recherche bei n Nicht-Delegierenden auch n-mal (unter der Prämisse, dass diese überhaupt stattfindet und in etwa der Recherche eines Delegierten entspricht). Dieser Aufwand wird allerdings erst dann betrieben, wenn überhaupt eine Aussicht besteht, einen Delegierten überstimmen zu können. Wenn zahlreiche Nicht-Delegierende Ressourcen investieren, um dann bei der Abstimmung einem Delegierten zu unterliegen, der mit seinem Stimmpotential die Abstimmung entscheidend beeinflusst hat, werden die Nicht-Delegierenden entweder selbst einen Delegierten „erschaffen“, der als Kristallisationspunkt für ihren Standpunkt dient, oder sie werden der Abstimmung bei dem Thema zukünftig fernbleiben. Desweiteren gibt es die Möglichkeit, vermehrt Überzeugungsarbeit zu leisten (noch mehr Ressourcen investieren)  oder es wird versucht, direkt den Delegierten zu beeinflussen.

Die wahrscheinlichsten Szenarien sind hierbei das Fernbleiben von Abstimmungen, weil die investierten Ressourcen ohne jeglichen Nutzen verloren sind und weitere Investitionen sinnlos erscheinen. Oder es kommt zum Zusammenschluss der Stimmen in einem  oder mehrerenDelegierten. In beiden Szenarien findet eine weitere Konzentration hin zu Delegierten mit hoher Stimmenzahl statt, da die Delegationen zumindest das Gefühl geben, dass man als Gemeinschaft in einer Gruppe abstimmt, die eine gewisse Abstimmungsmacht hat und somit etwas bewirken kann (der Effekt greift auch bei kleinen Parteien, die sich der 5%-Hürde soweit nähern, dass die Wahrscheinlichkeit für ein Überspringen hoch ist, bzw. umgekehrt, wenn der Wert weit unter 5% sinkt). Für die an Abstimmungen beteiligte Personen bietet sich also nur dann ein Anreiz zur Informationsbeschaffung und zur Gewinnung von Delegationen, wenn die Wahrscheinlichkeit gegeben ist, dass sie selbst zu einem Abstimmung beeinflussenden Delegierenden werden können. Alle anderen delegieren oder bleiben der Abstimmung schlichtweg  fern. Eine Entwicklung, die eigentlich dem entspricht, was wir bei den Bundestagswahlen sehen, nur dass die Delegationen in LD jederzeit entzogen werden können, was zumindest die Delegierten dazu zwingen würde, das ganze Jahr so zu handeln, als ob Wahljahr wäre. Qualitativ bessere Entscheidungen, die in einer komplexen Umgebung notwendig wären, sind dadurch allerdings nicht zu erwarten, da der positive Effekt einer Beteiligung aller bei der Wahl durch die Delegationen fast vollständig aufgehoben wird.

Im Hinblick auf die weiter oben genannten Kritierien für eine „Weisheit der Vielen“ erfolgt zwar eine Aggregation der Stimmen hin zu wenigen Delegierenden, die ein Entscheidung beeinflussen können, allerdings auf Kosten der Varietät, der Unabhängigkeit und der Informationsgewinnung. Die so getroffenen Entscheidungen entsprechen nicht mehr dem Wissen von Vielen, sondern letztlich der Sichtweise einiger weniger Delegierter mit hoher Stimmmacht. Die Delegierten müssen dabei nicht zwangsläufig Experten in ihrem Themengebiet sein oder eine Sichtweise haben, die den aggregierten Sichtweisen ihrer Delegierenden entspricht, denn die sachfragenbezogene Transitivität der Delegation ist nur dann gegeben, wenn die Delegation ausschließlich bei einer festgelegten Abstimmung erfolgt und dann auch vollumfänglich dem Willen des Delegierenden entspricht. Bei einer Themendelegation geht die sachfragenbezogene Transitivität in den oben genannten Übertragungen von sachfremden Kriterien unter. Man kann also nicht davon ausgehen, dass ein Delegierter, der eine Abstimmung in einem Thema aufgrund seiner Delegationen beherrscht, in diesem Thema ein Experte ist.

Die psychologischen Effekte bleiben bei einer weitestgehend „normalen“ Verteilung von Selbstabstimmenden ohne größere Delegationen aussen vor. Auch bei homogenen Gruppen mit ähnlichen Ansichten zu einem Thema kommt es nicht zu einer Anhäufung der Delegationen. Ebenfalls unbedenklich ist der Einsatz von LQFB in einem Umfeld, das regional stark begrenzt ist, mit einem Optimum einer persönlichen Bekanntschaft der Abstimmenden. Die negativen Effekte von Delegationen (und insbesondere Kettendelegationen)  treten dann massiv auf, wenn es um polarisierende Themen geht. in diesem Fall  beeinflussen sie die Abstimmungen durch die Art des Prozesses der Abstimmung, nicht durch die den Teilnehmern zur Verfügung stehende Information zum Thema. Die Notwendigkeit einer breiten Informationskampagne zur Gewinnung von Unterstützern (siehe Schweiz bei Volksabstimmungen) besteht nur noch für die Delegierten und kann im Falle eh schon ausreichender Anzahl von Delegationen ganz unterbleiben. Herrschaftswissen wird nicht mehr weitergegeben und eine Weitergabe wird von den Delegierenden so lange nicht verlangt werden, bis sie nicht selbst zu Delegierten werden wollen oder die Delegation zu übertragen wünschen. Je größer die Stimmmacht der Delegierten allerdings ist, desto weniger wahrscheinlich ist die Transformation eines Delegierenden zu einem Delegierten. Selbst der eingebaute Verfall von Delegationen, der hier effektmildernd eingeführt werden kann, würde keine dauerhafte Lösung bieten.

Resümee

Aus den zuvor beschriebenen Betrachtungen folgt für mich:

  1. LD ist ohne systemische Effekte bei kleinen, homogenen Gruppen anwendbar.
  2. Die beschriebenen Effekte führen auf Dauer zu einer Zentralisierung des Stimmgewichts/der Meinungen
  3. Delegationen dürfen, wenn überhaupt, nicht auf Dauer vergeben werden, sondern müssen zeitlich begrenzt bleiben
  4. Liquidität Democracy auf elektronischer Basis verhindert nicht die aktuell bereits vorhandenen Probleme, sondern beschleunigt die Prozesse, die zu Konzentration von Macht und den damit verbundenen Problemen der Beeinflussung führen
  5. Die Kriterien für eine „Weisheit der Vielen“ sind nicht mit den Liquid Democracy inhärenten Prozessen vereinbar

Das für mich erstrebenswerte Ziel einer möglichst breiten Beteiligung an demokratischen Prozessen und der damit verbundenen Möglichkeit qualitativ hochwertiger Entscheidungen unter Berücksichtigung der Vorstellungen der Betroffenen wird von Liquid Democracy und auch von der Implementierung LQFB nicht erfüllt.

Direkte Demokratie eignet sich mMn nicht für die Festlegung schneller Entscheidungen, auch wenn die Zentralisierung der Entscheidungsgewalt letztlich nur von „Superdelegierten“ ausgehen würde. Demokratische Mitbestimmung kann und darf kein Fulltime-Job sein, sondern die Betroffenen müssen selbst entscheiden können, bei welchen Entscheidungen sie sich selbst einbringen möchten, weil es ihre Lebenswirklichkeit betrifft. Hier bietet LD zumindest oberflächlich Abhilfe.

Eine Abgabe von Verantwortungen durch Delegation sehe ich allerdings sehr kritisch, denn aus der Sicht des Delegierenden wird ein Stück weit Vertrauen gegen eine Abgabe von Verantwortung eingetauscht. Man wählt zwar SPD/CDU und ihre Abgeordneten, fühlt sich aber nicht als Wähler verantwortlich, wenn diese Abgeordneten „falsche“ Entscheidungen treffen. Alternativen werden so lange nicht wahrgenommen, bis diese Alternativen selbst ein bestimmtes Quorum erreicht haben (wie erwähnt spielt hier die 5%-Hürde eine große Rolle, siehe hierzu auch den Verfassungsrechtler Hans Herbert von Arnim).

Die elektronische Form benötigt zudem zwingend Klarnamen, die wiederum einer geheimen Abstimmung im Wege stehen, wie sie für Abstimmungen mit freier Entscheidungsmöglichkeit notwendig wäre. Wenn ich Entscheidungen treffen muss, die für mich negative Konsequenzen haben könnten, wenn diese bekannt werden, obwohl sie meiner inneren Überzeugung entsprechen, werde ich mich anders entscheiden (siehe auch Problematik von Überwachungskameras auf öffentlichen Plätzen). Eine Pseudonymisierung der Nutzer entspricht zwar der Möglichkeit, relativ unerkannt bleiben zu können, allerdings erschwert die Pseudonymisierung den Erhalt von Delegationen in einem Liquid Democracy-Umfeld.

Insgesamt müssen für eine Einführung von LD als Abstimmungsideologie dermaßen viele demokratische Errungenschaften geopfert werden, dass für mich als Piraten eine Einführung nicht in Frage kommt. Die wenigen Vorteile, die es für Personen gibt, die nicht selbst abstimmen wollen, werden mit den hier beschriebenen massiven Nachteilen bei Abstimmungen erkauft. Von freier, geheimer und gleicher Abstimmung kann nicht mehr die Rede sein, also Grundlagen, die nicht nur bei Wahlen entscheidend sind. Im direkten Vergleich würde ich einer Implementierung einer direkten Demokratie den Vorzug geben, auch in Anbetracht des Nachtteils, dass sich an Abstimmungen auch Personen beteiligen, die nicht den „Qualitätsstandards“ selbsternannter Expertengruppen entsprechen. Derartige „Störfeuer“ sind durchaus wichtig in Organisationen, die sich Liquidität nicht nur dem Namen nach verschrieben hat.

Die fehlende Konzeption im Vorfeld von LD (siehe Teil 1) macht sich bei der Ausführung bemerkbar. Die bisher aufgetretenen Effekte wie Konzentrationen von Stimmanteilen bei „Superdelegierten“ sind keineswegs behebbare Probleme der Bedienung von LQFB und einer damit erhofften Akzeptanzsteigerung, sondern systemimmanente Probleme von Liquid Democracy, die mMn nicht ohne vollkommene Umstrukturierung des Konzepts behoben werden können. Der bessere Weg wäre die Einführung einer direkten Teilnahme mit der späteren Integration von sehr eingeschränkten Delegationen. Liquid Feedback sollte in erster Linie (ohne Delegationen!) dazu verwendet werden, um kollaborativ Anträge und Positionen zu entwickeln und temporäre Meinungsbilder einzuholen, die dann auf Parteitagen (oder einer LD-fernen SMV-Instanz) abgestimmt werden. Letzten Endes gibt es nichts liquideres als eine direkte Demokratie. Im Hinblick auf die Ursprünge des Delegated Votings bleibt mir nur zu konstatieren, dass bei LD wesentliche soziologische und poltikwissenschaftliche Grundlagen missachtet wurden und das Konzept entweder komplett überarbeitet oder verworfen werden muss. Ich bitte daher ausdrücklich darum, LD (vor allem nicht in seiner Implementierung LQFB) nicht als Basis für eine SMV zu verwenden.

 

 

Veröffentlicht unter Piratenpartei | Verschlagwortet mit , , , , , , | 2 Kommentare

Flüssigsprengstoff (Teil 1)

Neverending Story ohne Vorgeschichte

Die Faszination des Themas Liquid Democracy in der Piratenpartei ist auch nach 3 Jahren dauerhafter Diskussion noch immer ungebrochen. Man sollte meinen, dass bereits alle Argumente von allen Seiten gebracht wurden, mittlerweile sogar von jedem, und beide Seiten haben geflissentlich die Argumente der jeweiligen Gegenseite ignoriert, herabgesetzt oder gleich ad hominem mit der ungebrochenen Gewalt eines Kreuzzugs der Gerechten ™ niedergemäht. Um die Hintergründe von Liquid Feedback geht es dabei äusserst selten und man muss schon einige Jahre zurückschauen, um auf die recht umfangreiche Magisterarbeit von Sebastian Jabbusch zu stoßen, in der er sich damals ausgiebig mit dem Thema beschäftigt hat.

Es hat mich bereits kurz nach der Einführung von Liquid Feedback gewundert, dass man sich um die Auswirkungen und Entstehungsgeschichte von Liquid Democracy kaum Gedenken gemacht hatte. Wo kam LD her, was waren die grundlegenden Gedanken hinter LD, welches Menschenbild steckt dahinter, hatte man sich Gedanken über die Gefahren gemacht, die dieses System mit sich bringen würde?

Through the Looking Glass

Bei meinen Recherchen stieß ich auf sehr spärliche Hintergrundinformationen, die im Wesentlichen darauf hinausliefen, dass die Idee spontan in einem Forum entstanden sei (David Cary) und sich lose an Delegated Voting von Lewis Carroll orientieren würde. Also betrieb ich Ursachenforschung und stellte am 28. Juni 2012 auf der Mailingliste RLP fest:

„The Principles of Parliamentary Representation“ von Lewis Carroll ua. Autor von „Alice in Wonderland“). Das Original von 1884 gibt es hier:
http://ia700401.us.archive.org/16/items/ThePrinciplesOfParliamentaryRepresentation/The_principles_of_parliamentary_represen.pdf

Jeder Wähler erhält eine Stimme. Am Abschluss der Wahl wird die Zahl der abgegebenen Stimmen durch die Zahl der Ämter + 1 dividiert.

Beispiel:
12000 abgegebene Stimmen, 30 Ämter, ergibt: 12000/(30+1) ~= 387

Um ein Amt zu erhalten, benötigt man also 387 Stimmen.

Jeder der 30 Kandidaten, der diese Quote erfüllt, gilt als gewählt. Hierbei verbleiben allerdings einige Ämter unbesetzt.

Die nicht gewählten Kandidaten versammeln sich beim Wahlleiter und können dann (!) entscheiden, ihre Stimmen zusammenzulegen., um dann aus ihrem Kreis Kandidaten zu ermöglichen, die Quote zu erfüllen.

Was das mit Liquid Democracy zu tun hat? So gut wie garnichts. Carroll selbst beschreibt in seinem Buch (Desiderata und Chapter III) mehrere der Gründe, die gegen LD selbst sprechen, wie zB. das Ansammeln von Delegationen VOR einer Abstimmung, die Auflösung des Prinzips „1 man 1 vote“ usw. Es ging ihm in erster Linie um eine Vermeidung von Stimmen, die umsonst abgegeben wurden, weil aus ihnen nicht die Wahl eines Kandidaten resultierte. Wir kennen das Prinzip ua. von unseren LPTs, bei der so mancher Kandidat in einem Wahlgang eben nicht über die 50%-Hürde gekommen ist und wir neu wählen mussten. Es gibt auch keine namentliche Nennung bei der Abstimmung, weil Carroll gerade festlegt, dass diese nicht mit demokratischen Grundsätzen vereinbar ist.

Also wenn dieses Werk als „Grundlage“ für den Gedanken von Liquid Democracy genommen wurde, dann sei mir die Frage erlaubt: warum nicht direkt Alice im Wunderland? Da wurde der Sinn hinter „The Principles Of Parliamentary Representation“ absolut nicht verstanden. Carroll hat als Mathematiker sogar bewiesen warum einige grundlegenden Ideen von LD so nicht funktionieren können und selbst eine Methode entwickelt, um zB. das Condorcet Paradoxon zu vermeiden (Dodgon’s Methode, Carrolls eigentlicher Name lautet Charles Dodgson). Nächste Anhaltspunkte wären wohl Mikael Nordfors, Bryan Ford, James Green-Armytage und Michael Allen, die auf Wikipedia genannt werden, aber es kostet enorm Zeit für die Recherche.

The same horror again and again?

Der Weg führte mich also in die Irre, auch wenn die Weiterverfolgung der Ideen von Dodgson aufschlussreich für seine Arbeiten als Mathematiker gewesen wären. Nachdem ich erfolglos versuchte, weitere Informationen über die Grundlagen von LD zu erhalten, hakte ich das Thema für mich intern zunächst ab. Man kann nichts überprüfen, für dessen Existenz keine Beweise vorliegen.

Mit dem Aufkommen der Diskussion zu SMV wunderte ich mich erneut über die Hartnäckigkeit, mit der das Thema Onlineabstimmungen weiterhin verfolgt wurde. Ich hatte mehrere aufschlussreiche Gespräche mit Befürwortern und Kritikern von LD und LQFB, allerdings vermisste ich weiterhin die Begründung, wieso ein System wie Liquid Democracy eine Verbesserung des bestehenden Status Quo sein würde.  Für mich entstand der Eindruck, dass zwar das Ziel verfolgt wurde, eine höhere Beteiligung der Mitglieder an demokratischen Prozessen zu verfolgen, dass man sich aber bei der Verfolgung des Ziels nicht kritisch mit der Wahl der Werkzeuge auseinandersetzen wollte. Es herrschte eine „wenn du es baust, werden sie kommen“-Mentalität, die ich selbst bei den intelligentesten Vertretern der Piratenpartei feststellen konnte. Im besten Falle diskutierte man stundenlang das Für und Wider der offensichtlichen Schwächen wie die kaum zu vereinbarenden Widerspruch zwischen Datenschutz/Informationelle Selbstbestimmung und Transparenz/Vermeidung von Manipulationen. Diesen Diskussions-Deadlock mit Spaltung in Befürworter und Gegner gilt es mMn bei der SMV unbedingt zu vermeiden und von einer Basis auf LD bei der SMV vollständig abzusehen.

Es ist wohl verständlich, dass ich nach meinen Recherchen mit einem gewissen Misstrauen dem gesamten Prinzip Liquid Democracy und seiner Form der Implementierung in LQFB gegenüberstand und sich dieses Misstrauen zudem auf die Diskussion um die SMV übertrug, bei der ähnliche Argumente wie damals bei der Einführung von LQFB ins Feld geführt werden. Ich werde mich im nächsten Post in Kürze mit den Auswirkungen von Delegationen und Kettendelegationen in LD/LQFB beschäftigen, denn die daraus resultierenden Gefahren überwiegen imho bei weitem den daraus zu ziehenden Nutzen.

 

Veröffentlicht unter Piratenpartei | Verschlagwortet mit , , , , | 4 Kommentare