Schlagwort-Archiv: OpenData

Vom Badge-Basar zur lichtdurchfluteten Wandelhalle

(Gastbeitrag für polithink.ch)

Am Dienstag wurde mit einer datenjournalistischen Innovation ein grosses Stück Transparenz über die Vernetzungen unter der Bundeshauskuppel geschaffen. Wieso die Parlamentarier nun gut daran tun, den natürlichen Lauf der digitalen Evolution nicht mit anachronistischen politischen Entscheidungen zu stoppen versuchen. Und wieso mehr Transparenz in der Wandelhalle das Milizparlament stärkt.

Im Dezember 2012 wurde ein Stück Parlamentsgeschichte geschrieben. Mittels Filmaufnahmen machte Politnetz publik, dass die Stimmen im Ständerat falsch ausgezählt worden sind. Diese Bekanntmachung und der zunehmende öffentliche Druck führte dazu, dass die kleine Kammer ihre Absage gegenüber elektronischen Erfassungssystemen beim Abstimmungsverhaltenkorrigierte und der Motion von This Jenny zustimmte.

Im Schatten dieses historischen Ereignisses hat derselbe Ständerat in der Wintersession ein anderen Vorstoss verworfen, der ebenfalls für mehr Licht hinter den Bundeshausmauern hätte sorgen sollen: Die Motion von Lukas Reimann (übernommen von Alt-Nationalrat Alexander J. Baumann), die die Offenlegung von Lobby-Aktivitäten der BundesparlamentarierInnen und sämtliche Interessensbindungen der Zutrittsberechtigten ins Bundeshaus verlangt, wurde von einer Mehrheit abgelehnt.

Mehr Transparenz unter der Bundeshauskuppel ist gefordert (Foto: Simon Lanz, polithink.ch)

Mehr Transparenz unter der Bundeshauskuppel ist gefordert (Foto: Simon Lanz, polithink.ch)

Den ganzen Artikel gibt es auf polithink.ch zu lesen.

Die OpenData-Bewegung: Warum ihre eigene Wiege, das Gratis-Web, ihr im Weg stehen wird

Ein Thema, zwei unterschiedliche Meinungen: Mein Besuch bei der OpenData-Konferenz letzten Donnerstag in Zürich und meine anschliessende Lektüre zweier kritischer Blogartikel zur Transparenz-Gesellschaft (Philippe Wampfler) und Echtzeit-Archäologie (Sascha Lobo) offenbarten mir am gleichen Tag zwei kontradiktorische Perspektiven auf dasselbe Phänomen. Die postmoderne idealistische OpenData-Bewegegung beschwört Heilsbringerwirkung durch öffentlich zugängliche Daten. Die Transparenz-Kritiker befürchten einer gläsernen Echtzeit-Datengesellschaft den Zerfall unserer Kultur und Werte. Welche Seite hat nun Recht?

Vereinfacht lautet der Grundkonflikt : Permanenter Veröffentlichungszwang aller Daten zwecks Weltverbesserung versus Recht auf Schutz und Privatsphäre in einer gläsernen Gesellschaft. Beide Meinungen haben legitime Forderungen und Bedenken. Ich halte jedoch beide Postulate etwas für übertrieben und unrealistisch. Viel wichtiger für den richtigen Umgang mit mehr Transparenz scheinen mir zwei rare Ressourcen: Die Kompetenz, öffentlichen Datenquellen richtig zu interpretieren. Und Zeit.

Daten lesen will gelernt sein

Beginnen möchte ich diesen Artikel mit zwei Zitaten der Kritikerseite:

Wampfler zitiert aus dem Büchlein des Medientheoretiker und Philosoph Byung-Chul Han zur “Transparenzgesellschaft”: “Zweitens gibt es in der Transparenzgesellschaft kein Nicht-Wissen mehr und damit auch kein Vertrauen. Wenn man alles weiß, ist Vertrauen unnötig. Es gibt auch keine Wahrheit und keinen Schein mehr, alles ist wie es ist”

Und noch einen Punkt von Sascha Lobos Kolumne “Aus dem Archiv des Grauens”: „Es wird ekelhaft werden, wenn die jüngste, politische Geschichte digital immer schneller und einfacher nachvollziehbar wird, die absurde Unfähigkeit, die unfassbaren Mauscheleien, das unwürdige Kleinklein. Vor allem aber wird es für jeden recherchierbar bleiben. Informationen, die früher in Archiven nur für Experten und Redakteure zugänglich waren, bleiben öffentlich gespeichert und sind in Millisekunden nach Stichwort auffindbar. Wer zur Ermittlungsarbeit über den Nazi-Terror der NSU ein wenig herumgoogelt, wird darüber stolpern, dass die Hamburger Polizei einen Hellseher engagierte“

Beide kulturpessimistischen Zukunftsszenarien haben ihre Berechtigung. Doch bezweifle ich ihr Eintreffen. Ich glaube weder an das plötzliche Aufkommen massenweiser eifriger Amateur-Webforscher noch an die Möglichkeit„des Nicht-Wissens“ infolge vollständiger Transparenz. Die Offenlegung aller Verwaltungsdaten alleine wird keine Revolution auslösen. Wissen ist schliesslich ein schöpferischer Akt und Produkt eines Denkprozesses.

Ein Beispiel aus eigener Erfahrung: Als ich auf die kryptischen Abstimmungsprotokolle der Parlamentsdienste gestossen bin, benötigte ich zuerst ein paar Minuten bis ich die + und – Positionen auf korrekte Weise der Positionen (JA/NEIN) unseren Nationalräten zuordnen konnte. Dann wurde mir bewusst, welche immenses Potenzial eine ansprechende Aufarbeitung des Entscheidungsverhaltens unserer Nationalräte (inklusive den Fakten, ob sie überhaupt anwesend waren) hätte und unsere Wahrnehmung der Politik in Bundesbern beeinflussen wird. Um diese Idee umzusetzen, braucht es den Konzepter (in diesem Fall ich), den Graphic Designer, den Entwickler und Programmierer. Und am Schluss die Verbreitung und Veröffentlichung via Online-Kanäle. Ein arbeitsteiliges Gemeinschaftwerk also. Erst wir, die Entdecker, Übersetzer und Vermittler dieser Daten, die schon lange online auf der Website der Parlamentsdiensten verfügbar waren und in ihrer maschinenlesbaren Form kaum jemanden interessierten, machten das politische Geschehen auf anschauliche Weise für jedermann anschaulich.

Das „Weiterverarbeitungsrecht“, neben dem offenen Zugang von Behördendaten gemäss dem Referenten Daniel Dietrich die zweite wesentliche Komponente für OpenData, erfordert neben dem Interesse an der Weiterverarbeitung also eine weitere wesentliche Voraussetzung: Die Kompetenz der richtigen Aufbereitung und Visualisierung.

Auch die Aussage der Zürcher Finanzdirektorin Maja Menn, die eine eher kritische Haltung gegenüber den Forderungen der Open Data Government-Community an der Konferenz einnahm, ist mir in diesem Zusammenhang hängengeblieben: „Eine Behörde wie die Finanzverwaltung hat die Aufgabe, die Komplexität zu reduzieren und in ihren Publikationen ,intelligent zu trivialisieren’. Vollständige Transparenz bedeutet daher auch die Wiedergabe vollständiger Komplexität”. Die Komplexität der Daten in ihrer Gesamtheit würde also leiden, wenn sich jeder daran „vergreifen“ und damit rumbasteln würde.

Gratiskultur erschwert Nachhaltigkeit von OpenData-Projekten

Es braucht also die hellen Köpfe und Cracks, die sich dem “Crowd Sourcing”-Gedanken verpflichtend die Informationen vorsondieren, Wichtiges herausextrahieren, filtern, verarbeiten und gestalten. Es braucht –wie in der Konferenz von verschiedenen Speakers gefordert wurde- für eine produktive OpenData-Industrie gar eine Bildungsoffensive, beispielsweise dem Aufbau sogenannter „Data Schools“.

Die Institutionalisierung und Professionalisierung der aufkeimenden Bewegung wird massgebend für den Durchbruch von OpenData werden. Denn was passiert, wenn der Pioniergeist der visionären OpenData-Community erlahmt? Sind die entstandenen Ideen und Konzepte der OpenData-HackDays überhaupt noch nachhaltig?

Gerade das Problem der Entschädigung des Mehrwerts durch OpenData-Projekte ist meiner Meinung nach auf den Entstehungsort der “Open Data”-Bewegung zurückzuführen:  Im Internet. Wo die meisten Informationen gratis verfügbar sind.

Wer bezahlt nun diese Dienste, die Apps, die NICHT ein Bürgerbedürfnis mit einem unmittelbaren persönlichen Nutzen wie den Wetterdiensten, den Information nach umliegenden Unfallstellen etc. erfüllen? Wer sind die Abnehmer? Die Behörden? Jene Institutionen, die man in einem langwierigen Prozess zur Offenlegung ihrer Dokumente zwingen musste, sollen im Sinne eines gemeinnützigen öffentlichen Interesses für die Kosten der Verarbeitung aufkommen? Besteht überhaupt ein legitimierbares öffentliches Interesse nach offenen Behördendaten? Oder soll das Zusammenspiel von Angebot und Nachfrage darüber entscheiden? Solange die Marktteilnehmer und die Geschäftsmodelle noch nicht definiert werden können, wird wohl kaum ein florierender Wirtschaftszweig aus der Bewegung sich entwickeln und etablieren können. Die Empfehlung des Directors der Open Knowledge Foundation Rufus Pollock an der Konferenz, nicht aufs Geratewohl Daten zu sammeln, sondern problemlösungsorientiert vorzugehen und Daten „on demand“ zu veröffentlichen, halte ich daher für einen richtigen Ansatz.

Stell Dir vor, es gibt überall Daten…Und keiner schaut hin

Eine andere mögliche kontraproduktive Wirkung von Opendata mag ihre zunehmende Nicht-Wahrnehmung sein: Werden wir vielleicht „oberflächlicher“, wenn alle gesammelten Daten öffentlich und frei im Web diffundieren? Führt eine Omnipräsenz von Protokollen, Tabellen, Listen zur Abstumpfung, so dass wir ihnen gegenüber sogar „taub“ werden? Ich glaube nicht, dass frei flottierende abstrakte Behördeninformationen über Budgetposten dieselben Effekte haben werden, wie die  Dauerberieselung durch omnipräsente Werbebotschaften. Permanente provokative – wie zum Beispiel sexualisierte oder gewaltverherrlichende- Werbung bewirkte in den letzten Jahren bekanntermassen eine gewisse Abstumpfung in unseren Köpfen gegenüber jenen Reizen.

Bei Rohdaten des Staats verhält es sich wahrscheinlich anders: Die Masse wird diese nämlich schlichtweg ignorieren. Vielleicht mag ich von einem zu negativen Menschenbild ausgehen. Doch auch hier argumentiere ich wieder mit der notwendigen “man power”, die zuerst in die Wertschöpfung von OpenData investiert werden muss. Die Zeit und Musse für die Verarbeitung komplexer Informationen, werden nur wenige Personen und Institutionen aufbringen. Daten einfach zum Selbstzweck zu publizieren, ohne damit ein konkretes Informationsbedürfnis zu befriedigen, finde ich daher weder gefährlich noch von grossem Nutzen.

Daten-Architekten werden wichtiger als die Archäologen

Den Hauptgrund für diese Gleichgültigkeit orte ich wiederum in der naturgemässen Keimzelle des OpenData-Schauplatzes, im Web 2.0: Je schnelllebiger und dynamischer unsere Informationsgesellschaft, je mehr Social Media unser Aufmerksamkeitsvermögen und unsere Auffassungsgabe prägen und je nervöser wir durch langatmige Klickpfade werden, desto seltener, gefragter und relevanter werden diejenigen „Geeks“ sein, die sich diesen Informationen geduldig annehmen. Besonnene, ruhige und nachdenkliche Wissensträger, die die Daten verknüpfen, interpretieren und Zusammenhänge darin erkennen.

In einem Echtzeit-Datendschungel -oder wie es Sascha Lobo nennt„Echtzeit-Archäologie“- braucht es die Denker, die eine Architektur aus den Informationen fabrizieren. Und die Leute, die Fähigkeit mit sich bringen, diese Gerüste immer wieder kritisch zu hinterfragen. Beide Gruppen müssen aber für ihre Denkarbeit auf irgendeine Art und Weise entlöhnt werden.