Schlagwort-Archive: Datenjournalismus

So viel geben die Bundesländer pro Einwohner für den Datenschutz aus

Und hier weitere Zahlen zur Ausstattung der Datenschutz-Aufsicht durch die Politik – diesmal sehr eng angelehnt an den Erwägungsgrund 92 des Europäischen Parlaments zu Datenschutzreform, wonach „die Bevölkerungszahl und der Umfang der Verarbeitung personenbezogener Daten zu berücksichtigen“ sind. Die Fläche des Landes spielt ausdrücklich keine Rolle, ebensowenig die Haushaltslage. Hier also die Berechnung entlang der Bevölkerungszahl:

Ausgaben-Aufsichtsbehörden-Bevölkerung-Bundesland-2015

 

P.S. Bremen ist klar Spitzenreiter, weil es vergleichsweise wenige Einwohner hat und irgendwie eine halbwegs funktionierende Behörde aufstellen muss. Herausragend sind aber Berlin, Hessen und Schleswig-Holstein.

Hier die Rohdaten:

Bevölkerung 31.12.2013 Budgetansatz Aufsichtsbehörden 2015 Euro pro Bewohner
Bund 80.767.463 6.359.000 € 0,08 €
Baden-Württemberg 10.631.278 1.984.300 € 0,19 €
Nordrhein-Westfalen 17.571.856 3.893.900 € 0,22 €
Bayern 12.604.244 3.115.200 € 0,25 €
Rheinland-Pfalz 3.994.366 1.576.400 € 0,39 €
Niedersachsen 7.790.559 3.517.000 € 0,45 €
Sachsen 4.046.385 2.086.100 € 0,52 €
Brandenburg 2.449.193 1.719.700 € 0,70 €
Schleswig-Holstein 2.815.955 2.088.000 € 0,74 €
Hessen 6.045.425 4.536.700 € 0,75 €
Thüringen 2.160.840 1.658.500 € 0,77 €
Sachsen-Anhalt 2.244.577 1.785.100 € 0,80 €
Saarland 990.718 807.600 € 0,82 €
Hamburg 1.746.342 1.441.000 € 0,83 €
Mecklenburg-Vorpommern 1.596.505 1.417.700 € 0,89 €
Berlin 3.421.829 3.234.100 € 0,95 €
Bremen 657.391 957.000 € 1,46 €

So viel investiert die Politik in den Datenschutz

Das Europäische Parlament hat mit dem Erwägungsgrund 92 der Europäischen Datenschutzreform den Regierungen aufgegeben, dass die Aufsichtsbehörden „über angemessene finanzielle und personelle Ressourcen verfügen, um ihre Rolle vollständig wahrzunehmen“. Dabei sind „die Bevölkerungszahl und der Umfang der Verarbeitung personenbezogener Daten zu berücksichtigen“.

Eine Formel, die berechnen würde, wie gut eine Aufsichtsbehörde aufgestellt sein muss, gibt es derzeit nicht. Es hat meines Wissens nach auch nie die Anstrengungen für eine systematische Herangehensweise oder Beurteilung gegeben. Es  wird nach Gutdünken und Haushaltslage entschieden, wie viel man seiner Datenschutzaufsicht zugestehen möchte. Dass man an die Angelegenheit durchaus anders herangehen könnte, habe ich versucht in dem Beitrag „Zu kurz gekommen“ in der c’t 17/15 aufzuzeigen. Konservativ auf der Basis der heutigen Ausstattung gerechnet, sind die Behörden um den Faktor 3 bis 5 zu schlecht aufgestellt. Sie sind meiner Auffassung nach deshalb in Hinblick auf die EU-Datenschutzreform nicht voll funktionsfähig.

Zu-Kurz-Gekommen

Das wird natürlich nochmal ganz anders aussehen, wenn man verschiedene Zeitreihen anlegt. Zum vom EU-Parlament angedachten „Umfang der Verarbeitung personenbezogener Daten“ gibt es leider noch keine Zahlen über einen längeren Zeitraum. Die EU-Kommission ist erst seit letztem Jahr dabei, für die Digitale Agenda eine Reihe von Kernzahlen zu erheben. Das Bundesamt für Statistik hat über die letzten Jahren immer wieder die Erhebungsmethoden geändert, sodass hier auch keine durchgängigen Referenzzahlen für die Zeit vor 2005 existieren.  Mehr dazu hier in Bälde.

Derzeit suche ich verschiedene Möglichkeiten, doch zu einer besseren Berechnung zu kommen. Eine aktuelle Erhebung zeigt etwa die Relation zwischen Budgetansatz des laufenden Jahres und den laufenden Ausgaben des Gesamthaushalts des Vorjahres:

Datenschutz-Aufsichtsbehörden-Gesamthaushalt-2014-Ranking


Anmerkung vom 28.8.: Die ursprüngliche Grafik musste wegen eines  Formelfehlers ausgetautscht werden.

 

 

Datenberge und Nachhaltigkeit: Wie sollten wir die 251.287 Depeschen auswerten?

Nach der ereignishaften “Enthüllung” Ende Dezember durch die Massenmedien SPIEGEL, Guardian, New York Times, Le Monde und El País ist die Auswertung der Depeschen ins Stocken geraten. Ich vermute, der Grund liegt in der Strategie, die bei der Erschließung des Datenbestands nahe liegt. Ein großer Vorteil der digital vorliegenden Depeschen besteht in ihrer digitalen Durchsuchbarkeit. Die Redaktionen haben eine so nahe liegende wie effiziente Strategie angewandt: Sie haben zunächst nach den Personen, Institutionen und Themen gesucht, mit denen sie sich bereits beschäftigt haben. Spiegel und Guardian haben auf diese Weise bis Ende Dezember rund 150 Geschichten veröffentlicht. Das ist eine ganze Menge. Gemessen an dem zur Verfügung stehenden Material jedoch ist das aber nur ein kleiner Bruchteil.

Ich vermute, dass die rund 3900 Dokumente, die bis heute (22.2.2011) auf WikiLeaks veröffentlicht wurden, von den Redaktionen verarbeitet wurden. Dies vorausgesetzt, lässt sich im Hinblick auf die noch bevorstehende Auswertungsphase eine einfache Rechnung anstellen. Bislang wurden in einem Zeitraum von 2,5 Monaten 1,5 Prozent der Depeschen ausgewertet. Dieses Veröffentlichungstempo vorausgesetzt, würde es also noch sieben Jahre dauern, bis alle Depeschen redaktionell bearbeitet und veröffentlicht sind. In dieser Zeit gibt es jedoch viele Faktoren, die zu einer Beschleunigung oder Verlangsamung der Veröffentlichungsrate beitragen können.

So hat etwa der SPIEGEL ein großes Expertenteam aufgestellt, das sich ausschließlich mit WikiLeaks beschäftigt. Es ist aus rein wirtschaftlichen Gründen unwahrscheinlich, dass dieses Team auch noch in sieben Jahren die Depeschen bearbeitet. Ein weiterer Risikofaktor ist der Prozess von Julian Assange und der weitereFortbestand der Organisation WikiLeaks. Obwohl er ja in ein privat motiviertes Verfahren verwickelt ist, hat er dies inzwischen so eng mit der WikiLeaks-Strategie verknüpft, dass hiervon ein erheblicher Einfluss auf WikiLeaks selbst zu erwarten ist.

Komplexe Themen vs. Nachrichtenwert

Ich habe keine systematische Auswertung vorgenommen, von daher kann ich im Hinblick auf möglicherweise vernachlässigte Themen nur meinen Eindruck wiedergeben, den ich angesichts derZusammenstellung des Guardian bekommen habe. Aufgegriffen wurden die Themen, die einen klassischen Nachrichtenwert haben. Auffällig war dies bei der Auswahl der Titelgeschichte des Spiegel, die die Bewertung bekannter Politiker durch die US-Diplomaten skandalisierte. Die Personalisierung ist eine erfolgreiche Strategie, um das Interesse der Rezipienten zu steigern. Ein weiterer Nachrichtenfaktor war natürlich die Überraschung.

Die Enthüllung der Depeschen selbst war eine Nachricht wert. Unerwartete Ereignisse lösen meist ein besonderes Interesse aus und könnten publikumswirksam inszeniert werden. Die Geschichte über den Auftrag des US-Außenministeriums, UNO-Mitarbeiter auszukundschaften thematisierte eine gesellschaftliche Normverletzung, die auf eine rechtswidrige Handlung zurückging. Das heißt, die Entscheidung basierte auf einer Suchstrategie, die sich an den Nachrichtenfaktoren orientierte.

Eine komplexe Geschichte hingegen wie die Liste der kritischen Infrastrukturen wurde erst sehr viel später publiziert. Aufgegriffen wurde sie von der Tagespresse, die aber nicht die Bedeutung der der Liste hinsichtlich ihrer politisch-strategischen Bedeutung analysierte. Dies hätte in die komplexe Diskussion um die Strategiefindung für den Schutz kritischer Infrastrukturen geführt, die aktuell auf EU- und Bundesebene geführt wird, die aber nur fachlich interessierten Lesern vermittelbar ist.

Ich vermute daher, dass komplexe Themen bei der Auswertung insgesamt vernachlässigt wurden. Sie verlangen deutlich mehr Nachrecherche und Einordnung, sind also aufwändiger in der Aufarbeitung. Ich vermute auch, dass Themen, die nur für Fachöffentlichkeiten interessant sind, ausgeklammert wurden. Aufgefallen ist mir das am Beispiel des Themas “Cyber Security“. Es spielt immer wieder eine Rolle, lässt sich jedoch nur über eine Vielzahl von Depeschen erschließen.

Den Exklusivitätskreis durchbrechen

Für Journalisten, die jedoch keinen Zugriff auf das gesamte Material haben, ist das zum gegenwärtigen Zeitpunkt nicht möglich. Verschiedene Strategien stehen JournalistInnen in dieser Situation zur Verfügung: Beispielsweise könnte man anfangen, die vom Guardian veröffentlichten Metadaten auszuwerten. Das könnte Hinweise auf interessante Policy-Änderungen geben. Für den Zeitraum rund um den 11. September 2001 wurde dies ja bereits vorgenommen. Sie zeigt, dass sich eine solche Analyse lohnen würde. Allerdings müsste man dann anschließend auch in das Material eintauchen können. Und das ist bei der gegenwärtigen Datenlage nur dem exklusiven Kreis von gegenwärtig sieben Redaktionen möglich. Das sind der Spiegel, der Guardian, die New York Times, Le Monde und El País sowie die Aftenposten und Die Welt.

Vor diesem Hintergrund könnten FachjournalistInnen und WissenschaftlerInnen versuchen, eine Kooperation mit den Redaktionen einzugehen, die den Exklusivitätskreis der “Fantastischen Fünf“ durchbrochen haben, also mit der Aftenpostenund der Welt. Dabei sollte von vornherein eine klare Fokussierung auf bestimmte Themen und Fragestellungen erfolgen. Allein das Meta-Thema Policy-Making wäre für Politikwissenschaftler und Historiker hoch relevant. Da in letzter Zeit auch weitere Leaks wie etwa die Palästina-Papiere bei Al-Dschasira und dem Guardian entstanden, könnte man hier verschiedene Positionen und Strategien vergleichen und nach ausgesuchten Fragestellungen analysieren.

Die “Palästina-Papiere“ allein bieten Stoff für mehrere Dissertationen. Aus medienwissenschaftlicher Sicht könnte man untersuchen, inwieweit sich die Sicht der Diplomaten von der Sicht der Journalisten unterscheidet und in welchem Ausmaß sie Themen aufgreifen und vertiefen, die nicht auch von der Presse abgedeckt werden. Damit ließe sich feststellen, inwieweit sich Informationsflüsse im staatlichen Sektor vom öffentlichen Sektor unterscheiden. Frühere Studien haben etwa zum Thema “Open Intelligence“ festgestellt, dass 95 Prozent der Informationen, die Nachrichtendienste verarbeiten, aus öffentlichen Quellen stammen. Bei etwas längerem Nachdenken könnte man sicherlich noch auf viele weitere Themen kommen.

Erschienen in der Berliner Gazette am 22.2.2011

(Alp-)Traum WikiLeaks

24 Tage lang protokollierte die britische Tageszeitung The Guardian auf ihrer Website, was die New York TimesDer SpiegelLe MondeEl País und sie selbst über die 251.000 Depeschen des US-Außenministeriums veröffentlichten. Am 22. Dezember schließlich der letzte Eintrag, der unter anderem auf ein Interview des Spiegel mit Bundesinnenminister Thomas de Maizière hinwies, der WikiLeaks als „ärgerlich, aber keine Bedrohung“ bezeichnete. Einen Tag zuvor hatte US-Vize-Präsident Joe Biden WikiLeaks-Chef Julian Assange noch als „Hightech-Terrorist“ bezeichnet.

Eine Auswertung dieser Chronologie zeigt, dass der Guardian mit Abstand das Meiste aus den Depeschen machte: Er veröffentlichte in den ersten 24 Tagen 158 Artikel, das sind 7 Artikel täglich. Etwa auf einer Augenhöhe befinden sich der Spiegel mit 30 Beiträgen, dieNew York Times mit 32 Beiträgen und El País mit 33 Beiträgen und etwa 1,4 Artikeln pro Tag im Schnitt. Deutliches Schlusslicht ist Le Monde mit 23 Beiträgen – mit gerundet etwa einem Beitrag täglich. Allerdings sind etliche Artikel des Spiegel dabei nicht berücksichtigt. Nach Auskunft des Spiegel-Sprechers Hans Ulrich Stoldt veröffentlichte der Spiegel im Heft,online sowie in einer Spiegel-Special-Ausgabe insgesamt 143 Beiträge in diesem Zeitraum. Damit ist der Guardian aber immer noch unangefochtener Spitzenreiter.

Die meisten Beiträge wurden in der ersten Woche veröffentlicht, in der zweiten Woche ging die Frequenz zurück, in der Woche vor Weihnachten stellten einige Redaktionen die Berichterstattung ganz ein. Der Spiegel veröffentlichte laut der Zählung des Guardian nur noch eine einzige Geschichte. Von Weihnachten bis zum 18.1. veröffentlichte er nach Angaben von Stoldt nur noch weitere fünf Beiträge. Eine Planung, in welchem Tempo weiterhin veröffentlicht werden soll, gebe es nicht.

Keine Auswertung gibt es darüber, in welchem Ausmaß diese Berichte von anderen Medien aufgegriffen und weiter recherchiert wurden. Vielleicht eine Aufgabe für künftige Journalistik-Studien. Unzählig hingegen sind die Berichte über den Fall des WikiLeaks-Gründers Julian Assange.

Deutlich wird jedenfalls die Führungsrolle des Guardian bei der redaktionellen Auswertung der US-Depeschen. Dies zeigt sich nicht nur an der Menge der bearbeiteten Informationen, sondern auch an der Art, wie diese präsentiert werden: Nämlich möglichst übersichtlich für die Leser – und im Sinne der vom Guardian seit Jahren offensiv propagierten „Open Data“-Philosophie, die bereits zahlreiche aufsehenerregende Datenjournalismus-Projekte inspirierte.

In diesem Zusammenhang ist es auch erwähnenswert, dass der Guardian die Metadaten der WikiLeaks-Cables in einer offenen Datenbank zur Auswertung frei gegeben hat – während etwa der Spiegel die Depeschen lediglich in einer von außen unzugänglichen Flash-Grafik aufbereitet hat. Auf diese Weise entstanden auf Grundlage der Guardian-Daten einige interessante Auswertungen. Unter anderem visualisierte eine Grafik Themenstränge für die Jahre 2001 bis 2003 und zeigt damit den Impact des 11. September auf Amerikas Diplomatie. Gefährdet wird durch die Freigabe der Metadaten niemand, doch nicht nur für Journalisten, sondern auch für Politikwissenschaftler und Historiker können solche Auswertungsmöglichkeiten wertvoll sein.

Exklusive Themenauswahl

Wie gingen die von WikiLeaks bedachten Redaktionen bislang mit den Depeschen um? Auffallend ist, dass sie darauf achteten, eigene Themen zu setzen. Eine Geschichte desGuardian mit Deutschlandbezug, die kurz vor Weihnachten erschien, wurde beispielsweise vom Spiegel nicht aufgegriffen. Darin ging es um das zeitweise Engagement des Energiekonzerns RWE in einem Kernkraftwerkprojekt in Bulgarien, das laut der Depeschen von ständigen Sicherheitsproblemen begleitet war. Für die Briten war es offenbar deshalb eine Geschichte, weil RWE Besitzerin von Großbritanniens größtem Energieversorgernpower ist, der das Projekt durchführte.

Es scheint, als wäre die große Enthüllungswelle erst einmal zum Erliegen gekommen. Seit Weihnachten werden die Depeschen auf der WikiLeaks-Website nur noch tröpfchenweise veröffentlicht. Woran dies liegt, darüber lässt sich spekulieren. Da den Redaktionen alle Depeschen vorliegen, könnte es daran liegen, dass der Sprengstoff der Depeschen schlicht verbraucht ist.

Aftenposten sprengt Kreis der Auserwählten

Dass dies nicht der Fall ist, zeigen die jüngsten Veröffentlichungen der norwegischen Tageszeitung Aftenposten. Sie hat seit Ende Dezember laut eigenen Angaben Zugriff auf alle Dokumente – durch ein Leck innerhalb von WikiLeaks. Offenbar gibt es innerhalb vonWikiLeaks Personen, die die bisherige Veröffentlichungspolitik torpedieren. Von diesem Leck profitierte inzwischen auch Die Welt, die dank einer Kooperation mit Aftenposten seit Mitte Januar ebenfalls „ohne jede Beschränkung“ Zugriff auf alle Depeschen hat.

Die ersten Veröffentlichungen von Aftenposten lösten internationale Resonanz aus. So erläuterten Dokumente der US-Botschaft in Oslo die Verhandlungen zwischen Norwegen und Russland über die gemeinsame Grenze in der Barents-See. Eine AFP-Meldung griff einen weiteren Aftenposten-Bericht auf, wonach Deutschland und die USA für rund 205 Millionen Euro gemeinsam ein hochauflösendes Satellitensystem unter dem Projektnamen HiROS gegen Widerstände aus Frankreich entwickeln wollten. Dieser Satellit soll unter der Kontrolle des Bundesnachrichtendienstes und des Deutschen Zentrums für Luft- und Raumfahrt (DLR) stehen. Etliche Tage später berichtete auch Spiegel Online über das Projekt – und dass die Bundesregierung es nicht unterstützen wolle. Dabei wurde die entsprechende Depesche weder verlinkt, noch wurde der Bericht von Aftenposten erwähnt.

Die Redaktionen scheinen mit den Depeschen mit einer nahe liegenden Methode umzugehen: Sie recherchieren die Themen, die sie kennen. Werden sie fündig und erscheint das Material interessant genug, berichten sie darüber. Es ist offensichtlich, dass auf diese Weise noch längst nicht alles publiziert wurde, was Nachrichtenwert besitzt. Die bislang veröffentlichten Geschichten reflektieren damit vermutlich vor allem die aktuelle Interessenlage und Themenkompetenz der jeweiligen Redaktion.

Exklusivvertrag mit WikiLeaks?

Aftenposten gehört nicht zu dem erlauchten Kreis der vier großen Publikationen (Guardian,Le MondeEl País und Spiegel), die mit WikiLeaks die Veröffentlichung vereinbart hatten. Die New York Times selbst hat die Dokumente vom Guardian bekommen. Aftenposten-Redaktionsleiter Ole Erik Almlid sagte laut der Nachrichtenagentur dapd: „Wir haben diese Dokumente ohne Auflagen und ohne etwas dafür zu bezahlen bekommen“. Die Zeitung werde die ihr wichtig erscheinenden Depeschen veröffentlichen und unter Umständen heikle Informationen wie Namen unkenntlich machen.

Die Äußerung von Almlid wirft aber auch ein interessantes Licht auf die mutmaßliche Vereinbarung zwischen WikiLeaks und den vier Redaktionen. Spiegel-Sprecher-Stoldt jedenfalls sagt: „Es gibt keinerlei Vereinbarungen mit WikiLeaks. Ausnahme: Der Termin zur ersten Veröffentlichung der Depeschen war mit WikiLeaks und den anderen Medienpartnern abgesprochen.“ Der US-Fernsehsender CNN und das Wallstreet-Journalhatten nach eigenen Angaben eine Zusammenarbeit jedoch abgelehnt, da sie nicht bereit waren, die von WikiLeaks geforderten Vertragsklauseln zu unterzeichnen. Diese sollen unter anderem eine nicht mit WikiLeaks abgestimmte Publikation verbieten. Außerdem ist die Rede von einer Vertragsstrafe von 100.000 Dollar bei Zuwiderhandlung.

Ob eine mindestens mündlich getroffene Vereinbarung zwischen den Verlagen und der Enthüllungsplattform presserechtlich ebenfalls als Exklusivvertrag zu werten ist, darüber wird der Presserat im März entscheiden müssen. Im Falle des Spiegel geht es immerhin um einen exklusiven Zugang innerhalb des deutschsprachigen Raums. Nach Ansicht der Beschwerdeführerin verstößt der Spiegel gegen die Richtlinie 1.1. des Pressekodex. Sie untersagt Exklusivverträge mit Informanten über „Vorgänge oder Ereignisse, die für die Meinungs- und Willensbildung wesentlich sind“. Weiter heißt es: „Wer ein Informationsmonopol anstrebt, schließt die übrige Presse von der Beschaffung von Nachrichten dieser Bedeutung aus und behindert damit die Informationsfreiheit.“

Eine Frage der Masse

Das Besondere an den WikiLeaks-Depeschen ist ganz offensichtlich die schiere Masse: Um sie auswerten zu können, muss eine Redaktion nicht nur über genügend Manpower und Know-How verfügen. Sie sollte auch in der Lage sein, mit anderen journalistischen Organisationen vertrauensvoll zu kooperieren. Trotz des angeblich fehlenden Vertrags ist der Spiegel dazu aber anders als die Aftenposten nicht bereit. Stoldt zu dieser Frage: „Es sind keine Kooperationen mit anderen Redaktionen vorgesehen.“ Aus Sicht der Journalisten als Protagonisten der Meinungs- und Pressefreiheit muss das Hauptinteresse darin bestehen, die Informationen einzuordnen, zu bewerten – und dann erst Öffentlichkeit bei einem Optimum an Transparenz herzustellen. Aus Sicht der Whistleblower muss der Informantenschutz gewahrt – und eine größtmögliche Öffentlichkeitswirkung erzielt werden.

Weil in den Datennetzen von Behörden und Unternehmen immer mehr Dokumente gespeichert werden, werden künftig immer wieder Whistleblower massenhaft Daten an die Öffentlichkeit bringen wollen. Für Journalisten ist das sowohl Anlass zur Freude als auch zur Sorge. Einerseits erhält man brisantes Material für aufsehenerregende Geschichten. Andererseits müssen die Dokumente wie andere auch auf Authentizität und Echtheit überprüft werden. Außerdem müssen Sicherheitsmaßnahmen ergriffen werden, um die Informanten samt Material zu schützen. Eine Aufgabe, der sicherlich nicht jeder Journalist und auch nicht jede Redaktion gewachsen ist.

Auch muss eine Redaktion sich mit der Frage auseinandersetzen, wie weit das eigene Veröffentlichungsinteresse tatsächlich geht. Die Masse der Dokumente reicht aus, um die Berichterstattung auf Jahre hinaus zu versorgen. Doch darauf wird sich kein Verlag einlassen, da es immer auch konkurrierende Themen gibt, die möglicherweise von größerer Relevanz sind. Im Ergebnis sind die Archive der jeweiligen Redaktionen um eine wertvolle zusätzliche Quelle erweitert. Im Sinne einer informierten Öffentlichkeit stellt sich jedoch die Frage, ob eine Privatisierung dieses Informationsschatzes richtig ist. Auf dies würde es nämlich hinauslaufen, wenn WikiLeaks das aktuelle Veröffentlichungstempo beibehält – und dies stünde der ursprünglichen Intention der Whistleblower-Plattform entgegen.

Ganz offenbar müssen Journalisten und Whistleblower neue Prozeduren entwickeln, um verantwortlich mit dem Material umzugehen. Einerseits müssen sie Informanten schützen, andererseits müssen sie so viele Informationen wie möglich strukturiert veröffentlichen. Dabei müssen sie viele, sich widerstreitende Interessen austarieren.

Nüchtern betrachtet besteht das Neue an WikiLeaks vor allem in der Masse der Veröffentlichungen, ihrem weltweiten Erfolg und darin, der Weltöffentlichkeit einen tragischen Helden zu liefern. Seit Jahrzehnten gibt es nämlich schon die WebsiteCryptome.org des New Yorker Architekten John Young, die ebenfalls vertrauliche Dokumente aus aller Welt im Internet veröffentlicht. Er musste ebenfalls bereits mehrere Gerichtsprozesse durchstehen – erfolgreich. Denn die Presse- und Meinungsfreiheit werden in den USA von den Gerichten so hoch bewertet, dass John Young bislang immer durchkam.

Ob ein Prozess gegen WikiLeaks in den USA erfolgreich sein wird, ist zweifelhaft. Man müsste Assange schon nachweisen, dass er den verhafteten Whistleblower Bradley Manning zum „Verrat“ von Staatsgeheimnissen anstiftete. Dies würde dann in die Kategorie „Spionage“ fallen, was zu ahnden wäre. Dafür könnte es genügen, Manning zu einer entsprechenden Aussage zu bringen. Assange äußerte selbst diese Vermutung gegenüber dem britischen Nachrichtenmagazin New Statesman: „Bradley Manning zu knacken, ist nur der erste Schritt. Ganz offensichtlich ist es das Ziel, ihn zu brechen und ein Geständnis zu erzwingen, dass er sich in irgendeiner Weise mit mir verschworen hat, um die nationale Sicherheit der USA zu verletzen.“

Nächste Schritte

Immer wieder betonten die Macher von WikiLeaks, dass ihre Technik so ausgestaltet ist, dass die Identitäten der Whistleblower gegenüber der Plattform unbekannt bleiben. Anonymität ist damit nicht nur ein Schutz der Quelle, sondern auch automatisch ein rechtlicher Schutz für die Empfänger.

Angesichts des unbestreitbaren Erfolgs der Plattform ist es erstaunlich, dass es im Zeitalter innovativer Zeitungsausgaben für das mobile Internet nicht schon längst auf allen Verlagswebsites anonyme digitale Briefkästen für Informanten gibt. Die Technik dafür gibt es nicht erst seit heute. Schon seit etwa zehn Jahren unterstützen etwa das Kryptoprogramm „Pretty Good Privacy“ und das Anonymisierungstool JAP kostenlos die sichere und anonyme Kommunikation. Dass ehemalige WikiLeaks-Mitarbeiter nun mitOpenLeaks ein handliches Tool für Whistleblower anbieten wollen, das dies aus einer Hand bietet, ist überfällig. Diese Initiative hätte aber auch von professionell-journalistischer Seite kommen können.

Ein weiterer nächster Schritt könnte darin bestehen, sich in Deutschland für die rechtliche Absicherung von Informanten einzusetzen. Einen gesetzlichen Whistleblower-Schutz gibt es nämlich bis heute nicht.

Erschienen in der Ausgabe 1/2-2011 der M