Neuer Präsident und zwei neue Mitglieder im Vorstand

Wie in der Einladung für unsere Jahresversammlung angekündigt, bin ich gestern als Präsident und vom Vorstand der Digitalen Allmend zurückgetreten. Ich bin der Meinung, dass nach vier Jahren, davon eines als Ko-Präsident, ein Wechsel angebracht ist und gleichzeitig hat mir meine zeitliche Belastung in anderen Bereichen die Entscheidung etwas leichter gemacht.

Es freut mich sehr, dass wir mit Bruno Jehle einen der Gründer des Vereins als meinen Nachfolger gewinnen konnten. Er ist unbestritten einer der wichtigen Akteure und Vordenker in der Schweiz für die Public Domain in der vernetzen, digitalen Welt.

Auch fantastisch ist, dass sich mit Christoph Zimmermann und Micha L. Rieser zwei Mitglieder der jüngeren Generation in den Vorstand haben wählen lassen. Beide sind der Public Domain durch ihre Tätigkeiten in anderen Projekten stark verbunden. So ist Christoph unter anderem als Mitinitiator des ‚Public Domain Projektes‘ bekannt, welches in akribischer Arbeit Schellackplatten digitalisiert und im Netz bereits stellt. Micha wiederum ist als Mitglied des Vorstandes von Wikimedia Schweiz und ehemaliger ‘Wikipedian in Ressidence’ im Bundesarchiv an vorderster Front an der Arbeit, wenn es um das digitale Heben der Schätze unseres kulturellen Erbes geht.

Nachdem im Herbst 2012 von Bundesrätin Sommaruga die unausgewogen zusammengesetzt Arbeitsgruppe Urheberrecht (AGUR12) eingesetzt wurde, war uns klar, dass wir uns auf eine Vielzahl von Forderungen zur Revision unseres relativ liberalen Urheberrechtes gefasst sein müssen, die vor allem eine Einschränkung der kreativen Möglichkeiten und die Verkleinerung der Public Domain bedeuten würden. Der etwas mehr als ein Jahr später erschienene Bericht der AGUR12 hat dann unsere schlimmsten Befürchtungen Wahr werden lassen. Darum haben wir uns in den letzen Jahren, neben vielen anderen Aktivitäten, darauf konzentriert uns besser mit allen Akteuren im Bereich Urheberrecht in der Schweiz zu vernetzen um sicherzustellen, dass wir, trotz begrenzten Ressourcen, unseren Ideen und Vorstellungen im zu erwartenden Gesetzgebungsprozess deutlich mehr Gehör verschaffen können.

Im vorgelegten Gesetzesentwurf vom Dezember letzten Jahres wurden zwar leider fast alle schlechten Ideen der AGUR12 aufgenommen, allerdings fanden sich glücklicherweise auch ein paar Änderungsvorschläge, die wir begrüssen konnten und wir haben uns zusammen mit den Organisationen und Institutionen der Task Force URG in der Vernehmlassung darum bemüht, konstruktiv an dieser Revision mitzuarbeiten. Diese Arbeit ist natürlich noch lange nicht abgeschlossen und ich werde mich weiterhin als Mitglied der Digitalen Allmend in der Task Force URG, in der Digitalen Gesellschaft und an vielen anderen Stellen für ein sinnvolles Urheberrecht einsetzen.

Ich freue mich, dass der Vorstand in dieser neuen Konfiguration für die Zukunft des Vereins äusserst vielversprechend aufgestellt ist, und wünsche allen meinen Kollegen und Kolleginnen in der Digitalen Allmend weiterhin viel Freude und Erfolg mit ihrer Arbeit für eine grossartige, inspirierende und vor allem weitläufige Public Domain der Kultur und des Wissens.

Eingabe zur Änderung des URG

Vernehmlassungsantwort zur Änderung des Urheberrechtsgesetzes (URG)

Wir haben am 31. März 2016 unsere Vernehmlassungsantwort zur Änderung des Urheberrechtsgesetzes (URG) eingereicht. Wir haben uns, auch durch unsere Mitarbeit in der Task-Force URG der Gedächtnisinstitutionen der Schweiz, intensiv mit der gesamten Vorlage auseinander gesetzt. Der Revisionsvorschlag beinhaltet viele Elemente, darunter auch durchaus sinnvolle, wie eine bessere Regelung zur Nutzung von verwaisten Werken, oder die Einführung einer ‘erweiterten Kollektivlizenz’. Daneben gibt es aber auch einiges, was wir ablehnen müssen, da diese Vorschläge, wenn sie umgesetzt würden, die Anzahl verfügbarer Werke und/oder deren Nutzungsmöglichkeiten massiv einschränken würde. So soll ein neues Leistungsschutz für Pressefotografien eingeräumt werden oder die Bibliotheken zu einer unnötigen Urheberrechtsabgabe gezwungen werden. Und natürlich sind auch völlig untaugliche und äusserst schädliche Massnahmen zu so genannten ‘Internet-Pirtaterie’ vorgesehen, die man allesamt nur Verwerfen kann. Natürlich haben wir auch die Gelegenheit genutzt, weitergehende Vorschläge, wie eine Reduktion der Schutzdauer oder Massnahmen gegen Copyfraud einzureichen und vieles mehr.

Hier zum Einstieg die Einleitung unserer Antwort, den Rest lest ihr im PDF:

Wir sehen ohne weiteres Handlungsbedarf zu einer Revision und dabei auch Modernisierung des URG. Allerdings folgt die vorliegende Vernehmlassungsvorlage weitgehend den Empfehlungen der Arbeitsgruppe zur Optimierung der kollektiven Verwertung von Urheberrechten und verwandten Schutzrechten (AGUR12), obwohl diese Arbeitsgruppe äusserst einseitig zusammengesetzt war. In der Folge wurden gerade auch die Anliegen der Zivilgesellschaft – insbesondere auch im Zusammenhang mit Menschenrechten – nicht berücksichtigt, sondern es resultierte ein einseitiger Fokus auf die Bekämpfung der so genannten Internet-«Piraterie» – auch vor dem Hintergrund von offensichtlichem amerikanischem Druck über den Runden Tisch («Roundtable») zum Urheberrecht, der hinter verschlossenen Türen beim Staatssekretariat für Wirtschaft (SECO) stattfand und stattfindet. Unseres Erachtens entspricht dieser einseitige Fokus auch nicht dem ursprünglichen Auftrag an die AGUR12.

Wir legen grossen Wert darauf, dass das Urheberrecht so ausgestaltet ist, dass ein Ausgleich zwischen den Interessen von Urheberinnen und Rechteinhabern einerseits und den Interessen der Gesellschaft andererseits hergestellt wird. Die ultimativen Forderungen von Urhebern und Rechteinhabern nach einem absolut geltenden «geistigen» Eigentumsrecht, das ohne Rücksicht auf gesellschaftliche, technologische und wirtschaftliche Entwicklungen mit offensichtlich unverhältnismässigen Massnahmen und unter Inkaufnahme von massiven gesellschaftspolitischen Kollateralschäden durchgesetzt werden soll, entspricht in keiner Art und Weise einem solchen Interessenausgleich.

Wir weisen dabei insbesondere darauf hin, dass allein schon das Konzept eines Urhebers als alleiniger Erschaffer eines Werkes in Frage gestellt werden muss. Auch die utilitaristische Behauptung, wonach ein möglichst restriktives Urheberrecht zu einer höheren Anzahl von Werken führt als eine Gesellschaft mit einem liberalen Urheberrecht oder in extremis ganz ohne Urheberrecht, ist längst durch viele Beispiele widerlegt. Das Urheberrecht hat denn auch keinen naturrechtlichen Ursprung, sondern entsprang und entspringt mehrheitlich dem erfolgreichen Lobbying von wenigen Partikularinteressen wie insbesondere auch der amerikanischen Unterhaltungsindustrie.

Wir wissen gleichzeitig, dass die schweizerische Realpolitik vorläufig keine grundsätzlichen Entscheidungen und Fragen in Bezug auf das Urheberrecht erlaubt. Wir versuchen deshalb, mit unserer vorliegenden Vernehmlassungsantwort den Prozess der Gesetzesrevision konstruktiv zu begleiten.

Wir begrüssen in diesem Rahmen, dass der Bundesrat neue Schrankenregelungen vorschlägt, die eine einfachere Verwendung von Urheberrechtlich geschützten Werken ermöglichen sollen. Wir lehnen hingegen jene Massnahmen ab, die in erster Linie den grossen Rechteinhabern sowie den Verwertern dienen. Dank dem Internet ist die aktive Partizipation längst nicht mehr auf einige wenige Rechteinhaber, Urheber und Verwerter beschränkt und viele neue Geschäftsmodelle – innovative und zukunftsträchtige Geschäftsmodelle! – im digitalen Raum entstehen erst. Es wäre deshalb gefährlich, die vorliegende Vernehmlassungsvorlage ohne erhebliche Anpassungen als revidiertes URG in Kraft treten zu lassen und damit unter anderem überholte Geschäftsmodelle, gerade auch jenes der amerikanischen Unterhaltungsindustrie, zu schützen.

Wir lehnen in diesem Zusammehang insbesondere geplanten Massnahmen gegen die so genannte Internet-«Piraterie» ab. Die geplanten Netzsperren stellen ein völlig ungeeignetes und damit unverhältnismässiges Mittel dar, um Kulturschaffenden zu höheren Einkommen zu verhelfen, und dass die geplanten Netzsperren gleichzeitig aber massiven Schaden an der schweizerischen Internet-Infrastruktur sowie gegenüber den Menschenrechten verursachen.

Wir lehnen auch die geplanten Massnahmen zur Überwachung von Peer-to-Peer (P2P)-Netzwerken unter Durchbrechung des Fernmeldegeheimnisses dediziert und vollumfänglich ab. Wir sind überzeugt, dass P2P-Netzwerke mittlerweile ein vernachlässigbares Problem für Rechteinhaber darstellen, denn sobald benutzerfreundliche und offizielle Angebote vorhanden sind, werden diese von den zahlungskräftigen und durchaus zahlungsbereiten Konsumentinnen und Konsumenten in der Schweiz genutzt. Konsumentinnen und Konsumenten weichen nur dort auf nicht autorisierte Alternativen aus – gefährliche Alternativen, denn es drohen Gefahren wie Schadsoftware und dubiose Werbung –, wo es an benutzerfreundlichen und offiziellen Angeboten fehlt.

Wir weisen im Übrigen darauf hin, dass letztlich alle geplanten Massnahmen gegen die so genannte Internet-«Piraterie» voraussichtlich zu einer unerwünschten (weiteren) Konzentration im schweizerischen Markt für Internet-Provider führen – unter anderem auch deshalb lehnen wir derartige Massnahmen vollumfänglich ab. Dabei ist zu betonen, dass es in der Schweiz und nach schweizerischem Recht bereits heute nicht möglich ist, ein Geschäftsmodell auf Grundlage von Urheberrechtsverletzungen zu betreiben, weshalb es auch kaum schwerwiegende Fälle im Sinn der vorliegenden Vernehmlassungsvorlage gibt, mit denen sich die geplanten Massnahmen rechtfertigen lassen.

–> Weiterlesen im PDF unserer Vernehmlassungsantwort zur Änderung des Urheberrechtsgesetzes (URG)

Wie geht es nun weiter? Das IGE wird sich jetzt mit den vielen eingegangenen Antworten auseinandersetzten und danach wird irgendwann eine neue Vorlage kommen. Ob das noch dieses Jahr sein wird, wissen wir nicht. Diese wird entweder noch einmal in eine Vernehmlassungsrunde oder direkt ins Parlament geschickt. Wir werden auf jeden Fall, auch im Rahmen der Mitarbeit in der Task Force URG, dran bleiben und uns weiterhin für ein moderates und modernes Urheberrecht einsetzen, welches den neuen Möglichkeiten der digitalen und vernetzten Welt gerecht wird, und sich nicht nur an den absoluten Eigentumsansprüchen einiger Urheber orientiert, sondern auch an den Bedürfnissen der Gesellschaft.

Memoriav und der Umgang mit Gemeinfreiheit

Der Verein Memoriav  setzt sich aktiv für die nachhaltige Erhaltung und breite Nutzung vom audiovisuellen Kulturgut in der Schweiz ein. Unterdessen gibt es einige audiovisuelle Werke, welche gemeinfrei sind. Im Rahmen der Recherchen zu Re:PublicDomain stossen wir immer wieder auf Werke deren Zugänglichmachung von Memoriav unterstützt wurde. Zum Beispiel die aktuelle Ausstellung zu Arbeit im Landesmuseum oder die Filme von Walter Mittelholzer.

Aus diesem Grund haben wir Memoriav einige Frage zum Thema Gemeinfreiheit gestellt.  Wir haben u.a. gefragt, ob es Richtlinien zum Umgang mit gemeinfreien Werken gibt, ob Restaurierungen und Digitalisierungen von gemeinfreien Werken mit der Zugänglichmachung verknüpft wird und wie verhindert wird, dass keine falschen Urheberrechtsansprüche bei gemeinfreien Werken geltend gemacht werden.

Memoriav war so freundlich und hat uns ein bisschen allgemeiner auf unsere Fragen geantwortet:

Memoriav ist im Bereich der Erhaltung des audiovisuellen Kulturerbes tätig. Einerseits geht es um die (Langzeit-)Erhaltung der audiovisuellen Dokumente (analog und/oder digital) und andererseits um den Zugang zu diesen Dokumenten. Der Grossteil unserer Projekte findet in Gedächtnisinstitutionen statt, die selbst schon einen Auftrag bezüglich Zugänglichkeit haben. Kommen Gesuche von anderen Gesuchsstellern, versuchen wir immer, sofern möglich, eine Verbindung zu einer „öffentlichen Gedächtnisinstitution“ herzustellen, weil wir der Meinung sind, dass dies förderlich ist für die Nachhaltigkeit und den langfristigen Zugang zu den Dokumenten.

Wie Sie wissen, gibt es audiovisuelle Dokumente (z.B. Foto) erst seit dem 19. Jahrhundert. Der überwiegende Teil der Memoriav-Projekte (Ausnahme Fotogafie) bezieht sich aber auf Dokumente des 20. Jahrhunderts. Dies führt dazu, dass es nur wenige Dokumente gibt, für die alle relevanten Rechte (Urheberrechte und verwandte Schutzrechte) erloschen sind und damit „barrierefrei” online zugänglich gemacht werden können. Zudem bestehen an audiovisuellen Dokumenten oft verschiedene Rechte bzw. es handelt sich auch oft um verwaiste Rechte, die nicht einfach abzuklären sind. Bei verwaisten Rechten gibt es ja einen spezifischen Tarif, den Memoriav aber nicht zahlen kann und somit ist der Online-Zugang bei Dokumenten mit verwaisten Rechten auch oft schwierig zu realisieren. In jedem Fall erwarten wir aber einen Online-Zugang der Metadaten. Dies auch um die Dokumente recherchierbar zu machen, beispielsweise für Bildung und Forschung.

Der Bund erwartet von Memoriav nicht, dass die geförderten Projekte zur „Public Domain“ werden, sondern, sie müssen „nur“ öffentlich zugänglich sein („worst case“ in einer Institution vor Ort auf Anmeldung). Im Bereich des Films ist dieser Zugang aufgrund der rechtlichen Situation leider nicht immer online gegegeben, sondern manchmal nur „vor Ort“, beispielsweise in der Cinémathèque suisse.

Alle Projekte, die Memoriav unterstützt sollen innert angemessener Frist öffentlich zugänglich sein bzw. werden. Es versteht sich von selbst, dass wir den möglichst barrierefreien Onlinezugang präferieren, aber wie oben erwähnt ist manchmal nur ein Zugang vor Ort möglich, z.B. falls die rechtliche oder technische Situation das verlangt. Bei einigen Projekten arbeiten wir derzeit an einer umfassenden Zugänglichkeit, die wir bis nächstes Jahr realisieren können, Bsp. alle SRG-Memoriav-Projekte (Metadaten aller Projekte und zudem die Files, falls rechtlich unproblematisch) sowie die Schweizer Filmwochenschauen (Metadaten und Files).

In der Tat ist es aber so, dass Memoriav derzeit sein Know-how im Bereich Urheberrecht etc. auffrischt und sich beispielsweise auch in einer Arbeitsgruppe zur Revision des URG beteiligen wird. Auch im Bereich „Public Domain“ möchten wir unser Know-how auf- bzw. ausbauen, weil dies inskünftig aufgrund ablaufender Fristen für uns sicher relevanter wird.

Da das Thema zunehmen wichtig wird, werden wir weiterhin mit Memoriav den Kontakt suchen und uns mit ihnen Austauschen.

Diskussion 7.11 – “Wann das Urheberrecht abläuft” – BuchBasel

Daniel Boos, Mitglied der Digitalen Allmend, diskutiert mit an der Buch Basel zum Thema Public Domain

Podiumsdiskussion: Wenn das Urheberrecht abläuft

Sa, 07.11.2015 11:00
Ort: GGG Schmiedenhof
AutorInnen: Boos, DanielLandwehr, DominikLandolf, Dani

70 Jahre nach dem Tod eines Urhebers werden dessen Werke zu öffentlichem geistigem Eigentum; sie sind frei und stehen dank Digitalisierung und Internet heute in riesigen Mengen zur Verfügung. Was tun wir mit all diesen Daten? Was bedeutet das für die Zukunft des Buches? Mit Dominik Landwehr (Migros-Kulturprozent; «Public Domain», (Christoph Merian, 2015), Daniel Boos (Digitale Allmend), Dani Landolf (SBVV) und Matthias Zehnder (M). In Kooperation mit SWIPS.

Public Domain Buch – Freie Verfügbarkeit von Werken als Chance

Im Merian Verlag ist ein neues Buch zum Thema Public Domain erschienen. Auch einige Mitglieder der Digitalen Allmend haben Beiträge zum Buch geschrieben:

Was geschieht mit Werken nach Ablauf des Urheberrechts?Cover Public Domain Buch

  • Freie Verfügbarkeit von Werken als Chance und Herausforderung
  • Aus der Reihe ‹Edition Digital Culture›
  • Mit Beiträgen von Leonhard Dobusch, Merete Sanderhoff, Martin Steiger, Wolfgang Ullrich, Mario Purkathofer und Daniel Boos

70 Jahre nach dem Tod eines Urhebers werden dessen Werke zu öffentlichem geistigem Eigentum, sie sind gemeinfrei und gehören somit dem Publikum. Damit sind nicht nur mittelalterliche Texte, sondern auch Bücher und Werke aus dem 20. Jahrhundert frei. Die Digitalisierung hat dem Umgang mit diesen Werken zu einer neuen Dynamik verholfen. Public Domain ist für Museen, Bibliotheken, Archive und Galerien eine Herausforderung, aber auch eine Chance für den ganzen kulturellen Sektor. Im Buch werden die urheberrechtlichen Grundlagen von Public Domain erklärt und die Schwierigkeiten bei der Umsetzung im Alltag der Kulturinstitutionen diskutiert. Breiten Raum nimmt das Thema Remix ein, das in Theorie und Praxis dargestellt wird. Ein ausführliches Glossar ist Teil der Publikation.

Erscheint auch als E-Book und kann beim Verlag bestellt werden.

Informationelle Aufdringlichkeit

Wie ist ein Recht auf informationelle Selbstbestimmung mit Big Data vereinbar? Im Schlussteil ihres Textes betrachten Mayer und Cukier einige Risiken.

Die Autoren weisen darauf hin, dass trotz einer gewissen Unschärfe von Daten viele Informationen unter Big Data auf Individuen zurückverfolgt werden können. Sie gehen trotzdem von einer vorrangigen Berechtigung aus, Informationen zu beliebigen Zwecken zu verwenden und zu verknüpfen. Da wird die Wahrung der Privatheit und der informationellen Selbstbestimmung ziemlich schwierig. Zu den Grundsätzen des Datenschutzes in Westeuropa gehört, dass persönliche Informationen durch Berechtigte und zu umrissenen Zwecken verwendet werden dürfen.

Für derartige Beschränkungen haben die Autoren kein Musikgehör. Sie möchten einen Markt etablieren, auf dem Konzerne und staatliche Institutionen über professionelle Marktmacher Bündel von Daten aufbereiten und handeln – unproblematische und persönliche. Darum wollen sich vom Schutz individueller Rechte weg zu einer reinen Marktregulierung: Der Staat soll den Info-Brokern Branchenregeln vorschreiben, die den Umgang mit den Datenmassen gestalten. Dass es das auch braucht, ist kaum bestritten.

Die individuellen Rechte zu verwässern, erscheint aber einigermassen problematisch. Das gilt vor allem für persönliche Daten, die zwangsweise erhoben werden, etwa im Gesundheitswesen, beim Hotelbesuch oder beim elektronischen Zahlungsverkehr. Nur ein griffiger Datenschutz kann verhindern, dass private Akteure umfassende Profilsammlungen von Individuen aufbauen und vermarkten können.

Stark in den Vordergrund rücken die Autoren das Problem, dass Big Data basierte Profile vorsorglich zu Handlungen Anlass geben können, die Individuen massiv einschränken. Weil sie von einer massiven Verbesserung von Prognosen ausgehen, sehen sie die Versuchung, dass die Gesellschaft wie in Minority Report bereits aufgrund einer Möglichkeit von Taten eingreifen könnte – bevor etwas passiert ist. Die Befürchtungen erscheinen etwas überzogen, was den Prognose-Optimismus angeht. Zudem basiert Handeln bereits heute nicht selten zwingend auf Risikoeinschätzungen und bleibt für die Betroffenen nicht folgenlos. Etwa bei der Risikoabklärung von Wiederholungstätern oder einer Kreditvergabe.

Gar nicht beachtet wird von den Autoren die Problematik der kriminellen Übergriffe durch private und staatliche Akteure. Die Datensammlungen werden mit oder ohne Big Data immer grösser und relevanter. Ein grosser Schub bahnt sich etwa unter dem Stichwort der individualisierten Medizin an.

Man muss die Einschätzungen von Mayer und Cukier nicht teilen. Der Wert des Buches besteht auf jeden Fall darin, Stossrichtung und Diskurselemente der aufstrebenden Big Data Branche deutlich sichtbar zu machen.

Keine Ursache

Im vierten Kapitel ihres Big Data Buchs machen sich Mayer und Cukier daran, ihre zentrale These weiter zu untermauern. Gelingt es ihnen, einen Primat der Korrelation über die Kausalität plausibel zu machen?

Die Autoren konstatieren, dass die Suche nach Korrelationen im Rahmen konventioneller Statistik schon wichtig war – brillieren würden Korrelationen aber mit Big Data. Erkenntnisse liessen sich leichter, schneller und klarer gewinnen als mit konventionellen Analysen.

Diese These stützen sie mit Beispielen. So hat Amazon festgestellt, dass die so gewonnen Kaufempfehlungen den Umsatz steigern. Oder dass ein Logistikunternehmen mit riesigem Wagenpark den Zeitpunkt eines Unterhalts hinausschieben kann, ohne das Risiko eines Ausfalls zu erhöhen. Hier hat sich in der Diskussion die Frage gestellt, ob das überhaupt ein Big Data Konzept erfordert. Das kann insofern zutreffen, als eine Umwidmung von Daten stattfindet, sofern Weg- und Wetterdaten mit ausgewertet werden, die zu andern Zwecken erhoben wurden. Die Verwendung von nicht eigens dafür gesammelten Daten gilt als wichtiges Element von Big Data.

Die Diskussionsrunde ist sich einig, dass es eine Reihe von Fällen gibt, wo Big Data Korrelationen zu nützlichen Erkenntnissen führen, ohne dass die Problematik kausal modelliert oder konsistent verstanden werden kann. Allerdings trifft das eben nicht auf die meisten Problematiken zu, vor denen die Menschheit steht. Die Beispiele im Buch beziehen sich auf eng gefasste Fragestellungen in den Bereichen Marketing, Logistik oder Epidemiologie.

Von den Autoren wird zudem auch ausgeblendet, dass auch in diesen einfachen Fällen ein implizites Kontextwissen und modellartige Vorstellungen vorhanden sein müssen. Stellen wir uns vor, einer Versuchsperson werden mehre Datensets mit präsentiert, welche die Zuverlässigkeit der europäischen Stromversorgung betreffen. Dazu ein gut designtes Big Data Tool. Mit Ziehen und Klicken kann die Versuchsperson Korrelationssuchen konfigurieren und durchführen. Wird diese Person irgend eine sinnvolle Aussage zu Schwachstellen und Risiken treffen können?

Das Problem taucht in anderer Form in einem späteren Kapitel auf, wo das Entstehen einer neuen Branche und neuer Berufe skizziert wird. Beim Datenspezialisten lassen die Autoren offen, ob der nur Wissen über Tools und formale Aspekte haben muss, oder auch Kontextwissen über die bearbeiteten Probleme.

Damit sind wir bei einem weiteren Begründungsstrang, den Methodenfragen. Die Autoren greifen die konventionelle naturwissenschaftliche Methode an. Die besteht darin, ein Problem zu beschreiben und dann Hypothesen zu formulieren, die überprüft werden. So wird heute nicht nur in der Grundlagenforschung vorgegangen, sondern tendenziell auch in der Pharmaforschung und anderswo. Da, wo wirklich relevante Probleme der Menschheit angegangen werden und beispielsweise Krebs- oder Alzheimermedikamente entwickelt werden, deutet nichts auf einen relevanten Beitrag von Big Data hin. Von andern Problemkategorien wie Failed States oder ökologischen Herausforderungen ist im Buch schon gar nicht die Rede.

Der Versuch, eine methodische Überlegenheit von Big Data angesichts der aktuellen wissenschaftlichen Herausforderungen zu postulieren, scheitert. Da hilft es auch nicht, die durchaus interessante These des Psychologen und Nobelpreisträgers Kahnemann heranzuziehen, der eine spontane und auf Muster orientierte von einer langsameren und reflektierenden Strategie des Menschen ausgeht. Big Data findet ja nicht im situativen Umfeld des isolierten Individuums statt, sondern in Institutionen und längeren Projekten.

Trotz seiner Tendenz zum massiven Überdehnen der Grundthese gefällt uns das Buch gut, weil es prägnant auf relevante Entwicklungen hinweist. Ja, es gibt einen Trend zu massiven Datafizierung, zur Erzeugung und Verfügbarmachung von Daten – auch personenbezogenen. Die Autoren machen Führungskräfte eindringlich darauf aufmerksam, dass Daten ein wichtiger werdende Ressource ihres Unternehmens seien, die angemessen bewertet und genutzt werden sollte. Sie skizzieren das Entstehen einer spezialisierten Branche mit neuen Berufsfeldern. Da werden Daten, Tools und Methoden aufbereitet und gehandelt.

Vorerst skizziert der Text Felder, wo Daten nicht in einer personenbezogenen Weise behandelt werden. Im kommenden Kapitel über Risiken wird sich die Position der Autoren weiter klären. In der Diskussion erörtern wir schon mal die Möglichkeit, gegen den Sog des Big Business Kontrolle über persönliche Daten zu gewinnen und diese im Rahmen von Föderationsmodellen kontrolliert zugänglich zu machen.

Big Data

Die Lesegruppe wendet sich der Revolution zu. Zumindest postuliert der Untertitel des Buchs „Big Data“ eine „Revolution That Will Transform How We Live, Work and Think“. Wie weit das plausibel ist, muss sich zeigen.

Mayer und Cukier stellen fest, dass es keine rigorose Definition von Big Data gebe. Sie zeigen vorerst eine erste, quantitative Dimension auf. Die verfügbaren und verarbeitbaren Datenmengen sind massiv gestiegen. Das ruft nach neuen Strategien, um diese Daten so aufzubereiten, dass sie parallel bearbeitet werden können. Dazu dient etwa Googles MapReduce. Das Buch liefert dazu kaum Informationen. Aufgrund der Lektüre war in der Lesegruppe offen, ob MapReduce auf diese Aufbereitung beschränkt ist, oder ob auch eine Aufbereitung nach inhaltlichen Mustern stattfindet.

Die explosionsartige Zunahme der verfügbaren Informationen wird von den Autoren mit ein paar eingängigen Hinweisen untermauert. 2013 sind etwa 1200 Exabytes an Informationen verfügbar gewesen, davon nur noch 2% in analoger Form. Zur Jahrtausendwende waren letztere mit drei Vierteln des Volumens noch dominant. Uns als Hardcore Neugierige würde natürlich interessieren, was hier mit Information gemeint ist. Sind informationstechnische oder semantisch kulturelle Informationen angesprochen?

Mayer und Cukier skizzieren eine Kulturgeschichte der Informationsmengen, wobei sie über die Erfindung des Buchdrucks bis zur antiken Bibliothek von Alexandria zurückgreifen. Das dient dazu, die Kernthese des Textes plausibel zu machen: Die Umwälzung der Kultur durch Big Data. Vorerst bemerken die Autoren, dass sich BD auf Dinge bezieht, die nur basierend auf einer grossen Datenmenge gemacht werden können und nicht auf einer bescheidenen Ebene. Das hat uns in der Diskussion eingeleuchtet.

Dann aber zünden die Autoren eine nächste Stufe und postulieren, BD würde die Art verändern, wie wir mit der Welt interagieren. Die Menschheit müsse dabei „die Obsession für Kausalität zugunsten von einfacher Korrelation“ fahren lassen. Die Herren lehnen sich weit aus dem Fenster: Wenige Jahre, nachdem die Finanzelite mit unverstandenen Modellen die Weltwirtschaft an den Rand des Abgrunds gefahren hat, wird die Devise „Numbercrunching statt Analyse“ ausgegeben. Der Text wird in späteren Kapiteln darauf zurückkommen, wir sind gespannt.

Wo sich der Text konkreteren Problemen zuwendet, fördert er durchaus interessante Sachverhalte an den Tag. So wird die Problematik erläutert, dass sorgfältig gestaltete Datensammlungen, etwa Telefonumfragen, dank dem Zufallsprinzip grosse Zuverlässigkeit erreicht haben. Weil sie aber sehr aufwändig und in manchen Fällen nicht realisierbar sind, gewinnt die Auswertung bereits vorhandener Datensammlungen an Gewicht, auch wenn diese „messy“ respektive ungeordnet sind und zu andern Zwecken erhoben wurden.

Prognosen zu Klima und Terror

Eine letzte Runde hat die Lesegruppe Nate Silver und seiner „Berechnung der Zukunft“ gewidmet. Silver erfindet sich gegen Ende des Buches nicht neu, sondern bleibt auf seinem pragmatischen journalistischen Pfad.

In Kapitel 12 geht er auf die Prognosen zur Klimaveränderung ein. Er ruft in Erinnerung, dass erste Hypothesen schon Ende 19. Jahrhunderts auftauchten. Erst in den 1980er Jahren wurden aber die Temperatursignale vom natürlichen Trend unterscheidbar. Der Autor ist sichtlich bemüht, in der aufgeheizten Diskussion der USA eine abwägende Tonart anzuschlagen.

Er plädiert dafür, Theorien anhand von Prognosen zu überprüfen. „Die Prognosen der Klimatologen trafen gelegentlich ein, gelegentlich aber auch nicht.“ Dann breitet er die Kontroverse zwischen Scott Armstrong und Al Gore aus, die sich über kurzfristige Trends gebalgt haben. Silver ist zu sehr Bestseller Autor, um sich das Showdown Moment dieses Pseudodramas entgehen lassen. Er treibt damit aber die Lesenden auf ein Terrain, das er anderswo als irrelevant taxiert. Einzelne Jahre und kurzfristige Trends haben absolut nichts mit Klimatrends zu tun, die sich auf Jahrhunderte bis Jahrtausende beziehen.

Zurecht weist Silver in Bezug auf den Prognosehorizont darauf hin, dass Klimatologen kurzfristig keinen Feedback zu ihren Modellen bekommen können, während Meteorologen permanent ihre Modelle justieren können. Ausnahmsweise bringt er in Bezug auf die Prognoseunsicherheit auch endlich einmal einige konzeptuelle Begriffe ins Spiel. Er unterscheidet Unsicherheiten von Anfangsbedingungen, von Szenarien und strukturelle Unsicherheiten. Letztere beruhen auf einem mangelhaft tiefen Verständnis des Klimasystems und seiner mathematischen Modellierung.

Er weist auf das Spannungsfeld zwischen Wissenschaft und Politik hin. Auf dem einen Feld sind Relativierungen und Unsicherheitsangaben erwünscht – im politischen Kampf zählen Einfachheit und eingängige Parolen.

Ein weiteres Kapitel widmet Silver dem Thema Voraussagbarkeit von Terror. Er geht von der Diskussion zum Überfall auf Pearl Harbor aus, wo es durchaus Indizien für den japanischen Überfall von 1941 gab. Hier verlässt er das Gebiet der eigentlichen Prognostik und müsste eigentlich ausführlich auf die Problematik und Methoden einer Lageanalyse eingehen. Auch die Auseinandersetzung mit 9-11 bleibt unbefriedigend. Auch wenn Silver zurückhaltend bleibt, erweckt er den Eindruck, Indizien hätten mit etwas mehr Professionalität sicher eingeordnet werden können.

So sympathisch Silvers Pragmatismus, so interessant manches Beispiel sein mag: Dem Text fehlt es etwas an Tiefgang.