Memoriav und der Umgang mit Gemeinfreiheit

Der Verein Memoriav  setzt sich aktiv für die nachhaltige Erhaltung und breite Nutzung vom audiovisuellen Kulturgut in der Schweiz ein. Unterdessen gibt es einige audiovisuelle Werke, welche gemeinfrei sind. Im Rahmen der Recherchen zu Re:PublicDomain stossen wir immer wieder auf Werke deren Zugänglichmachung von Memoriav unterstützt wurde. Zum Beispiel die aktuelle Ausstellung zu Arbeit im Landesmuseum oder die Filme von Walter Mittelholzer.

Aus diesem Grund haben wir Memoriav einige Frage zum Thema Gemeinfreiheit gestellt.  Wir haben u.a. gefragt, ob es Richtlinien zum Umgang mit gemeinfreien Werken gibt, ob Restaurierungen und Digitalisierungen von gemeinfreien Werken mit der Zugänglichmachung verknüpft wird und wie verhindert wird, dass keine falschen Urheberrechtsansprüche bei gemeinfreien Werken geltend gemacht werden.

Memoriav war so freundlich und hat uns ein bisschen allgemeiner auf unsere Fragen geantwortet:

Memoriav ist im Bereich der Erhaltung des audiovisuellen Kulturerbes tätig. Einerseits geht es um die (Langzeit-)Erhaltung der audiovisuellen Dokumente (analog und/oder digital) und andererseits um den Zugang zu diesen Dokumenten. Der Grossteil unserer Projekte findet in Gedächtnisinstitutionen statt, die selbst schon einen Auftrag bezüglich Zugänglichkeit haben. Kommen Gesuche von anderen Gesuchsstellern, versuchen wir immer, sofern möglich, eine Verbindung zu einer „öffentlichen Gedächtnisinstitution“ herzustellen, weil wir der Meinung sind, dass dies förderlich ist für die Nachhaltigkeit und den langfristigen Zugang zu den Dokumenten.

Wie Sie wissen, gibt es audiovisuelle Dokumente (z.B. Foto) erst seit dem 19. Jahrhundert. Der überwiegende Teil der Memoriav-Projekte (Ausnahme Fotogafie) bezieht sich aber auf Dokumente des 20. Jahrhunderts. Dies führt dazu, dass es nur wenige Dokumente gibt, für die alle relevanten Rechte (Urheberrechte und verwandte Schutzrechte) erloschen sind und damit „barrierefrei” online zugänglich gemacht werden können. Zudem bestehen an audiovisuellen Dokumenten oft verschiedene Rechte bzw. es handelt sich auch oft um verwaiste Rechte, die nicht einfach abzuklären sind. Bei verwaisten Rechten gibt es ja einen spezifischen Tarif, den Memoriav aber nicht zahlen kann und somit ist der Online-Zugang bei Dokumenten mit verwaisten Rechten auch oft schwierig zu realisieren. In jedem Fall erwarten wir aber einen Online-Zugang der Metadaten. Dies auch um die Dokumente recherchierbar zu machen, beispielsweise für Bildung und Forschung.

Der Bund erwartet von Memoriav nicht, dass die geförderten Projekte zur „Public Domain“ werden, sondern, sie müssen „nur“ öffentlich zugänglich sein („worst case“ in einer Institution vor Ort auf Anmeldung). Im Bereich des Films ist dieser Zugang aufgrund der rechtlichen Situation leider nicht immer online gegegeben, sondern manchmal nur „vor Ort“, beispielsweise in der Cinémathèque suisse.

Alle Projekte, die Memoriav unterstützt sollen innert angemessener Frist öffentlich zugänglich sein bzw. werden. Es versteht sich von selbst, dass wir den möglichst barrierefreien Onlinezugang präferieren, aber wie oben erwähnt ist manchmal nur ein Zugang vor Ort möglich, z.B. falls die rechtliche oder technische Situation das verlangt. Bei einigen Projekten arbeiten wir derzeit an einer umfassenden Zugänglichkeit, die wir bis nächstes Jahr realisieren können, Bsp. alle SRG-Memoriav-Projekte (Metadaten aller Projekte und zudem die Files, falls rechtlich unproblematisch) sowie die Schweizer Filmwochenschauen (Metadaten und Files).

In der Tat ist es aber so, dass Memoriav derzeit sein Know-how im Bereich Urheberrecht etc. auffrischt und sich beispielsweise auch in einer Arbeitsgruppe zur Revision des URG beteiligen wird. Auch im Bereich „Public Domain“ möchten wir unser Know-how auf- bzw. ausbauen, weil dies inskünftig aufgrund ablaufender Fristen für uns sicher relevanter wird.

Da das Thema zunehmen wichtig wird, werden wir weiterhin mit Memoriav den Kontakt suchen und uns mit ihnen Austauschen.

Diskussion 7.11 – “Wann das Urheberrecht abläuft” – BuchBasel

Daniel Boos, Mitglied der Digitalen Allmend, diskutiert mit an der Buch Basel zum Thema Public Domain

Podiumsdiskussion: Wenn das Urheberrecht abläuft

Sa, 07.11.2015 11:00
Ort: GGG Schmiedenhof
AutorInnen: Boos, DanielLandwehr, DominikLandolf, Dani

70 Jahre nach dem Tod eines Urhebers werden dessen Werke zu öffentlichem geistigem Eigentum; sie sind frei und stehen dank Digitalisierung und Internet heute in riesigen Mengen zur Verfügung. Was tun wir mit all diesen Daten? Was bedeutet das für die Zukunft des Buches? Mit Dominik Landwehr (Migros-Kulturprozent; «Public Domain», (Christoph Merian, 2015), Daniel Boos (Digitale Allmend), Dani Landolf (SBVV) und Matthias Zehnder (M). In Kooperation mit SWIPS.

Public Domain Buch – Freie Verfügbarkeit von Werken als Chance

Im Merian Verlag ist ein neues Buch zum Thema Public Domain erschienen. Auch einige Mitglieder der Digitalen Allmend haben Beiträge zum Buch geschrieben:

Was geschieht mit Werken nach Ablauf des Urheberrechts?Cover Public Domain Buch

  • Freie Verfügbarkeit von Werken als Chance und Herausforderung
  • Aus der Reihe ‹Edition Digital Culture›
  • Mit Beiträgen von Leonhard Dobusch, Merete Sanderhoff, Martin Steiger, Wolfgang Ullrich, Mario Purkathofer und Daniel Boos

70 Jahre nach dem Tod eines Urhebers werden dessen Werke zu öffentlichem geistigem Eigentum, sie sind gemeinfrei und gehören somit dem Publikum. Damit sind nicht nur mittelalterliche Texte, sondern auch Bücher und Werke aus dem 20. Jahrhundert frei. Die Digitalisierung hat dem Umgang mit diesen Werken zu einer neuen Dynamik verholfen. Public Domain ist für Museen, Bibliotheken, Archive und Galerien eine Herausforderung, aber auch eine Chance für den ganzen kulturellen Sektor. Im Buch werden die urheberrechtlichen Grundlagen von Public Domain erklärt und die Schwierigkeiten bei der Umsetzung im Alltag der Kulturinstitutionen diskutiert. Breiten Raum nimmt das Thema Remix ein, das in Theorie und Praxis dargestellt wird. Ein ausführliches Glossar ist Teil der Publikation.

Erscheint auch als E-Book und kann beim Verlag bestellt werden.

Informationelle Aufdringlichkeit

Wie ist ein Recht auf informationelle Selbstbestimmung mit Big Data vereinbar? Im Schlussteil ihres Textes betrachten Mayer und Cukier einige Risiken.

Die Autoren weisen darauf hin, dass trotz einer gewissen Unschärfe von Daten viele Informationen unter Big Data auf Individuen zurückverfolgt werden können. Sie gehen trotzdem von einer vorrangigen Berechtigung aus, Informationen zu beliebigen Zwecken zu verwenden und zu verknüpfen. Da wird die Wahrung der Privatheit und der informationellen Selbstbestimmung ziemlich schwierig. Zu den Grundsätzen des Datenschutzes in Westeuropa gehört, dass persönliche Informationen durch Berechtigte und zu umrissenen Zwecken verwendet werden dürfen.

Für derartige Beschränkungen haben die Autoren kein Musikgehör. Sie möchten einen Markt etablieren, auf dem Konzerne und staatliche Institutionen über professionelle Marktmacher Bündel von Daten aufbereiten und handeln – unproblematische und persönliche. Darum wollen sich vom Schutz individueller Rechte weg zu einer reinen Marktregulierung: Der Staat soll den Info-Brokern Branchenregeln vorschreiben, die den Umgang mit den Datenmassen gestalten. Dass es das auch braucht, ist kaum bestritten.

Die individuellen Rechte zu verwässern, erscheint aber einigermassen problematisch. Das gilt vor allem für persönliche Daten, die zwangsweise erhoben werden, etwa im Gesundheitswesen, beim Hotelbesuch oder beim elektronischen Zahlungsverkehr. Nur ein griffiger Datenschutz kann verhindern, dass private Akteure umfassende Profilsammlungen von Individuen aufbauen und vermarkten können.

Stark in den Vordergrund rücken die Autoren das Problem, dass Big Data basierte Profile vorsorglich zu Handlungen Anlass geben können, die Individuen massiv einschränken. Weil sie von einer massiven Verbesserung von Prognosen ausgehen, sehen sie die Versuchung, dass die Gesellschaft wie in Minority Report bereits aufgrund einer Möglichkeit von Taten eingreifen könnte – bevor etwas passiert ist. Die Befürchtungen erscheinen etwas überzogen, was den Prognose-Optimismus angeht. Zudem basiert Handeln bereits heute nicht selten zwingend auf Risikoeinschätzungen und bleibt für die Betroffenen nicht folgenlos. Etwa bei der Risikoabklärung von Wiederholungstätern oder einer Kreditvergabe.

Gar nicht beachtet wird von den Autoren die Problematik der kriminellen Übergriffe durch private und staatliche Akteure. Die Datensammlungen werden mit oder ohne Big Data immer grösser und relevanter. Ein grosser Schub bahnt sich etwa unter dem Stichwort der individualisierten Medizin an.

Man muss die Einschätzungen von Mayer und Cukier nicht teilen. Der Wert des Buches besteht auf jeden Fall darin, Stossrichtung und Diskurselemente der aufstrebenden Big Data Branche deutlich sichtbar zu machen.

Keine Ursache

Im vierten Kapitel ihres Big Data Buchs machen sich Mayer und Cukier daran, ihre zentrale These weiter zu untermauern. Gelingt es ihnen, einen Primat der Korrelation über die Kausalität plausibel zu machen?

Die Autoren konstatieren, dass die Suche nach Korrelationen im Rahmen konventioneller Statistik schon wichtig war – brillieren würden Korrelationen aber mit Big Data. Erkenntnisse liessen sich leichter, schneller und klarer gewinnen als mit konventionellen Analysen.

Diese These stützen sie mit Beispielen. So hat Amazon festgestellt, dass die so gewonnen Kaufempfehlungen den Umsatz steigern. Oder dass ein Logistikunternehmen mit riesigem Wagenpark den Zeitpunkt eines Unterhalts hinausschieben kann, ohne das Risiko eines Ausfalls zu erhöhen. Hier hat sich in der Diskussion die Frage gestellt, ob das überhaupt ein Big Data Konzept erfordert. Das kann insofern zutreffen, als eine Umwidmung von Daten stattfindet, sofern Weg- und Wetterdaten mit ausgewertet werden, die zu andern Zwecken erhoben wurden. Die Verwendung von nicht eigens dafür gesammelten Daten gilt als wichtiges Element von Big Data.

Die Diskussionsrunde ist sich einig, dass es eine Reihe von Fällen gibt, wo Big Data Korrelationen zu nützlichen Erkenntnissen führen, ohne dass die Problematik kausal modelliert oder konsistent verstanden werden kann. Allerdings trifft das eben nicht auf die meisten Problematiken zu, vor denen die Menschheit steht. Die Beispiele im Buch beziehen sich auf eng gefasste Fragestellungen in den Bereichen Marketing, Logistik oder Epidemiologie.

Von den Autoren wird zudem auch ausgeblendet, dass auch in diesen einfachen Fällen ein implizites Kontextwissen und modellartige Vorstellungen vorhanden sein müssen. Stellen wir uns vor, einer Versuchsperson werden mehre Datensets mit präsentiert, welche die Zuverlässigkeit der europäischen Stromversorgung betreffen. Dazu ein gut designtes Big Data Tool. Mit Ziehen und Klicken kann die Versuchsperson Korrelationssuchen konfigurieren und durchführen. Wird diese Person irgend eine sinnvolle Aussage zu Schwachstellen und Risiken treffen können?

Das Problem taucht in anderer Form in einem späteren Kapitel auf, wo das Entstehen einer neuen Branche und neuer Berufe skizziert wird. Beim Datenspezialisten lassen die Autoren offen, ob der nur Wissen über Tools und formale Aspekte haben muss, oder auch Kontextwissen über die bearbeiteten Probleme.

Damit sind wir bei einem weiteren Begründungsstrang, den Methodenfragen. Die Autoren greifen die konventionelle naturwissenschaftliche Methode an. Die besteht darin, ein Problem zu beschreiben und dann Hypothesen zu formulieren, die überprüft werden. So wird heute nicht nur in der Grundlagenforschung vorgegangen, sondern tendenziell auch in der Pharmaforschung und anderswo. Da, wo wirklich relevante Probleme der Menschheit angegangen werden und beispielsweise Krebs- oder Alzheimermedikamente entwickelt werden, deutet nichts auf einen relevanten Beitrag von Big Data hin. Von andern Problemkategorien wie Failed States oder ökologischen Herausforderungen ist im Buch schon gar nicht die Rede.

Der Versuch, eine methodische Überlegenheit von Big Data angesichts der aktuellen wissenschaftlichen Herausforderungen zu postulieren, scheitert. Da hilft es auch nicht, die durchaus interessante These des Psychologen und Nobelpreisträgers Kahnemann heranzuziehen, der eine spontane und auf Muster orientierte von einer langsameren und reflektierenden Strategie des Menschen ausgeht. Big Data findet ja nicht im situativen Umfeld des isolierten Individuums statt, sondern in Institutionen und längeren Projekten.

Trotz seiner Tendenz zum massiven Überdehnen der Grundthese gefällt uns das Buch gut, weil es prägnant auf relevante Entwicklungen hinweist. Ja, es gibt einen Trend zu massiven Datafizierung, zur Erzeugung und Verfügbarmachung von Daten – auch personenbezogenen. Die Autoren machen Führungskräfte eindringlich darauf aufmerksam, dass Daten ein wichtiger werdende Ressource ihres Unternehmens seien, die angemessen bewertet und genutzt werden sollte. Sie skizzieren das Entstehen einer spezialisierten Branche mit neuen Berufsfeldern. Da werden Daten, Tools und Methoden aufbereitet und gehandelt.

Vorerst skizziert der Text Felder, wo Daten nicht in einer personenbezogenen Weise behandelt werden. Im kommenden Kapitel über Risiken wird sich die Position der Autoren weiter klären. In der Diskussion erörtern wir schon mal die Möglichkeit, gegen den Sog des Big Business Kontrolle über persönliche Daten zu gewinnen und diese im Rahmen von Föderationsmodellen kontrolliert zugänglich zu machen.

Big Data

Die Lesegruppe wendet sich der Revolution zu. Zumindest postuliert der Untertitel des Buchs „Big Data“ eine „Revolution That Will Transform How We Live, Work and Think“. Wie weit das plausibel ist, muss sich zeigen.

Mayer und Cukier stellen fest, dass es keine rigorose Definition von Big Data gebe. Sie zeigen vorerst eine erste, quantitative Dimension auf. Die verfügbaren und verarbeitbaren Datenmengen sind massiv gestiegen. Das ruft nach neuen Strategien, um diese Daten so aufzubereiten, dass sie parallel bearbeitet werden können. Dazu dient etwa Googles MapReduce. Das Buch liefert dazu kaum Informationen. Aufgrund der Lektüre war in der Lesegruppe offen, ob MapReduce auf diese Aufbereitung beschränkt ist, oder ob auch eine Aufbereitung nach inhaltlichen Mustern stattfindet.

Die explosionsartige Zunahme der verfügbaren Informationen wird von den Autoren mit ein paar eingängigen Hinweisen untermauert. 2013 sind etwa 1200 Exabytes an Informationen verfügbar gewesen, davon nur noch 2% in analoger Form. Zur Jahrtausendwende waren letztere mit drei Vierteln des Volumens noch dominant. Uns als Hardcore Neugierige würde natürlich interessieren, was hier mit Information gemeint ist. Sind informationstechnische oder semantisch kulturelle Informationen angesprochen?

Mayer und Cukier skizzieren eine Kulturgeschichte der Informationsmengen, wobei sie über die Erfindung des Buchdrucks bis zur antiken Bibliothek von Alexandria zurückgreifen. Das dient dazu, die Kernthese des Textes plausibel zu machen: Die Umwälzung der Kultur durch Big Data. Vorerst bemerken die Autoren, dass sich BD auf Dinge bezieht, die nur basierend auf einer grossen Datenmenge gemacht werden können und nicht auf einer bescheidenen Ebene. Das hat uns in der Diskussion eingeleuchtet.

Dann aber zünden die Autoren eine nächste Stufe und postulieren, BD würde die Art verändern, wie wir mit der Welt interagieren. Die Menschheit müsse dabei „die Obsession für Kausalität zugunsten von einfacher Korrelation“ fahren lassen. Die Herren lehnen sich weit aus dem Fenster: Wenige Jahre, nachdem die Finanzelite mit unverstandenen Modellen die Weltwirtschaft an den Rand des Abgrunds gefahren hat, wird die Devise „Numbercrunching statt Analyse“ ausgegeben. Der Text wird in späteren Kapiteln darauf zurückkommen, wir sind gespannt.

Wo sich der Text konkreteren Problemen zuwendet, fördert er durchaus interessante Sachverhalte an den Tag. So wird die Problematik erläutert, dass sorgfältig gestaltete Datensammlungen, etwa Telefonumfragen, dank dem Zufallsprinzip grosse Zuverlässigkeit erreicht haben. Weil sie aber sehr aufwändig und in manchen Fällen nicht realisierbar sind, gewinnt die Auswertung bereits vorhandener Datensammlungen an Gewicht, auch wenn diese „messy“ respektive ungeordnet sind und zu andern Zwecken erhoben wurden.

Prognosen zu Klima und Terror

Eine letzte Runde hat die Lesegruppe Nate Silver und seiner „Berechnung der Zukunft“ gewidmet. Silver erfindet sich gegen Ende des Buches nicht neu, sondern bleibt auf seinem pragmatischen journalistischen Pfad.

In Kapitel 12 geht er auf die Prognosen zur Klimaveränderung ein. Er ruft in Erinnerung, dass erste Hypothesen schon Ende 19. Jahrhunderts auftauchten. Erst in den 1980er Jahren wurden aber die Temperatursignale vom natürlichen Trend unterscheidbar. Der Autor ist sichtlich bemüht, in der aufgeheizten Diskussion der USA eine abwägende Tonart anzuschlagen.

Er plädiert dafür, Theorien anhand von Prognosen zu überprüfen. „Die Prognosen der Klimatologen trafen gelegentlich ein, gelegentlich aber auch nicht.“ Dann breitet er die Kontroverse zwischen Scott Armstrong und Al Gore aus, die sich über kurzfristige Trends gebalgt haben. Silver ist zu sehr Bestseller Autor, um sich das Showdown Moment dieses Pseudodramas entgehen lassen. Er treibt damit aber die Lesenden auf ein Terrain, das er anderswo als irrelevant taxiert. Einzelne Jahre und kurzfristige Trends haben absolut nichts mit Klimatrends zu tun, die sich auf Jahrhunderte bis Jahrtausende beziehen.

Zurecht weist Silver in Bezug auf den Prognosehorizont darauf hin, dass Klimatologen kurzfristig keinen Feedback zu ihren Modellen bekommen können, während Meteorologen permanent ihre Modelle justieren können. Ausnahmsweise bringt er in Bezug auf die Prognoseunsicherheit auch endlich einmal einige konzeptuelle Begriffe ins Spiel. Er unterscheidet Unsicherheiten von Anfangsbedingungen, von Szenarien und strukturelle Unsicherheiten. Letztere beruhen auf einem mangelhaft tiefen Verständnis des Klimasystems und seiner mathematischen Modellierung.

Er weist auf das Spannungsfeld zwischen Wissenschaft und Politik hin. Auf dem einen Feld sind Relativierungen und Unsicherheitsangaben erwünscht – im politischen Kampf zählen Einfachheit und eingängige Parolen.

Ein weiteres Kapitel widmet Silver dem Thema Voraussagbarkeit von Terror. Er geht von der Diskussion zum Überfall auf Pearl Harbor aus, wo es durchaus Indizien für den japanischen Überfall von 1941 gab. Hier verlässt er das Gebiet der eigentlichen Prognostik und müsste eigentlich ausführlich auf die Problematik und Methoden einer Lageanalyse eingehen. Auch die Auseinandersetzung mit 9-11 bleibt unbefriedigend. Auch wenn Silver zurückhaltend bleibt, erweckt er den Eindruck, Indizien hätten mit etwas mehr Professionalität sicher eingeordnet werden können.

So sympathisch Silvers Pragmatismus, so interessant manches Beispiel sein mag: Dem Text fehlt es etwas an Tiefgang.

Tagungsbericht

Kurzbericht von der 13. Urheberrechtstagung des Schweizer Forums für Kommunikationsrecht vom 28. Mai 2014 in Bern

Am Mittwoch, 28. Mai 2014 hat das Schweizer Forum für Kommunikationsrecht (SF-FS) nach Bern ins Hotel Kreuz zur 13. Urheberrechtstagung mit dem Titel «AGUR12 – und jetzt?» eingeladen.

Martin Steiger und ich haben als Vertreter der Digitalen Gesellschaft bzw. der Digitalen Allmend die Tagung besucht. Martin hat die Tagungsunterlagen als PDF zur Verfügung gestellt. Die Links dazu findet Ihr jeweils passend im Beitrag.

Programm: http://www.martinsteiger.ch/sharing/allmend/20140528_sf-fs_agur12_01_programm.pdf

Teilnehmerliste: http://www.martinsteiger.ch/sharing/allmend/20140528_sf-fs_agur12_02_teilnehmerliste.pdf

Dieser Kurzbericht ergänzt die Tagungsunterlagen und fasst die – aus Sicht des Autors – erwähnenswerten Bemerkungen und Äusserungen der Tagungsreferenten und Podiumsteilnehmer zusammen. Es handelt sich dabei nicht um ein komplettes Bild der Tagung.

Einführung

Prof. Dr. Reto M. Hilty eröffnet die Tagung und stellt im Rahmen seiner Kurzeinführung fest, dass die AGUR12 an der Legalität des Downloads von urheberrechtlich geschütztem Material festhalten will, obwohl der EuGH – allerdings nachdem der AGUR12 Bericht abgegeben wurde – entschieden hat, dass eine solche Rechtssetzung nach EU-Recht nicht zulässig sei. Er ergänzte dazu interessanterweise, dass die Schweiz ja frei sei, im Bezug auf die EU, aber nicht ganz frei sei, im Bezug auf die USA und verweist dabei auf den Runden Tisch mit dem SECO und auf den Umstand, dass die US-Unterhaltungsindustrie immer mal wieder fordert, uns auf die Watchlist der USA zu setzen (siehe z.B. http://www.steigerlegal.ch/2014/05/05/urheberrecht-amerikanisches-lob-fuer-die-schweiz/)

Überblick

Dr. Roland Grossenbacher, Direktor des Instituts für Geistiges Eigentum (IGE), gibt einen Überblick über die Geschichte und den Zweck der AGUR12. Er weist darauf hin, dass die üblichen naturrechtlichen Begründungen für das Urheberrecht zwar als Grundlage für die Autorenrechte, also die Urheberpersönlichkeitsrechte dienen können, darüber hinaus aber wenig geeignet sind, die immer weitergehenden wirschaftlichen Monopolrechte sowie verwandte Schutzrechte und Leistungsschutzrechte zu begründen. Es sollte vielmehr eine stärkere Trennung von Autorenrechten und wettbewerbsrechtlichen Überlegungen stattfinden.

im Zusammenhang mit der AGUR12 Arbeitsgruppe weist er darauf hin, dass dort darüber Einigkeit bestanden hätte, dass illegale Angebote im Internet die Entstehung von legalen Angeboten behinderten. Eine – aus meiner Sicht – wenig belegte Behauptung der Unterhaltungs-Industrie. Im Weiteren betont er, dass die ISPs zwar nicht Teilnehmer der Arbeitsgruppe waren, aber intensiv in die Diskussionen miteinbezogen worden seien. Nicht zuletzt darum sei letztendlich ein Konsens, wenn auch ein äusserst fragiler, über die ausgewählten Vorschläge erreicht worden. Diese Vorschläge seien verhältnismässig und stünden im Einklang mit dem Schutz der Bürgerrechte. Von Schnüffeleien und «Internetpolizei» könne keine Rede sein.

Der Einführungsvortrag von Herrn Dr. Grossenbacher zeigt, dass das IGE zwar ein gewisses Verständnis für die zunehmende Kritik, die den Unterhaltungskonzernen und Rechteverwertern entgegen weht, aufbringen kann – interessanterweise spricht auch er meistens von der US-Filmindustrie und nicht von den USA, wenn es um den Druck auf die Schweiz geht. Gleichzeitig findet aber auch das IGE die Idee eines «sauberen Internets» (sic!)  als erstrebenswert und geht bei den eigenen Überlegungen von der unbelegten Prämisse aus, dass illegale Angebote im Netz die legalen Anbieter derart behindern, dass die von der AGUR12 geforderten Eingriffe gerechtfertigt sind.

Ergänzendes Material zu den beiden Einführungsreden aus den Tagungsunterlagen:

http://www.martinsteiger.ch/sharing/allmend/20140528_sf-fs_agur12_03_einfuehrung_und_ueberblick.pdf

Providerhaftung und Rechtsdurchsetzung

Tagungsunterlagen zu den beiden Vorträgen:

http://www.martinsteiger.ch/sharing/allmend/20140528_sf-fs_agur12_04_providerhaftung_und_rechtsdurchsetzung.pdf

Dr. Emmanuel Meyer (IGE) hat anhand einer Grafik die verschiedenen repressiven Massnahmen, die die AGUR12 fordert, vorgestellt (siehe Tagungsunterlagen). Diese Grafik werden wir in einem separaten Post noch genauer erläutern. Im Wesentlichen wurden die bekannten Standpunkte der AGUR12 wiederholt. Interessant war allerdings die, auch im späteren Verlauf der Tagung, mehrfach wiederholte Aussage, dass es sich bei vorgeschlagenen Massnahmen vor allem um Massnahmen gegen schwerwiegende Fälle handelt, und diese nicht mehr als eine Handvoll Einzelfälle betreffen soll. Nun, wenn es wirklich nur diese 5 Einzelfälle sind, die den AGUR12-Mitgliedern Probleme bereiten, ist dann wirklich noch die Verhältnismässigkeitt bewahrt, oder wird da nicht mit Kanonen auf Spatzen geschossen?

Bei der anschliessenden Panel-Diskussion betont Lorenz Haas (IFPI), dass er zufrieden sei mit der Einführung und dem Schlussbericht, was natürlich Bände spricht. Weiterhin erklärt er einmal mehr, dass es nicht um die US-Unterhaltungsindustrie, sondern um die Schweizer Kulturschaffenden ginge, darum habe sich auch der Verein Musikschaffende formiert. Auch diese Aussage ist zu relativieren, da die Schweizer Kulturschaffenden bis heute keine Zahlen vorlegen, die zeigen, wieviel Geld ihnen durch sogenannten illegale Quellen verloren geht. Diese Zahl wäre wichtig um die Verhältnismässigkeit der geforderten Massnahmen besser beurteilen und ggf. alternative Vorschläge entwickeln zu können.

Dr. Dominik Rubli (Sunrise) erklärt, dass durch die AGUR12-Vorschläge die Provider die Rolle der Privatpolizei der Rechteinhaber übernehmen sollen und dass aus seiner Sicht, die Diskussion im Bezug auf die Verhältnismässigkeit in der AGUR12 zu wenig geführt wurde. Der Fragen, ob diese Massnahmen wirklich nötig seien und ob es nicht auch andere Möglichkeiten gäbe, um der paar wenigen schwerwiegenden Fälle Herr zu werden, wurde zu wenig Beachtung geschenkt.

Daniel Schönberger (Google) stellt fest, dass es ein Faktum sei, dass heute mehr Kultur produziert werde denn je. Anbieter wie Google und andere Provider haben neue Absatzmärkte geschaffen und Karrieren ermöglicht, die es vorher nicht gab. Es sei schon immer die beste Strategie gewesen, mit kundenfreundlichen legalen Angeboten den illegalen die Stirn zu bieten.

Kollektive Verwertung

Tagungsunterlagen zu diesem Teil der Veranstaltung:

http://www.martinsteiger.ch/sharing/allmend/20140528_sf-fs_agur12_05_kollektive_verwertung.pdf

Dr. Emanuel Meyer erklärt in seiner Einführung, dass die Verwertungsgesellschaften gestärkt aus der AGUR12 getreten seien. Ihre Arbeit werde von niemandem in Frage gestellt, im Gegenteil man gehe eher davon aus, dass ihre Rolle in Zukunft noch wichtiger werde. Es sei zwar der Tarifdschungel kritisiert worden und man habe auch vor in diesem Bereich nach besseren Lösungen zu suchen, man dürfe aber nicht vergessen, dass die verschiedenen Tarife auch Ausdruck verschiedener Wünsche und Geschäftsmodelle der Nutzer seien. Das Tarifgenehmigungsverfahren dauere zwar zu lange, da sei man sich einig, aber eine Lösung sei bisher nicht in Sicht.

Carlo Govoni ist in seiner anschliessenden kritischen Beleuchtung zum Schluss gekommen, dass die AGUR12 ihr Mandat in diesem Bereich nicht erfüllt habe und dass die vorgeschlagenen Massnahmen einen Tropfen auf den heissen Stein darstellten.

Im anschliessenden Podium hat Andreas Wegelin (SUISA) betont, dass die Transparenzvorschriften der EU von den Schweizer Verwertungsgesellschaften bereits weitgehend erfüllt seien.

Dr. David Aschmann (Bundesverwaltungsgericht) hat in seinem Votum erläutert, dass die AGUR12 recht habe, mit ihrer Analyse der Eigenössischen (ESchK) Schiedskommission, dass sich aber wohl nichts ändern werde, solange die ESchK nicht bereit sei, sich als Gericht zu verstehen und Reglemente zu erlassen. Aus seiner Sicht, sollten die Verwertungsgesellschaften die Tarife selbständiger erlassen können und sich dabei an einen Rahmen bzw. Tarifplan halten, der von der ESchK vorgegeben wird. Dafür sollten die Tarife nicht mehr abstrakt wie Gesetze daher kommen, die nachher kaum umgesetzt werden könnten.

Schrankenregelung

Tagungsunterlagen zu diesem Teil der Veranstaltung:

http://www.martinsteiger.ch/sharing/allmend/20140528_sf-fs_agur12_06_schrankenregelung.pdf

Dr. Emanuel Meyer erwähnt in seiner Einführung, dass in der AGUR12 unter anderem über das vorgeschlagene Verzeichnisprivileg, das Problem der Doppelvergütung durch die Leerträgerabgabe, die Social Media-Schranke und die Umgehung der Urheberrechtsschranken durch technische Massnahmen gesprochen wurde. Als Beispiel für eine typische Urheberrechtsverletzung bei Facebook nennt Meyer das Hochladen eines eigenen Fotos von einer temporären Kunstinstallation.

Prof. Dr. Cyrill P. Rigamonti sieht in einer kritischen Betrachtung keine Notwendigkeit für das Verzeichnisprivileg und stellt in Frage, dass es derzeit tatsächlich wesentliche Fälle gibt, in welchen Schranken des Urheberrechts durch technische Massnahmen umgangen werden. Ich habe auch den Eindruck, dass das Verzeichnisprivileg, so wie es von der AGUR12 vorgeschlagen wurde, viel zu eng formuliert ist und dass es in Zukunft entgegen allen Beteuerung dazu benutzt werden wird, zusätzliche Einnahmen zu generieren.

Im folgenden Podium weist Dr. Christian Laux darauf hin, dass das Urheberrecht bzw. die geistigen Eigentumsrechte ihre Berechtigung vor allem darin haben, dass sie zur Förderung von Innovation beitragen sollen. Eine Social Media-Schranke, wie sie im AGUR12 Bericht vorgeschlagen wird, würde eher zum simplen Kopieren, denn zum Innovieren Anreize schaffen und sei aus seiner Sicht darum eher nicht zu unterstützen. Er würde darum für eine Art Bearbeitungsrecht plädieren, welches immer dann zum Tragen käme, wenn damit Innovation erkennbar würde. Diese Innovation muss nicht nur auf der Werkebene stattfinden, sondern kann auch auf Prozessebene vorliegen.

Dr. Kai-Peter Uhlig (Rechtsanwalt der Filmindustrie) steht neuen Schranken im Urheberrechr grundsätzlich skeptisch gegenüber und ist der Meinung, dass Schranken das Potential haben, Märkte zu verhindern, die allfällige Probleme besser lösen würden und dass diese Schranken oft neue Nutzniesser schaffen, die sich monetäre Vorteile verschaffen können.

Dr. Werner Stauffacher (ProLitteris) bezeichnet das Verzeichnisprivileg als «nice to have«, da es nicht dafür sorgt, dass Geld zum Urheber fliesst. Er ist der Meinung, dass man Schranken einrichten soll, die auch eine Verwertung vorsehen. Die Social Media-Schranke wäre eine solche, da sie mit einer zwingenden Kollektivvertwertung verbunden wäre. Ein hochgeladenes Bild auf Facebook würde dadurch dem Künstler zu seiner berechtigten angemessen Vergütung verhelfen.  Auf die Ideen von Christian Laux eingehend macht er klar, dass er das Urheberpersonenrecht auf keinen Fall aufgeweicht sehen möchte. Es zeigt sich, dass die so harmlos klingende Social Media-Schranke eigentlich eine Art «Internet-Steuer» darstellt. Auch Dr. Grossenbacher weisst darauf hin, dass eine solche wohl schwierig zu vermitteln wäre. (http://www.steigerlegal.ch/2013/12/06/agur12-empfiehlt-pruefung-von-internet-steuer/)

Abschluss

Abschliessend erwähnt Dr. Roland Grossenbacher zum wiederholten Male, dass es richtig sei, dass die AGUR12 nur kleine Brötchen gebacken habe, dass aber mehr in der relativ kurzen Zeit, die zur Verfügung stand, auch nicht möglich gewesen sei. Eine vertiefte Reflexion der verschiedenen Fragestellungen rund um das Internet im digitalen Zeitalter brauche Jahre, wenn nicht Jahrzehnte. Diese Diskussionen fänden in der Wissenschaft bereits statt und werden bestimmt früher oder später auch in den politischen Diskurs einfliessen. Aus meiner Sicht dürfen wir die vorgeschlagenen Massnahmen der AGUR12 nicht verniedlichen. Es handelt sich da keineswegs nur um kleine Brötchen, die da gebacken wurden. Die repressiven Massnahmen sind gravierend. Der Bundesrat hat sich am 2. Juni 2014 nun das erste Mal zum AGUR12 Bericht geäussert. Er spricht unter anderem von einem «zivilrechtlichen Instrument» und meint damit das im Bericht vorgeschlagene Two-Strikes-Verfahren und damit die Aushebelung des Fernmeldegeheimnisses zugunsten der Unterhaltungsindustrie. (Siehe dazu auch: http://www.steigerlegal.ch/2014/06/02/urheberrecht-im-internet-wie-weiter-nach-der-agur12/)

Andreas Von Gunten, 3. Juni 2014

// Crosspost mit Digitale Gesellschaft

Prognosen-Elend

Weitere zwei Abende hat sich die Lesegruppe der Digitalen Allmend mit Nate Silver beschäftigt und der sich mit der „Berechnung der Zukunft“.

Zu den Stärken von Silver gehört sein journalistisches Vorgehen. Wo er nicht auf eigene Erfahrung zurückgreifen kann, spricht er mit Experten und benennt diese Quellen. Ein Beispiel ist Jan Hatzius, Chefökonom von Goldmann Sachs. Silver ist von dessen Prognoseleistungen und einer nüchternen Haltung beeindruckt. Hatzius hält es für anhaltend schwierig, den Konjunkturzyklus zu prognostizieren, auch wenn in den USA 45‘000 Indikatoren zur Verfügung stehen.

Die Identifikation von Ursache und Wirkung bereitet Probleme. Kritisch merkt Silver an, dass manche Ökonomen einfach eine Handvoll Indikatoren in den Mixer werfen und das Resultat als Haute Cuisine verkaufen würden. Nicht alles, was etwa mit Rezessionen in den USA korreliert, muss einen ursächlichen Zusammenhang haben. Etwas unglücklich illustriert Silver die Möglichkeit nichtkausaler Korrelation mit Glacéverkäufen und Waldbränden. Tatsächlich verursacht der Glacékauf keinen Waldbrand. Trotzdem sind beide insofern kausal verknüpft, als es eine gemeinsame steuernde Grösse gibt, die Lufttemperatur. Echte nichtkausale Korrelationen lagen zeitweise etwa zwischen der National Football League und der Börsenentwicklung vor.

Mit Hatzius sieht Silver in der ständigen Veränderung der Wirtschaft eine zweite Ursache für die Prognoseproblematik. Eine Kausalität und der entsprechende Aspekt eines Modells mögen eine Zeitlang hinreichend stabil sein, um als Baustein einer Prognose zu dienen. Irgendwann ändert sich die Konstellation so stark, dass Kausalität und Korrelation unscharf werden oder wegfallen.

Beide Problemkreise – Zufallskorrelation und Strukturwandel – würden eigentlich den Schluss nahelegen, dass ein Verstehen des Systems respektive eine qualitative Analyse nötig wären, um die Qualität und Reichweite von Parametern wie Modellen klären zu können. Das ist aber nicht Silvers Ding.

Er nimmt aber eine wohltuend nüchterne Haltung und identifiziert mit Hatzius einen dritten Grund für die Unzuverlässigkeit von Konjunkturprognosen: Die zur Verfügung stehenden Daten „sind auch nicht besser“ als die Prognosen selbst (S. 229). Als Beispiel nennt er den Indikator des Konsumentenvertrauens. Da rückt er das Element in den Vordergrund, dass Konsumenten möglicherweise als letzte merken, wenn etwas schief zu laufen beginnt.

In weiteren Kapiteln geht der Autor dann auf Schach und Poker ein, wobei er genüsslich ein das Thema Mensch gegen Maschine in Form eines Showdowns inszeniert: Kasparow versus BigBlue. Neu ist das nicht. Er bringt aber weiteres interessantes Material und bleibt auch hier lesenswert.