Unter Kontrolle?

Inmitten des spektakulären Aufschwungs, den das Internet nach 1995 nahm, hat Andrew Shapiro die Möglichkeiten der neuen Technologien ausgelotet. Mit der These einer „control revolution“ betont er den Spielraum für eine Ermächtigung der Individuen. Die Lesegruppe der Digitalen Allmend hat den Text am 14.3. diskutiert.

Shapiros Statement ist von den Umständen Ende 90er Jahre geprägt. Er profitiert davon, dass die Wellen von medialen Moden noch nicht im Jahrestakt über den Globus schwappen. Weil er sich auf grössere Trends konzentriert, altert sein Buch erheblich besser als manche jüngere Texte zu Blogs oder Second Life, die nach wenigen Jahren bereits ziemlich antiquiert wirken.

Shapiro beginnt mit einer Episode aus der Schlussphase der Sowjetunion, wo das Regime die Faxverbindung von einem Freund in Moskau zum amerikanischen Autor einfach kappen konnte. Einen e-Mail Nachrichtenfluss hätten die Behörden nicht stoppen können. „Wahrscheinlich“ nicht, präzisiert der Autor, der sich immer wieder vor groben Vereinfachungen hütet. An diesem Punkt setzt eine Diskussion ein, wie weit eben auch das Internet von Machthabern nicht einfach nur weggeschaltet, sondern auch selektiv überwacht und beschränkt werden kann, wie etwa in China. Eher einfach ist das beim grenzüberschreitenden Verkehr und bei einer geringen Zahl von Providern möglich.

Etwas unbeholfen wirken die kurzen Äusserungen zum politischen Charakter von Technologie, welche durch Randbedingungen in die eine oder andere Richtung entfaltet werden könne. Shapiro sieht das Netz als „defined mostly by code“. Darum diskutiert er Eigenschaften wie Interaktivität oder Interoperabilität hauptsächlich auf technischer Ebene, als Codeeigenschaften eben. Damit verpasst Shapiro einen zentralen Aspekt der digitalen Infrastruktur: Diese ist extrem plastisch und definiert keine medialen Kanäle. Die konkreten Medien werden auf einer sozialen Ebene konstruiert. Blogs, Second Live, Twitter, Facebook sind mediale Formen, die auf den immer gleichen Technologien beruhen. Die Ende 90er Jahre angesagte Gleichsetzung von technischer Kontrolle (über den Code, das Betriebssystem) mit Kontrolle über seine Lebensumstände ist verblasst.

Der Autor selber präzisiert den Aspekt der „Bändigung der Maschine“ mit dem Aufkommen grafischer Userinterfaces. So erschien der MacIntosh gegenüber den kalten und verwirrenden Kommandozeilen-Betriebssystem als „menschlich, warm und liebenswert“. Er bringt das Konzept einer direkten Manipulation von Gegenständen auf dem grafischen Interface als Beweis für Kontrollgewinn. Da wäre zu unterscheiden. Wenn der User arbeitend oder spielend grafische Objekte manipuliert, kontrolliert er Elemente auf einem von Dritten inszenierten Spielplatz. Den Spielplatz kontrolliert er nicht.

Seiner Zeit voraus war Shapiro mit der These, dass die Postulierung eines Cyberpace als eigenständiger Sphäre wenig realitätsnah und sinnvoll ist. Symbolische Interaktionen auf dem Internet seien nicht entkoppelt von Auswirkungen auf reale Menschen und ihre Beziehungen.

Kontrollgewinn sieht Shapiro im Bereich von Medien und Kommunikation. Er bringt das Beispiel einer Bulletin-Board Kampagne, welche das Time Magazine zum Rückzug falscher Behauptungen über die Pornolastigkeit des Internets gezwungen hat. Das Internet senkt massive die ökonomischen Eintrittsschwellen für „digitale Autoren“. Shapiro hält sich zu euphorischen Position Distanz, sieht aber durchaus online Publizistik als Gegengewicht zu den stark konzentrierten Massenmedien: Individuen würden „more control over the flow of information“ ausüben.

Ein zentrales Konzept ist für den Autor die Tendenz zum Verschwinden von Intermediären. Darunter fällt bei der Meinungsbildung ein Glaubwürdigkeitsverlust von Institutionen wie Medien, Unis oder Behörden. Vorsichtig tönt Shapiro die Möglichkeit von Dezentralisierung und elektronischer Demokratie an. In der Diskussion konstatieren wir allerdings, dass eine Tendenz zu Dezentralisierung und politischer Ermächtigung der BürgerInnen nach fünfzehn Jahren Web in den entwickelten Ländern kaum festgestellt werden kann. Im Gegenteil: In Europa wurden in der Zwischenzeit permanent Kompetenzen hin zu einem für die Zivilgesellschaft wenig kontrollierbaren Zentrum verlagert.

Der Autor greift grundlegende Fragen in einer Weise auf, die auch zehn Jahre nach der Publikation noch interessant ist. Wie weit das Hantieren mit digital unterlegten Medien und Kommunikationsmitteln auch mit einer Ermächtigung der Individuen gleichzusetzen ist, bleibt weiter zu diskutieren. Genauso wie der Begriff der Kontrolle, der in verschiedenen Kontexten Unterschiedliches bezeichnen kann.

An einer Stelle vergleicht der Autor die Ermächtigung durch die vernetzten Rechner mit der Ermächtigung durch das Auto. Das ist für den amerikanischen Kontext nicht ganz unwichtig. Gerade in der kulturellen Tradition der USA ist Kontrolle mit zwiespältigen Elementen Verknüpft. Es gibt nicht nur eine urban adrette Lesart von Ermächtigung. Wir sehen ja auch eine Gun, Car und Einfamilienhaus Version, die etwa mit der Tea Party Bewegung auf dem Web erfolgreich ihre Vorstellungen von Kontrollgewinn propagiert.

Andrew L. Shapiro. The control revolution : how the Internet is putting individuals in charge and changing the world we know. New York : PublicAffairs, 1999.

Lektüren zur Medienentwicklung

Die Lesegruppe der Digitalen Allmend hat sich mit zwei weiteren Texten zu Aspekten des medialen Strukturwandels beschäftigt:

Dünne Verteidigung der Medien
Wenn Pietro Supino, Verleger der Tamedia AG und Vizepräsident des Verbands Schweizer Presse, sich in einem Artikel zur Qualität der Presse äusssert (1), braucht man sich nicht weiter zu wundern, wenn er sie verteidigt – etwa gegen den Bericht der Forschergruppe um Kurt Imhof, den die Lesegruppe bereits besprochen hat.

Seine Hauptargumente sind einerseits die prinzipielle Nichtexistenz von überzeitlichen Qualitätsmerkmalen (die also auch nicht einzufordern seien) und andererseits ein veränderter Mediengebrauch, der bestens ohne eigentliche Leitmedien als alleinige Foren für die öffentliche Meinungsbildung auskomme. Da Supino die Quantität des Angebots an Informationen aber mit dessen Qualität relativ sorglos gleichsetzt, bleibt die Replik insgesamt ein bisschen dünn.

Unterhaltsame geschichtliche Entwicklung des Fernsehens
Das Buch von Asa Briggs und Peter Burke (2) vermittelt einen Überblick über die Geschichte neuerer Kommunikationsmedien und ihrer sozialen und kulturellen Einbettung. Wir haben den Abschnitt über das Zeitalter des Fernsehens gelesen. In angelsächsischer, sehr angenehm zu lesender Schreibtradition werden das Aufkommen, Entwicklungen, nationale Differenzen, markante Ereignisse in einzelnen Ländern und schliesslich die kontinuierliche Ausbreitung des TV-Einflusses über alle Länder der Erde nachgezeichnet. Der Kommentar- und Forschungsteil macht mit verschiedenen theoretischen Positionen und empirischen Daten vertraut.
Nach dem, was wir gelesen haben, ein sehr empfehlenswertes Buch, um im Zeitalter der schnellen Medien-Entwicklungen ein Verständnis für Entwicklungen der Mediengeschichte zu erhalten.

1) http://www.tagesanzeiger.ch/schweiz/standard/Die-Qualitaet-unserer-Presse/story/28385132

2) Asa Briggs and Peter Burke : A social history of the media : from Gutenberg to the Internet. (3rd ed.) Cambridge, 2009.

Big (Media) Science mit Lücken

Der kritische Kommentar zum Beitrag über die Qualitätsstudie weist durchaus auf einen wunden Punkt hin, der vielleicht weniger die Imhof-Studie, wohl aber die Kommunikationswissenschaften generell betrifft: Die digitale Medienszene wird weitgehend im Kontext traditioneller Medien analysiert. Neue kommunikative und mediale Formen werden eher oberflächlich gestreift, der Medienbegriff bleibt wenig konturiert. Die entsprechenden Phänomene werden an das Spezialgebiet „New Media“ ausgelagert.

Wir wollen einige Schwächen und Stärken des Mainstream-Ansatzes anhand eines Grundlagenwerks aus den USA ansehen. „Understanding Media in the Digital Age” (1). Es richtet sich an StudentInnen und anspruchsvolle Interessente aus Publizistik und Werbewirtschaft.

Einleitend werden unverzichtbare Basics zu Kommunikation diskutiert: Kommunikation, Sprache, Kultur, Symbole. Ein Grundmodell menschlicher Kommunikation bezieht sich auf die Kette von Shannon-Weaver: Quelle – Sender – Signal – Empfänger – Ziel, beeinflusst durch Störungen. Dieses lineare Modell wird heute als allzu vereinfachend eingeschätzt. Die Autoren bringen weitere Elemente ein: Erfolgreiche Kommunikation basiert auf Elementen wie Genauigkeit, Feedback und Rollenverhalten. Da wird eine Menge Relevantes auf 19 Seiten gepackt.

Was ist ein Massenmedium?

Der Text nennt eine Reihe von Kriterien, welche Massenmedien kennzeichnen: 1. Professionelle Kommunikatoren als Sender  2. Gewünschte Bedeutungen werden von Produktionsspezialisten codiert  3. Als Information via spezialisierte Medien übermittelt  4. Grosse diversifizierte Massenpublika als Empfänger  5. Individuelle Empfänger konstruieren eine Interpretation der Nachricht  6. Empfänger werden beeinflusst. Der Text nennt drei Typen von Massenmedien: Publikationen (so Bücher, Magazine, Zeitungen) Film (vor allem kommerzielle Produktionen) und Elektronische Medien (vor allem Radio und TV, aber auch DVD).

Das sind wertvolle Elemente, das Problem liegt eher beim Ausgelassenen. Neben den herkömmlichen Massenmedien werden keine anderen Medientypen in vergleichbarer Tiefe entwickelt. Es werden keine Tools bereitgestellt, um etwa soziale Netzwerke oder Blogs zu analysieren und allenfalls in verschieden Segmente gliedern zu können. Letzteres ist vermutlich sinnvoll, um eine breit gefächerte Realität vertieft analysieren zu können. Letztlich bleibt darum der Medienbegriff vage, sobald die Welt der grossen Massenmedien verlassen wird.

Aufstieg des Digitalen

Die Forschungscommunity ist seit 1996 gewarnt: „If mass communication researchers continue to largely disregard the research potential of the Internet, their theories of communication will become less useful. Not only will the discipline be left behind, it will also miss an opportunity to explore and rethink answers to some of the central questions of mass communication research, questions that go to the heart of the model of source–message–receiver with which the field has struggled.” (Morris/Ogan).

Die Warnung wird im vorliegenden Band ernst genommen – mit Kapitel 2: Navigating Change – The Rise of Digital an Global Media. Die Geschichte des Internet wird kurz rekapituliert. Die Autoren stellen fest, das digtiale Zeitalter sei „radically different“ vom bisher gekannten. Es gelingt ihnen aber nur in Ansätzen, diese Radikalität zu fassen und zu vertiefen.

Gerne weisen wir auf die beiden interessanten und leider nur kurz angesprochenen Ansätze hin. Es geht um die Begriffe persönliche Medien und intermediäre Kommunikation: Neben Massenmedien gibt es Kommunikationsformen, die in neuer Weise hin zu Individuen adressierbar und von diesen verwendbar sind. Smartphones und Sharingmechanismen sind Beispiele von persönlichen Medien. YouTube ist vorerst ein persönliches Medien, das aber Züge eines Massenmediums annimmt. Auf einer mittleren Ebene können interessierte Personen via intermediäre Kommunikation untereinander in Kontakt treten.

Der Text bleibt leider ziemlich verschwommen. Klarheit herrscht oben, beim Thema klassische Massenmedien, und an der Basis, bei persönlicher Kommunikation. Dazwischen bleibt es wolkig. Vermutlich wird hier ein langfristiger Mangel fortgeschrieben: Die ganze Welt zivilgesellschaftlicher Bewegung und nichtkommerzieller Aktivitäten hat die Medienwissenschaft traditionell kaum interessiert, obwohl hier bereits vor dem digitalen Zeitalter reges Treiben herrschte – vom Pfadiblatt bis zu Mark Morrisroes „Dirt“.

Die Klassiker

In einem späteren Kapitel zur Medienökonomie wird knapp konstatiert, dass die Verlagerung zu digitalen Publikationen das Geschäftsmodell mancher Massenmedien unterminiert und es werden die üblichen Vorschläge aufgelistet, wie dem begegnet werden könnte, etwa mit Stiftungen zugunsten publizistischer Projekte oder Subventionen.

Nach dem ziemlich dünnen Teil über die Digitalisierung schöpfen die Autoren wieder aus dem Vollen. Die klassischen Medien werden ausführlich besprochen, wobei die Autoren besonders dem gedruckten Magazin und dem TV eine vitale Zukunft voraussagen. Themen wie Populärkultur, Marketing, Medienpublikum, Medienwirkungen und Regulierungen werden erörtert.

Da werden Know How Ressourcen sichtbar, die auch bei der Diskussion digitaler und subkultureller Medien nicht ignoriert werden können: Ein Begriff des Politischen und Öffentlichen, Identifikation grosser relevanter Player und eine Top Down Karte, die grossräumige Orientierung erlaubt.

Schwachpunkt im Mainstreamdiskurs der publizistischen Wissenschaft ist die Analyse des digitalen Wandels. In einzelnen Zonen wird aber lebhaft geforscht und publiziert: Im schon genannten Segment der New Media, bei der Nutzungsforschung und zu den online-Standbeinen der traditionellen Medien.

(1) Everette E. Dennis, Melvin L. DeFleur. Understanding Media in the Digital Age. New York : Allyn & Bacon. 2010.

Medien im Qualitätstest

Wie entwickelt sich die Qualität der Schweizer Medien im Zeitalter von Gratiszeitungen und Internet? Dieser Frage geht ein Jahrbuch nach, welches ein Team um Professor Kurt Imhof an der Universität Zürich publiziert hat. Lesegruppe der Digitalen Allmend hat sich mit dem Kapitel über online-Medien beschäftigt. Untersucht wird der Web-Auftritt etablierter Printmedien.

Dreh- und Angelpunkt der Untersuchung bilden vier Qualitätskriterien, die aus einer aufklärerischen Konzeption von Öffentlichkeit und Politik begründet werden:

Vielfalt folgt aus dem Universalitätsanspruch öffentlicher Kommunikation, in der keine Meinung ausgeschlossen sein soll. Das Jahrbuch kritisiert die im online Bereich vorherrschende Boulevardisierung, welche für die Gesellschaft wichtige Ressorts wie Politik oder Wirtschaft an den Rand drängt. Wenn sie behandelt werden, dann in einer emotionalisierenden und personalisierenden Weise.

Relevanz meint gesellschaftliche respektive politische Bedeutung – das Allgemeine, was alle angeht, hat Vorrang. Auch bei diesem Kriterium monieren die AutorInnen, dass „die Onlineinformationsangebote deutlich stärker zu einer personalisierenden und privatisierenden Berichterstattungslogik als die Presseausgaben“ tendieren. Die Webauftritte der Abonnementszeitungen „fokussieren stärker als ihre Printausgaben auf Sport- und Human Interest-Themen“.

Aktualität wird als Kriterium neben der zeitlichen mit einer qualitativen Dimension ausgestattet, was bei uns zu kritischen Kommentaren geführt hat. Die Autoren fassen Aktualität so, dass Medien auch „auch Kontext- und Hintergrundinformation bereitstellen“ sollen. Sie konstatieren in der Folge eine Vorliebe für „episodische Weltbeschreibungen zulasten der reflexiven Einbettung“. Als Ursachen werden Deprofessionalisierung und Ressourcenmangel genannt.

Professionalität wird gefasst als Streben nach Objektivität im Rahmen einer journalistischen Berufskultur. Als entsprechende Normen werden Transparenz, Faktentreue, thematische Kompetenz und Sachlichkeit genannt. Die Studie konstatiert kritisch die vorherrschende Rezyklierung von Agenturmeldungen und Material aus andern Bereichen des Medienkonzerns.

Kritisch haben wir in der Lesegruppe den Objektivitätsbegriff diskutiert, der als absolutes Kriterium nicht fassbar ist. Heruntergebrochen auf konkretere Kriterien wie Faktentreue oder Fachkompetenz entschärft sich das Problem ein Stück weit.

Weiter wurden die zahlreichen Überlappungen im Text bedauert. Zudem macht der Text einen etwas eingleisigen Eindruck, als ob die Tiefqualitätsthese schon vor der Untersuchung festgestanden hätte. Allerdings haben die AutorInnen durchaus auf Material gebaut. Für den online Teil wurden etwa 2000 Samples analysiert. Im Text fehlt allerdings die Herleitung und die Befunde werden etwas hölzern präsentiert. Interessierte LeserInnen folgen fürs Erste besser den guten Fazit-Einschüben, als sich den ganzen Text zu Gemüte zu führen. Empfehlenswert ist ein Gespräch mit Kurt Imhof als DRS2 Download, in dem er das Kriterienset begründet und die wichtigsten Ergebnisse der Studie vorstellt.

Fazit: Die Studie untersucht einen wichtigen Teilaspekt des medialen Strukturwandels anhand von nachvollziehbaren Kriterien und Methoden, aufbauend auf erhobenen Daten. Das bringt ein Gegengewicht zur Masse von Beiträgen, die in Form flauschigen Impressionen daherkommen.

Wozu noch Zeitungen?

Die Lesegruppe hat sich in Interviews aus dem Buch mit dem gleichnamigen Titel (1) vertieft, das den Zusammenbruch des klassischen Geschäftsmodells journalistischer Arbeit in den USA abbildet. Durch die Mittel des Internets ermächtigt verstehen sich interaktive Nutzer zunehmend selber als Schleusenwärter des Nachrichtenflusses und sehen keine Notwendigkeit mehr einer Entgeltung für die Informationsaufbereitung. Zudem führt die Dynamisierung von Nachrichtenzyklen dazu, dass News, kaum gedruckt, auch schon veraltet sind. Wo also Abo- und Verkaufserlöse ausschliesslich am gedruckten Papier hängen, wird es prekär.

Die Anlage des Buches mit ausführlichen Interviews macht deutlich, dass hier keine Statistiken oder absoluten Aussagen zu erwarten sind, sondern Erfahrungen und Einschätzungen von einzelnen Exponenten (darunter namhafte Medienexperten wie Eric Alterman, Jay Rosen, Stephen B. Shepard u.a.), die Einblicke in sehr unterschiedliche journalistische Zugangsweisen und Geschäftsmodelle geben. Sehr anregend zu lesen.

Zwei Interviews als Beispiele:
Mark Fisher ist seit über 20 Jahren Redakteur der Washington Post – mehrfach ausgezeichneter Journalist, Kolumnist, Blogger und Buchautor – und bewertet die dialogischen und partizipatorischen Möglichkeiten der neuen Technologien grundsätzlich als positiv. Insbesondere erwähnt er die Chance der Beschaffung von Daten und Materialien über die Masse der Leser (Crowd-Sourcing), die den Aufbau von aktuellen Datenbeständen erlaube, wie es herkömmlich nicht möglich wäre. Das Ausmass der Beteiligung als Reaktion auf Blogbeiträge bewertet er dagegen als eher gering: Nur wenige Reizthemen würden viele Kommentare provozieren und weniger als fünf Prozent der Leser eines Blogs überhaupt je einen Beitrag schreiben.

Interessant ist die Frage, ob und wie Leserkommentare in die Berichterstattung eingebunden werden. Fisher beurteilt das durchaus positiv, selbst wenn vielleicht das Riskio bestehe, dass die Inhalte drohen, weniger glaubwürdig zu erscheinen, wenn unter seriösen Nachrichtenbeiträgen Verunglimpfungen auftauchen.

Ein kritisches Argument zieht sich allerdings durch seine Äusserungen durch: nur die bereits gut informierten und gebildeten Nutzer könnten die neuen Medienstrukturen positiv nutzen, die breite Masse der Menschen dagegen wäre damit überfordert und würde sich tendenziell von einigermassen informierten zu völlig uninformierten Bürgern entwickeln. Damit aber wären die Probleme des Journalismus in Wirklichkeit zunehmend solche für die Demokratie: wenn nämlich Massenmedien, die helfen können, Politik und Weltläufe zu verstehen, als gemeinsame Basis für die Meinungsbildung wegfallen. Dennoch schliesst er für die USA eine finanzielle Beteiligung des Staates aus Gründen der Gewaltentrennung kategorisch aus.

Eine leicht andere Tonart schlägt Arianna Huffington, Co-Gründerin und Chefredakteurin der nach ihr benannten Huffington Post an. Sie gibt etwa an, dass Nebenwirkungen der Medienrevolution dem geschriebenen Wort zu einer eigentlichen Renaissance verholfen hätten.

Als Ursache für die Unzufriedenheit mit dem traditionellen Journalismus nennt sie eine Vernachlässigung seiner «Watchdog-Funktion»  und spricht von einer zu grossen Nähe zur Macht: Im Vorfeld und während des Irakkriegs etwa wären die traditionellen Medien ihrer Aufgabe nicht nachgekommen, die politisch Mächtigen zur Verantwortung zu ziehen. Von den neuen Medien verspricht sie sich mehr Transparenz und hofft auf den «Bürgerjournalismus», eine Art Kurzformel für eine Sammlung von Methoden, die sich die Kraft von Online-Gemeinschaften, ihr Wissen, ihre Informationen und Zugänge zunutze machen.

Die Konvergenz von alten und neuen Medien zeigt sich in der Huffington Post wie folgt: die linksliberale Online Zeitung ist eine Art journalistischer Hybrid zwischen Zeitung mit redaktionellen Rubriken und selbst recherchierten Geschichten aus Politik, Wirtschaft, Entertainment einerseits und einer Versammlung von Blogs, Nachrichten aus Communities und verlinkten Nachrichten anderer Medien andererseits.

Huffington bekennt sich dabei zu journalistischen Prinzipien wie Genauigkeit, Fairness und Transparenz. Blogs und Blogging als Echtzeitübertragung von Meinung seien kein Ersatz für investigative Recherchen, aber eine andere Methode der Hintergrundberichterstattung. Es gehe immer um Expertisen und Information, grafisch oder tabellarisch aufbereitete, destillierte und vergleichende Information. Qualitätsmerkmale seien eine starke Stimme und ein distinkter Standpunkt; das Ziel sei unverwechselbare Inhalte zu offerieren und gleichzeitig interaktiver zu werden. Das Geschäftsmodell basiert auf der Aquise von Werbegeldern und befindet sich in der Wachstumsphase; die Blogger sind nicht bezahlt.

1) Stephan Weichert, Leif Kramp, Hans-Jürgen Jakobs (Hg.): Wozu noch Zeitungen? Wie das Internet die Presse revolutioniert. Göttingen, 2009.

Schlingerndes Flagschiff

Die Lesegruppe der Digitalen Allmend hat sich weiteren Teilen des Buchs von Russ-Mohl (1) zugewandt. Diesmal geht es um den Wandel der New York Times (NYT) und die Zukunftsperspektiven der US-Presse.

Wie im letzten Beitrag diskutiert, konstatiert Russ einen mittelfristigen Trend zu einer tiefer werdenden Krise des Presse in den USA: weniger Inserate, weniger Stellen, weniger journalistische Substanz. Der Autor stimmt nun aber nicht ein Lamento an, sondern sieht auch die kreativen Potentiale, welche die Krise freisetzen kann. Als Beispiel skizziert er die Entwicklung der NYT.

Dass die NYT noch vor kurzem einen Büroturm in Manhattan hochgezogen hat, erscheint als obsoleter Verweis auf eine verflossene Goldene Ära. Das Gebäude musste verkauft werden, denn das Unternehmen befand sich jahrelang in Schieflage: Sinkende Anzeigeneinnahmen, Überschuldung, instabile Eigentumsverhältnisse. Letzteres konnte gedreht werden. Die historische Eigentümerfamilie Sulzberger erwarb wieder grosse Anteile, die Hedgefonds verschwanden von der Bildfläche. Die Zahl der Journalisten wurde etwas reduziert. Zudem trat ein mexikanischer Multimilliardär als Kreditgeber auf.

Auf einer zweiten Ebene hat die NYT neben der Printausgabe den Internetauftritt forciert. Russ nimmt sie als Beispiel „wie interaktiv, wie multimedial und auch wie transparent Qualitätsjournalismus im Internet sein kann“. Der Site zählt etwa 20 Millionen Besucher pro Monat. Da wird auch klar, warum sich die Zeitung nach einigem Hin- und Her für Gratiszugang entschiedenen hat. Die Werbeindustrie zeigte Heisshunger nach Werbeflächen in einer HiEnd Umgebung, wo zahlungskräftige Mittel- und Oberschichtangehörige erreicht werden können.

Russ stellt fest, dass diese Strategie doch eine Eigendynamik entwickelt. Auch wenn von Boulevardisierung nicht die Rede sein kann, setzt sich das gratis online Modell „unter Druck, dem Massengeschmack zu folgen“. Unter dem Strich attestiert der Autor aber der NYT, Berichterstattung auf hohem Niveau zu leisten, interaktive Formen und Selbstkritik zu fördern, den investigativen Journalismus wiederbelebt zu haben.

Der Autor hütet sich mit guten Gründen, die NYT als Beispiel hinzustellen, das nun alle nachahmen können. Die Mehrheit der paar führenden US-Zeitungen sind in den letzten Jahren in den Niederungen von Boulevard und Bedeutungslosigkeit verschwunden. So die historische Nummer zwei, die Los Angeles Times. Nicht besser sieht es mit bei den mittelgrossen und kleineren lokalen Blättern aus.

Eine vorsichtige Tonart schlägt der Text bei den Zukunftsaussichten an. Harte Kritik stecken Unternehmensleitungen ein, die sich einfach an alte Praktiken und Vorstellungen geklammert haben. Der Autor konstatiert, dass der Journalismus „als professionelle Spezies neu erfunden“ wird. Der Journalist wird zum „dynamischen Unternehmer“. Das passt nun allerdings nicht so richtig zum Modell NYT, wo JournalistInnen doch gerade im Kontext eines institutionellen Rahmens agieren – als Fachspezialisten und nicht als Unternehmer. Dass bürgernaher Freelancer Journalismus zu einem ökonomischen Modell werden könnte, wird einfach angetönt, aber nicht entwickelt.

Eine komplexer werdende Welt braucht hochwertigen Journalismus. Russ sieht ihn eher in einer Funktion als Lotse denn als Welterklärer. Das ist allerdings nicht als free lunch zu haben. Anspruchsvollen Stoff gebe es wohl auf die Dauer nur „wenn wir dafür bezahlen“.

Das Buch hat Schwächen, etwa die (bereits im letzten Beitrag erwähnte) ungeklärte Verwendung des News-Begriffs. Auch werden die medialen Entwicklungen nicht mit kulturellen Neuorientierungen in Verbindung gebracht. Der Text bringt aber viel Material, welches eine Einschätzung der medialen Dynamik in den USA erlaubt.


1) Stephan Ruß-Mohl: Kreative Zerstörung. Niedergang und Neuerfindung des Zeitungsjournalismus in den USA. Konstanz 2009

Pressekrise in den USA

Die Frage nach Bedingungen der Herstellung einerseits und dem freien Zugang zu digitalen Wissensbeständen andererseits stellt sich auch im Sektor journalistisch aufbereiteter Inhalte. Zu beobachten sind etwa ein Niedergang des Qualitätsjournalismus hier und ein Wandel im Mediengebrauch dort; zugespitzt stellt sich Frage, ob die Tageszeitung der heutigen Form nicht ein medialer Dinosaurier ist. Die Lesegruppe – neugierig, wie die Zukunft ausschauen könnte – blickt in die USA und hat sich das Buch «Kreative Zerstörung. Niedergang und Neuerfindung des Zeitungsjournalismus in den USA»* vorgenommen.

Stephan Ruß-Mohl, Professor für Kommunikationswissenschaft an der Universität Lugano, hat die aktuelle Zeitungslandschaft der USA analysiert und fasst seine Schlüsse über Strukturwandel bei Presse und Online-Medien in den USA in diesem Buch zusammen. Das erste Kapitel «Journalismus in der Abwärtsspirale», das wir uns vorerst vorgenommen haben, handelt denn auch von den Verfallserscheinungen des amerikanischen Zeitungsjournalismus. Die Zahlen sprechen eine deutliche Sprache und bilden einen eigentlichen Erosionsprozess ab: Es die Rede von einer ganzen Serie von Verlagsinsolvenzen, Massenentlassungen, drastisch sinkenden Auflagen, einer Leserabwanderung ins Internet.

Die Sachverhalte sind zwar nicht ganz neu, sie werden aber hier mit viel Zahlenmaterial aus zahlreichen Quellen und statistischen Angaben unterfüttert und sind von hoher Aktualität (viele Informationen und Daten in dem Buch stammen aus 2009).

Ausgedünnte Redaktionen führen in der Folge zu Kompetenzlücken, vielleicht droht eine Deprofessionalisierung, mindestens aber verändert sich das Journalistenhandwerk. Ob der Trend der rapide abnehmenden Glaubwürdigkeit der Medien – offenbar verlieren sie TV-Anbieter und Zeitungen gleichermassen – ebenfalls auf diesen redaktionellen Schwund zurückzuführen sind, bleibt offen.
Auf der Seite der Ursachen des Niedergangs wird als eines der Hauptprobleme erwähnt, dass die Internetgeneration mit der Erwartungshaltung von «Alles gratis» aufgewachsen und die Zahlungsbereitschaft für Nachrichten und journalistische Angebote im Netz derzeit gleich Null sei.

Die Diskussion in der Gruppe hat folgende Punkte speziell hervorgehoben:
– Die Zahlen aus den USA zum Konsum von Nachrichten zeigen, dass in der Mediennutzung offenbar Einbussen bei den «alten» Medien nicht von Onlineangeboten kompensiert werden.
– Den Fragen, ob der Zustand der Presse in den USA anders als in Europa ist, inwiefern er vergleichbar wäre oder was allenfalls in Europa auf uns zukommt, nähern wir uns anhand dieses Einstiegs nicht direkt an. In der Schweiz warnt ja insbesondere Kurt Imhof, Soziologe und Medienforscher, sehr deutlich vor den Folgen eines Verlustes des Qualitätsjournalismus und spricht unverhohlen von einer Unterhöhlung der Demokratie und einem drohenden Zerfall der Öffentlichkeit.
– Erwähnenswert scheint uns, dass sich die Beobachtungen von Ruß-Mohl an der Grenze zwischen Journalistik und Ökonomie bewegen: So schliessen seine Beobachtungen nicht nur den Inhalt von Zeitungen ein, sondern ebenso ihr Anzeigengeschäft oder den Verfall ihrer Börsenwerte.
– Das Buch ist ein Zwitter zwischen Wissenschaft und populärem Sachbuch ist. Das macht es zwar zu einer auch unterhaltenden Lektüre, war uns aber nicht in jedem Abschnitt behaglich. Manchmal haben wir uns gefragt, was vor dem Beginn der abgebildeten Statistik war; andere Male haben uns Definitionen gefehlt, etwa was alles genau unter «Nachrichten» fällt oder gezählt wurde.

Im Untertitel ist die Rede von einer «kreativen» Zerstörung, sie wird also nicht nur negativ beurteilt. Es müssten sich daher in den folgenden Kapiteln neue Ansätze zeigen, wie sich neue Formen etwa im Online-Journalismus ausbilden. Fortsetzung folgt.

* Stephan Ruß-Mohl: Kreative Zerstörung. Niedergang und Neuerfindung des Zeitungsjournalismus in den USA. Konstanz, 2009.

Gensequenz des Goldhasen

Etwas summarischer hat sich die Lesegruppe der Digitalen Allmend mit Marken- und Patentrecht beschäftigt. Der Grundsatz eines Schutzes wirkt durchaus plausibel, soweit allgemeine Interessen gefördert werden. Diskutabel sind Abgrenzungen und Ausmass.

Am 14. Juni haben wir ein weiteres Mal zum Taschenbuch „Immaterialgüterrecht“ (1) gegriffen, um die juristischen Grundzüge des schweizerischen Rechts kennenzulernen. Beim Markenrecht wird prägnant eine Unterscheidungsfunktion und eine Herkunftsfunktion unterschieden. Eine Marke zeigt also auf ein Produkt wie auf ein Unternehmen. Wie in andern Teilen des Immaterialgüterrechts verweist das Buch auf eine gesamtwirtschaftliche und damit gesellschaftliche Funktion, mit der Markenschutz legitimiert wird: Er soll dem Unternehmen einen Anreiz geben, die Produktequalität hochzuhalten.

Die Diskussion würdigt dieses Argument sowie die Verlässlichkeit für den Konsumenten in einem vielfältigen Warenangebot durchaus. Besonders bei vitalen Produkten wie Medikamenten. Die Kreation von Markenidentitäten kann also nicht einfach auf eine Fetisch-Produktion reduziert werden, wie das die Konsumkritik nach 68 getan hat. Völlig irrelevant erscheint dieser Aspekt aber nicht. Wer Stilbeilagen durchblättert, sieht Seite für Seite: Hier geht es nicht um die Unterscheidbarkeit der Qualität von Stoffen oder Lötstellen, sondern um Identitätsproduktion.

Bemerkenswert haben wir verschiedene Limitierungen beim Gebrauch von Zeichen als Marke gefunden. So ist es etwa nicht möglich, ein Markenzeichen einfach auf Vorrat für unbestimmte Zeit zu blockieren. Anders als beim Urheberrecht sind uns einige Abgrenzungskriterien aus dem Text nicht richtig klar geworden. Warum etwa die Kombination von zwei universellen Elementen wie farbige Metallfolie und Schokoladehase als „Goldhase“ markenwürdig ist, hat sich nicht mit letzter Klarheit erschlossen. Das trifft auch für Anwendung der Unterscheidung von starken und schwachen Marken zu.

Ein aktuelles Konfliktfeld, das eher mit der Umsetzung als mit den Grundzügen des Markenrechts zusammenhängt, ist der Umgang mit der Einfuhr von Produktenachahmungen durch Privatpersonen. Hier hat es bekanntlich eine Praxisverschärfung gegeben.

Beim Patentrecht können wir eine Berechtigung soweit sehen, wie wirklich das Eingehen von Innovationsrisiken über das ohnehin nötige hinaus gefördert wird. Wo jahrelange gebunden Forschungs- und Entwicklungsaufwendungen getätigt werden, wie in der Pharmaindustrie, erscheint ein gewisser Schutz legitim. Am andern Ende der Skala ist die Softwareindustrie, wo Patente im engen Sinn in Europa nicht möglich sind. In den USA bestehen aber mehr Möglichkeiten was sich in cleveren bis erpresserischen Prozessdrohungen und komplexen Games zwischen den Firmen äussert. Das wirkt natürlich abschottend gegenüber kleineren Playern, die durch einen einzigen Prozess mit einem grossen Player ruiniert werden könnten.

Beim Thema Grenzen der Patentierbarkeit sind wir auf eine Schwäche des Textes gestossen, was mit der Knappheit zu tun hat. Wenn festgehalten wird: Nicht patentierbar sind „Sequenzen eines Gens… Patentierbar sind dagegen technisch bereitgestellte… abgeleitete Gensequenzen“, lässt das gerade in diesem umstrittenen Bereich Fragen offen. Hier geht es um den privaten Zugriff auf ökologisches Gemeingut, was Aufmerksamekeit verdient.

 

1) Markus Kaiser, David Rüetschi: Immaterialgüterrecht. Zürich, 2009. (in a nutshell)

Urheberrecht en detail

Nachdem wir uns in der Lesegruppe der Digitalen Allmend ausgehend von einem Grundlagentext zum Immaterialgüterrecht (1) die letzten beiden Male einmal allgemein mit Grundlagen des Immaterialgüterrechts und das andere Mal mit dem Urheberrecht befasst haben, hat der dritte Abend nochmals mit Einzelaspekten zum Urheberrecht begonnen.

Zwei davon sind vielleicht hier erwähnenswert: Zum einen ist im folgenden Beispiel – wie so oft beim Urheberrecht – das Prinzip eigentlich ein einfaches, der Teufel liegt dann aber juristisch offensichtlich in der konkreten Rechtssprechung. Das Prinzip: «Zulässig ist grundsätzlich die Verwendung eines veröffentlichten Werkes im persönlichen Bereich und im Kreis eng verbundener Freunde und zulässig ist auch die Verwendung durch eine Lehrperson für den Unterricht in der Klasse» (nicht bei Computerprogrammen).
Im Detail ist aber in der Schweiz – und da steht ein klärender Bundesgerichtsentscheid offenbar noch aus –, ob das «downloaden» in jedem Fall eine zulässige Privatkopie erstellt oder eben nicht.

Zum andern hat die so ein bisschen saloppe Anmerkung über die «schmerzlichen Umsatzeinbussen der Musikindustrie», die auf die Verbreitung von urheberrechtlich geschützten Werken über das Internet zurückzuführen seien, Ale völlig zu Recht wieder mal nach soliden Zahlen und Statistiken fragen lassen; dieser Sache sollten wir vielleicht einmal nachgehen.

Im weiteren Verlauf hat sich die Diskussion dann hauptsächlich an Fragestellungen erhitzt, wie sie sich aus der Reibung des bestehenden Urheberrechts und den Anliegen der digitalen Allmend – in diesem Bereich konkret mit der Förderung von CC-Lizenzen – ergeben.

Die Diskussion in der Gruppe hat schnell klar gemacht, dass es mindestens auf Produzentenseite Unterscheidungen braucht: die Situation ist nämlich für «Lehrer, Wissenschaftler, Schriftsteller, Fotografen, Filmschaffende, Musiker, Grafikdesigner und Web-Bastler» (2) keineswegs identisch: Forschung ist anders organisiert und finanziert als Kultur; Unterricht und die dafür benötigten Materialien sind sowieso ein Spezialfall; Presse ist nicht nur x-beliebiger «content», sondern dient dem Aufklärungsbedarf einer demokratischen Öffentlichkeit, etc. Wie mit diesem so ein bisschen unbehaglichen Sammelsurium umzugehen ist, müssten weitere Diskussionen klären.

(1) Markus Kaiser, David Rüetschi: Immaterialgüterrecht. Zürich, 2009. (in a nutshell)
(2) Zielgruppen CC gemäss eigenen Angaben:
http://de.creativecommons.org/faqs/#wen_spricht_antwort
(07.07.10)

Paragrafen browsen

Letztes Mal haben wir uns mit den allgemeinen Grundlagen des Immaterialgüterrechts beschäftigt, nun sind wir ins Urheberrecht eingestiegen. In der Lesergruppe der Digitalen Allmend interessiert uns, welche Begriffe, Unterscheidungen und Konzepte das schweizerische Recht verwendet und wie die Regelungen aussehen.

Das handliche Buch „Immaterialgüterrecht – in a nutshell“ (1) ist für unsere Zwecke gut geeignet. Die am 8. April diskutierten Teile über das Urheberrecht sind übersichtlich gegliedert und auch für Nicht-Juristen gut verständlich. Das Treffen hat ausnahmsweise eher der Charakter eines Lernzirkels und dient weniger der kontroversen Diskussion. Wir wollen hier keine Kurzfassung des Urheberrechts versuchen, sondern einfach auf ein konzeptuelle Dinge hinweisen, die für uns eher neu und überraschend waren.

– Schutzwürdige Objekte werden nicht top down von einem allgemeinen Werkbegriff abgeleitet. Dieser steht als individuelle geistige Schöpfung der Literatur oder Kunst sicher im Zentrum. Auf der gleichen Ebene werden aber durch Aufzählung weitere Gruppen angesiedelt, etwa Software, Werke zweiter Hand oder Sammelwerke.

– Beim allgemeinen Werkbegriff wird das Element der Kunst weit in Richtung Kunsthandwerk interpretiert. Nur so ist zu verstehen, dass etwa auch topografische Karten oder Computerspiele als Werke der Literatur und Kunst gelten.

– Neu für uns ist die Konzeption eigentlicher Werkstapel. Auf einen Roman kann als Werk zweiter Hand ein Theaterstück aufsetzen und darauf eine besondere Inszenierung. Eine solche Inszenierung wird allerdings nicht als eigenständiges Werk, sondern mit dem Konzept der „verwandten Schutzrechte“ geschützt.

– Was wir in der Geschichte schon angetroffen haben, ist die Unterscheidung zwischen persönlichkeitsrechtlichen und ökonomischen Aspekten. Der wirkt auch in der schweizerischen Gesetzgebung weiter, indem den Urhebern Rechte zugesprochen werden, die im Gegensatz zu den Verwertungsaspekten nicht weitergegeben werden können. Das betrifft etwa das Recht, gegen eine Entstellung des Werks vorzugehen oder eine Namensnennung durchzusetzen.

– Unter dem Begriff „Schutzschranken“ finden wir eine ziemlich lange Liste Elementen, welche den Möglichkeitenraum der Rechteinhaber beschränken. Dazu gehören die bekannten Recht zum Gebrauch geschützten Materials im privaten Rahmen oder die Sicherungskopie. Weiter auch die Verwendung in Unterricht und Betrieben, sowie Zitate und Berichterstattung.

Natürlich vergeht keine Lesegruppensession, ohne dass spannende Hintergrunddiskussion aufflackern. Diesmal ging es kurz ums Thema, wie es eigentlich mit der Legitimität eines derartigen Gesetzes in der Bevölkerung bestellt ist. Das lässt sich natürlich nicht zwischen zwei Schlucken Mineralwasser klären.

 1) Markus Kaiser, David Rüetschi: Immaterialgüterrecht. Zürich, 2009. (in a nutshell)