Medienphilosophien mit Mersch

Die Lesegruppe liest weiter Dieter Mersch (1), diesmal zu Medienphilosophien von Baudrillard und Virilio.

«Jean Baudrillard und die Agonie des Realen» titelt Mersch. Baudrillard, ursprünglich Soziologe und Philosoph, wird in diesem Kapitel als Medientheoretiker konturiert, der früh schon die These vom Referenzverlust medialer Prozesse aufgestellt hat. Gemeint ist damit im engen Sinn – bezogen auf Zeichenprozesse – die Loslösung des unmittelbaren Bezugs von Zeichen und Bezeichnetem, von Signifikant und Signifikat. Bedeutungen von Zeichen hängen damit mehr noch und zusehends nur noch von der Relation der Zeichen untereinander ab. Die beständige Möglichkeit der Rekombination der Zeichen bedeutet in einem weiteren Sinne den Abschied vom Realen, von der Referenz. Der «Wirklichkeitsbezug» geht verloren; Repräsentation wird durch Simulation verdrängt. Baudrillard bezieht sich mit der Aufwertung des Symbolischen stark auf Roland Barthes (Mythen des Alltags, Elemente der Semiologie) und beklagt diesen Verlust der Referenz in einer nur noch selbstreferentiellen Welt, in der aus Realität eine bloss konstruierte, simulierte oder auch virtuelle Realität geworden ist.

Im Zentrum der Technik-kritischen Position des französische Architekten und Urbanisten Paul Virilio stehen Raum und Bewegung, die Dynamik wachsender Beschleunigung und der Exzess der Geschwindigkeit. Die Entwicklung der sich steigernden Geschwindigkeiten unterteilt Virilio, gemäss Mersch, in Epochenstufen, die er anhand von so unterschiedlichen Phänomenen wie Informations- und Übertragungstechniken, Verkehrsmittel, Architektur, der Logistik automatischer Waffen und der Zurüstung des Leibes durch Transplantationstechniken nachzeichnet. Auch bei Virilio konstituieren die Medien in diesem unerbittlich sich steigernden Geschwindigkeitsrausch ihr Mediatisiertes: Die Erfahrung des Wirklichen vollzieht sich in Abhängigkeit von Geschwindigkeiten mit denen gesehen oder gehört wird; so etwa sei die Logistik des Krieges zunehmend eine der Sehwaffen.

Der thematische Überflug mit Mersch macht deutlich, dass weder Baudrillard noch Virilio mit solch einer summarischen Lektüre beizukommen ist.

1) Dieter Mersch. Medientheorien zur Einführung. Junius. Hamburg 2006.

Marshall McLuhan und die Kanadische Schule

Die Lesegruppe liest weiter Medientheorie von Dieter Mersch (1).

Marshall McLuhan ist der bekannteste einer gemischten Gruppe von Wissenschaftlern aus Anthropologie, Literaturwissenschaft und Geschichte, die von den 1950er Jahren an im Umkreis des Centre of Culture and Technology der Universität Toronto gearbeitet und in vielfältiger Weise Einflüsse der Schrift und anderer Kommunikationsmedien auf die Kulturentwicklung untersucht haben. Dieser so genannten Kanadischen Schule (dazu gehören unter anderen Harold A. Innis, Eric A. Havelock und später Derrick de Kerckhove) kommt nach Mersch das Verdienst der Etablierung einer eigentlichen allgemeinen Medientheorie zu, die nicht nur partiell die technischen Medien wie Film, Radio und Fernsehen behandelt, sondern ebenso Politik, Sozialstruktur und Technik mit einbezieht. Medientheorie versteht sich seither auch als Zeitdiagnose: Medien durchdringen Person, Politik, Ökonomie, Moral und Gesellschaft in ihrer Identität.

Mersch beschreibt in der Folge detaillierter, was die einzelnen Exponenten beigetragen haben und widmet sich am ausführlichsten Marshall McLuhan. Schreiben, wie Mersch über McLuhan schreibt, könnte sogar reizvoll sein; lieber wähle ich hier aber einen direkten Zugang zu McLuhan und schlage für einmal zwei Videolinks vor.

McLuhan wollte verstehen, wie Massenmedien unser Leben verändern – wie sie ihre User formatieren – und erfand dafür Metaphern und Schlagworte, die geradezu volkstümlich geworden sind. McLuhan prägte den Begriff des Globalen Dorfes, McLuhan sprach von der Gutenberg Galaxis und von Medien als Extensionen des menschlichen Körpers. Sein berühmtester Kernsatz ist “The medium is the message.”  (Das Medium ist die Botschaft.) Die Botschaft der elektronischen Medien lautet: Wir sind akustisch und visuell vernetzt. Die Welt ist ein globales Dorf. Wir haben extrem mit den Angelegenheiten aller andern Menschen zu tun. Seine ebenfalls sehr bekannte Unterscheidung zwischen heissen und kalten Medien bezieht sich auf ihre höhere oder niedrigere Auflösung und die damit verbundenen unterschiedlichen Wirkungen auf die Sinne. Hochauflösende Medien (“hot”) media, wie Druck oder Radio, seien voller Informationen und erforderten weniger Komplettierung oder Beteiligung des Lesers oder Zuhörers, als niedrig aufgelöste Medien (“cool”) media wie Telefon oder Fernsehen, denen es relativ an Informationen fehle und die damit eine höhere «Sinnenbeteiligung» des Benutzers mit sich brächten. Da jedes Medium mit einem verschiedenen Verhältnis in der Ordnung zwischen den Sinnen verknüpft sei, kreiere es andere Formen von Bewusstsein. Diese Transformationen von Wahrnehmungen seien Grundlagen von Bedeutungen der Botschaft, oder eben:  “The medium is the message.”

Marshall McLuhans Theorien aus den 1960er Jahren sind noch heute in aller Munde und scheinen auch perfekt auf das Internet zu passen. Dabei geht gerne vergessen, dass er über die Rechenzentren von damals sprach – und weder über das Internet, noch die Laptops oder iPhones von heute. In diesem Sinn war die These des Globalen Dorfes vielleicht noch weniger eine Diagnose denn eine – allerdings äusserst hellsichtige – Vorhersage.

Dass er später auch “The medium ist the massage“ gelten liess, eine Version, die aufgrund eines Druckfehlers entstanden ist, weist Marshall McLuhan zudem als einen Wortspieler aus, der Witz und Pointierung liebte. Seinen Kritikern war er damit definitiv zu unsystematisch. Vielleicht hätte man ihn im Original erlebt haben müssen, um etwas von der Tonalität, vom Duktus, vom Zugriff seines Denkens und seiner Äusserungen zu verstehen; dieses Video gibt immerhin noch mediale Gelegenheit dazu: http://www.youtube.com/watch?v=Orm-urRidH8&feature=related

McLuhan war ein Medien-Guru der ersten Stunde, eine Art intellektueller Popstar mit einer grossen Anhängerschaft unter den Hippies. Das hiess damals und heisst auch heute, dass er fleissig zitiert und selten gelesen wird. Ihn ebenfalls nur so bruchstückhaft zu rezipieren ist da ziemlich unbehaglich. Weil er zwar häufig zitiert, dabei aber eben auf seine drei oder vier Schlagwörter reduziert wird, lautet der zweit-berühmteste «McLuhanismus»: “You know nothing of my work!” Darauf spielt dann sogar eine Szene aus Woody Allens Stadtneurotiker an, die man sich ebenfalls nicht entgehen lassen sollte: http://www.youtube.com/watch?v=9wWUc8BZgWE

1) Dieter Mersch. Medientheorien zur Einführung. Junius. Hamburg 2006.

Medientheorien von Platon zu Nietzsche

Wie von der Lesegruppe der Digitalen Allmend bereits berichtet, befasst sich das erste Kapitel des Übersichtsbandes von Dieter Mersch (1) mit  dem Medienbegriff. Im zweiten nun verfolgt der Autor – und wir mit ihm – frühe Medientheorien, resp. Theorien, die er als solche zu betrachten vorschlägt, da sie Phänomene behandelten, die denen ähnelten, welche heute unter einem Medienbegriff gefasst werden.

Was die frühesten medientheoretischen Reflexionen zunächst provoziert habe, ist gemäss Mersch das «Rätsel der Schrift»: Annahme war, dass die Schrift den Menschen irgendwie übersteigt und daher das Werk eines höheren Instanz sein müsse. Kenntnis oder Unkenntnis der Schrift sei zudem immer auch mit sozialen und kulturellen Absetzungsbewegungen verbunden gewesen.

Ausführlich referiert Mersch in der Folge dann Platon, der die Schrift zur Darstellung philosophischer Gedanken für ungeeignet hält, da deren Medium vielmehr das Gespräch sei, wo Rede auf Gegenrede trifft und dadurch Argumente erst schärfe. Die teilweise durchaus widersprüchlichen Äusserungen Platons zur Schrift liest Mersch nicht als eine Kritik an der Schrift generell, sondern als eine Kritik an einem Schriftgebrauch der sich verselbständigt. Wenn wir seine Überlegungen auf die aktuellen Techniken des Internets zu übertragen versuchen, ist neben der Betonung der Chance der interaktiven Lebendigkeit auch der Hinweis bemerkenswert, den Mersch im Bezug auf die Schrift formuliert, dass es nämlich keine Technik gebe, die nicht zugleich aufzeichne und dokumentiere, wie sie im selben Mass als Dokument oder Archiv die Erinnerung transformiere.

Unter dem Titel «Metaphorisierungen des Medialen im 18. und 19. Jahrhundert» behandelt Mersch in der Folge Lessing, Herder und Hegel: So bei G. E. Lessing die Erörterung des Verhältnisses von Poesie gegenüber der bildenden Kunst anhand der Betrachtung über die spätantike Figurengruppe «Laokoon», bei J. G. Herder die Fokussierung auf die Sprache und ihre Bestimmung als Medium jeder Erkenntnis, also die intime Abhängigkeit des Denkens vom Medium der Sprache und bei G. W. F. Hegel die strenge Hierarchie zwischen Kunst, Religion und Philosophie. Dabei steht die Kunst durch ihr Angewiesensein auf Materialität in Hegels Taxonometrie auf der untersten Stufe, während Vernunft und Geist zuoberst rangieren.

Warum wir gerade diese Klassiker der Geistesgeschichte als Eckpunkte der Mediengeschichtsschreibung entdecken sollten, nur weil sie über Sprache und Erkenntnis reflektieren, leuchtet nicht in jedem Fall gleichermassen ein. Und was dagegen fast völlig fehlt, ist die Beschäftigung mit dem Sehen – Mersch zufolge hätte sie als Vorläufer von Medientheorien keine grosse Rolle gespielt. Dabei hat die Auseinandersetzung mit der Frage, was überhaupt ein Medium sei, durchaus auch anhand des Sehens Niederschläge gefunden: so etwa die Auseinandersetzung mit Spiegelung in der Sage des von seinem eigenen Bild gefesselten Narziss, Fragen der Repräsentation, Illusion und Imagination in der Malerei, wiedergegeben etwa in der Anekdote des Maler-Wettstreites zwischen Parrhasios und Zeuxis oder im negativen Sinn auch im Bilderverbot des Alten Testamentes.

Der längere Abschnitt zu F. Nietzsche ist dagegen vielfältig und anregend zu lesen: Nicht nur verbindet Mersch hier den von Nietzsche formulierten Gegensatz der Prinzipien des Apollinischen und Dionysischen mit medialen Überlegungen, sondern bezieht auch die sich mit Beginn des 19. Jahrhunderts rasant entwickelnde Technik (etwa die Illusionstechnik Fotografie) mit ein und zeigt ein reiches Bezugsfeld geistesgeschichtlicher Entwicklungslinien auf (zu Derrida, den Zeichentheoretikern, Cassirer und anderen), die zunächst mehrheitlich vom Medium der Sprache ausgehend, nach und nach Elemente entwickeln zur allmählichen Herausbildung von allgemeineren Medientheorien.

1) Dieter Mersch. Medientheorien zur Einführung. Junius. Hamburg 2006.

 

Neue Medien und politische Öffentlichkeit

Die Lesegruppe der DA beschäftigt sich damit anhand eines Kapitels aus der Publikation «The 21st century media (r)evolution. Emergent communication practices» von Jim Macnamara, englisch erschienen 2010 im Verlag Peter Lang, New York.

Darin geht Macnamara, Professor für Öffentlichkeits-Kommunikation an der University of Technology in Sydney, Entwicklungen und Zukunftstendenzen medial vermittelter – und gestalteter – Politik nach.
Während der Zugang zur Verbreitung von Standpunkten via Massenmedien nur beschränkten Personengruppen offen steht – etwa Politikern, Journalisten, Industriegesellschaften, etc. – und dies auch als Verlust der Bürgerstimme verstanden werden kann, sehen viele die Neuen Medien mit ihren partizipativen Möglichkeiten als Chance, demokratische Politik wieder zu beleben und die Ideale einer Bürgerbeteiligung am Staat zu verwirklichen.

Der Autor stellt zuerst verschiedene Demokratiemodelle vor, die sich im Verständnis von Art und Ausmass der Beteiligung unterscheiden. Im Hinblick auf die Chancen des einzelnen Bürgers auf Teilhabe am öffentlichen Gemeinwesen belegt er in der Folge mit vielen Literaturhinweisen optimistische wie pessimistische Einschätzungen der Web2.0 Medien als diskursiven Ort des öffentlichen Gemeinwesens.
In der Gruppe fragen wir uns, ob die enthusiastischeren Positionen nicht doch ausblenden, dass heute zwar im Prinzip jeder und jede einen Blog einrichten kann, aber deswegen noch lange nicht zur gehörten politischen Stimme wird.
Konkrete Beispiele werden dann im Text genauer verfolgt, wie etwa die Kampagnen der verschiedenen Politiker für die Parlamentswahlen in Australien im November 2007 (da etwa der Aspekt der noch mangelnden Nutzung der Interaktionsmöglichkeiten) und internationale Entwicklungen in e-democracy und e-government. Interessant ist Macnamaras Plädoyer, anstatt über den Niedergang des politischen Engagements zu lamentieren, eher die aktuellen Entwicklungen zu beobachten: «[…] perhaps it is time to abandon the political elite view of the public sphere and relocate it, where it is more accessible and more culturally relevant. Both the location and language of the public sphere are changing.» Das Internet als «übervoller, lärmiger, chaotischer Ort wettbewerbsorientierter und erbitterter Kommunikation», der so in der modernen Konzeption der öffentlichen Sphäre zuverlässig nicht vorgesehen war.

Lektüren zur Medienentwicklung

Die Lesegruppe der Digitalen Allmend hat sich mit zwei weiteren Texten zu Aspekten des medialen Strukturwandels beschäftigt:

Dünne Verteidigung der Medien
Wenn Pietro Supino, Verleger der Tamedia AG und Vizepräsident des Verbands Schweizer Presse, sich in einem Artikel zur Qualität der Presse äusssert (1), braucht man sich nicht weiter zu wundern, wenn er sie verteidigt – etwa gegen den Bericht der Forschergruppe um Kurt Imhof, den die Lesegruppe bereits besprochen hat.

Seine Hauptargumente sind einerseits die prinzipielle Nichtexistenz von überzeitlichen Qualitätsmerkmalen (die also auch nicht einzufordern seien) und andererseits ein veränderter Mediengebrauch, der bestens ohne eigentliche Leitmedien als alleinige Foren für die öffentliche Meinungsbildung auskomme. Da Supino die Quantität des Angebots an Informationen aber mit dessen Qualität relativ sorglos gleichsetzt, bleibt die Replik insgesamt ein bisschen dünn.

Unterhaltsame geschichtliche Entwicklung des Fernsehens
Das Buch von Asa Briggs und Peter Burke (2) vermittelt einen Überblick über die Geschichte neuerer Kommunikationsmedien und ihrer sozialen und kulturellen Einbettung. Wir haben den Abschnitt über das Zeitalter des Fernsehens gelesen. In angelsächsischer, sehr angenehm zu lesender Schreibtradition werden das Aufkommen, Entwicklungen, nationale Differenzen, markante Ereignisse in einzelnen Ländern und schliesslich die kontinuierliche Ausbreitung des TV-Einflusses über alle Länder der Erde nachgezeichnet. Der Kommentar- und Forschungsteil macht mit verschiedenen theoretischen Positionen und empirischen Daten vertraut.
Nach dem, was wir gelesen haben, ein sehr empfehlenswertes Buch, um im Zeitalter der schnellen Medien-Entwicklungen ein Verständnis für Entwicklungen der Mediengeschichte zu erhalten.

1) http://www.tagesanzeiger.ch/schweiz/standard/Die-Qualitaet-unserer-Presse/story/28385132

2) Asa Briggs and Peter Burke : A social history of the media : from Gutenberg to the Internet. (3rd ed.) Cambridge, 2009.

Wozu noch Zeitungen?

Die Lesegruppe hat sich in Interviews aus dem Buch mit dem gleichnamigen Titel (1) vertieft, das den Zusammenbruch des klassischen Geschäftsmodells journalistischer Arbeit in den USA abbildet. Durch die Mittel des Internets ermächtigt verstehen sich interaktive Nutzer zunehmend selber als Schleusenwärter des Nachrichtenflusses und sehen keine Notwendigkeit mehr einer Entgeltung für die Informationsaufbereitung. Zudem führt die Dynamisierung von Nachrichtenzyklen dazu, dass News, kaum gedruckt, auch schon veraltet sind. Wo also Abo- und Verkaufserlöse ausschliesslich am gedruckten Papier hängen, wird es prekär.

Die Anlage des Buches mit ausführlichen Interviews macht deutlich, dass hier keine Statistiken oder absoluten Aussagen zu erwarten sind, sondern Erfahrungen und Einschätzungen von einzelnen Exponenten (darunter namhafte Medienexperten wie Eric Alterman, Jay Rosen, Stephen B. Shepard u.a.), die Einblicke in sehr unterschiedliche journalistische Zugangsweisen und Geschäftsmodelle geben. Sehr anregend zu lesen.

Zwei Interviews als Beispiele:
Mark Fisher ist seit über 20 Jahren Redakteur der Washington Post – mehrfach ausgezeichneter Journalist, Kolumnist, Blogger und Buchautor – und bewertet die dialogischen und partizipatorischen Möglichkeiten der neuen Technologien grundsätzlich als positiv. Insbesondere erwähnt er die Chance der Beschaffung von Daten und Materialien über die Masse der Leser (Crowd-Sourcing), die den Aufbau von aktuellen Datenbeständen erlaube, wie es herkömmlich nicht möglich wäre. Das Ausmass der Beteiligung als Reaktion auf Blogbeiträge bewertet er dagegen als eher gering: Nur wenige Reizthemen würden viele Kommentare provozieren und weniger als fünf Prozent der Leser eines Blogs überhaupt je einen Beitrag schreiben.

Interessant ist die Frage, ob und wie Leserkommentare in die Berichterstattung eingebunden werden. Fisher beurteilt das durchaus positiv, selbst wenn vielleicht das Riskio bestehe, dass die Inhalte drohen, weniger glaubwürdig zu erscheinen, wenn unter seriösen Nachrichtenbeiträgen Verunglimpfungen auftauchen.

Ein kritisches Argument zieht sich allerdings durch seine Äusserungen durch: nur die bereits gut informierten und gebildeten Nutzer könnten die neuen Medienstrukturen positiv nutzen, die breite Masse der Menschen dagegen wäre damit überfordert und würde sich tendenziell von einigermassen informierten zu völlig uninformierten Bürgern entwickeln. Damit aber wären die Probleme des Journalismus in Wirklichkeit zunehmend solche für die Demokratie: wenn nämlich Massenmedien, die helfen können, Politik und Weltläufe zu verstehen, als gemeinsame Basis für die Meinungsbildung wegfallen. Dennoch schliesst er für die USA eine finanzielle Beteiligung des Staates aus Gründen der Gewaltentrennung kategorisch aus.

Eine leicht andere Tonart schlägt Arianna Huffington, Co-Gründerin und Chefredakteurin der nach ihr benannten Huffington Post an. Sie gibt etwa an, dass Nebenwirkungen der Medienrevolution dem geschriebenen Wort zu einer eigentlichen Renaissance verholfen hätten.

Als Ursache für die Unzufriedenheit mit dem traditionellen Journalismus nennt sie eine Vernachlässigung seiner «Watchdog-Funktion»  und spricht von einer zu grossen Nähe zur Macht: Im Vorfeld und während des Irakkriegs etwa wären die traditionellen Medien ihrer Aufgabe nicht nachgekommen, die politisch Mächtigen zur Verantwortung zu ziehen. Von den neuen Medien verspricht sie sich mehr Transparenz und hofft auf den «Bürgerjournalismus», eine Art Kurzformel für eine Sammlung von Methoden, die sich die Kraft von Online-Gemeinschaften, ihr Wissen, ihre Informationen und Zugänge zunutze machen.

Die Konvergenz von alten und neuen Medien zeigt sich in der Huffington Post wie folgt: die linksliberale Online Zeitung ist eine Art journalistischer Hybrid zwischen Zeitung mit redaktionellen Rubriken und selbst recherchierten Geschichten aus Politik, Wirtschaft, Entertainment einerseits und einer Versammlung von Blogs, Nachrichten aus Communities und verlinkten Nachrichten anderer Medien andererseits.

Huffington bekennt sich dabei zu journalistischen Prinzipien wie Genauigkeit, Fairness und Transparenz. Blogs und Blogging als Echtzeitübertragung von Meinung seien kein Ersatz für investigative Recherchen, aber eine andere Methode der Hintergrundberichterstattung. Es gehe immer um Expertisen und Information, grafisch oder tabellarisch aufbereitete, destillierte und vergleichende Information. Qualitätsmerkmale seien eine starke Stimme und ein distinkter Standpunkt; das Ziel sei unverwechselbare Inhalte zu offerieren und gleichzeitig interaktiver zu werden. Das Geschäftsmodell basiert auf der Aquise von Werbegeldern und befindet sich in der Wachstumsphase; die Blogger sind nicht bezahlt.

1) Stephan Weichert, Leif Kramp, Hans-Jürgen Jakobs (Hg.): Wozu noch Zeitungen? Wie das Internet die Presse revolutioniert. Göttingen, 2009.

Pressekrise in den USA

Die Frage nach Bedingungen der Herstellung einerseits und dem freien Zugang zu digitalen Wissensbeständen andererseits stellt sich auch im Sektor journalistisch aufbereiteter Inhalte. Zu beobachten sind etwa ein Niedergang des Qualitätsjournalismus hier und ein Wandel im Mediengebrauch dort; zugespitzt stellt sich Frage, ob die Tageszeitung der heutigen Form nicht ein medialer Dinosaurier ist. Die Lesegruppe – neugierig, wie die Zukunft ausschauen könnte – blickt in die USA und hat sich das Buch «Kreative Zerstörung. Niedergang und Neuerfindung des Zeitungsjournalismus in den USA»* vorgenommen.

Stephan Ruß-Mohl, Professor für Kommunikationswissenschaft an der Universität Lugano, hat die aktuelle Zeitungslandschaft der USA analysiert und fasst seine Schlüsse über Strukturwandel bei Presse und Online-Medien in den USA in diesem Buch zusammen. Das erste Kapitel «Journalismus in der Abwärtsspirale», das wir uns vorerst vorgenommen haben, handelt denn auch von den Verfallserscheinungen des amerikanischen Zeitungsjournalismus. Die Zahlen sprechen eine deutliche Sprache und bilden einen eigentlichen Erosionsprozess ab: Es die Rede von einer ganzen Serie von Verlagsinsolvenzen, Massenentlassungen, drastisch sinkenden Auflagen, einer Leserabwanderung ins Internet.

Die Sachverhalte sind zwar nicht ganz neu, sie werden aber hier mit viel Zahlenmaterial aus zahlreichen Quellen und statistischen Angaben unterfüttert und sind von hoher Aktualität (viele Informationen und Daten in dem Buch stammen aus 2009).

Ausgedünnte Redaktionen führen in der Folge zu Kompetenzlücken, vielleicht droht eine Deprofessionalisierung, mindestens aber verändert sich das Journalistenhandwerk. Ob der Trend der rapide abnehmenden Glaubwürdigkeit der Medien – offenbar verlieren sie TV-Anbieter und Zeitungen gleichermassen – ebenfalls auf diesen redaktionellen Schwund zurückzuführen sind, bleibt offen.
Auf der Seite der Ursachen des Niedergangs wird als eines der Hauptprobleme erwähnt, dass die Internetgeneration mit der Erwartungshaltung von «Alles gratis» aufgewachsen und die Zahlungsbereitschaft für Nachrichten und journalistische Angebote im Netz derzeit gleich Null sei.

Die Diskussion in der Gruppe hat folgende Punkte speziell hervorgehoben:
– Die Zahlen aus den USA zum Konsum von Nachrichten zeigen, dass in der Mediennutzung offenbar Einbussen bei den «alten» Medien nicht von Onlineangeboten kompensiert werden.
– Den Fragen, ob der Zustand der Presse in den USA anders als in Europa ist, inwiefern er vergleichbar wäre oder was allenfalls in Europa auf uns zukommt, nähern wir uns anhand dieses Einstiegs nicht direkt an. In der Schweiz warnt ja insbesondere Kurt Imhof, Soziologe und Medienforscher, sehr deutlich vor den Folgen eines Verlustes des Qualitätsjournalismus und spricht unverhohlen von einer Unterhöhlung der Demokratie und einem drohenden Zerfall der Öffentlichkeit.
– Erwähnenswert scheint uns, dass sich die Beobachtungen von Ruß-Mohl an der Grenze zwischen Journalistik und Ökonomie bewegen: So schliessen seine Beobachtungen nicht nur den Inhalt von Zeitungen ein, sondern ebenso ihr Anzeigengeschäft oder den Verfall ihrer Börsenwerte.
– Das Buch ist ein Zwitter zwischen Wissenschaft und populärem Sachbuch ist. Das macht es zwar zu einer auch unterhaltenden Lektüre, war uns aber nicht in jedem Abschnitt behaglich. Manchmal haben wir uns gefragt, was vor dem Beginn der abgebildeten Statistik war; andere Male haben uns Definitionen gefehlt, etwa was alles genau unter «Nachrichten» fällt oder gezählt wurde.

Im Untertitel ist die Rede von einer «kreativen» Zerstörung, sie wird also nicht nur negativ beurteilt. Es müssten sich daher in den folgenden Kapiteln neue Ansätze zeigen, wie sich neue Formen etwa im Online-Journalismus ausbilden. Fortsetzung folgt.

* Stephan Ruß-Mohl: Kreative Zerstörung. Niedergang und Neuerfindung des Zeitungsjournalismus in den USA. Konstanz, 2009.

Absichten im Auge behalten

Der nachfolgende Diskussionsbeitrag beschäftigt sich mit Unterscheidungsebenen in der Diskussion um zu Urheberrecht und CC Lizenzen und wurde ausgelöst durch eine Lesegruppendiskussion. Mir ist dabei bewusst, dass es sich um sehr punktuelle Beobachtungen handelt, die nichts Grundsätzliches darüber aussagen, wie die CC Lizenzen am besten einzusetzen sind. Die Überlegungen plädieren lediglich dafür, die komplexen Verhältnisse nicht ungebührlich zu simplifizieren, um produktive und kreative Diskussionen um die Wahrung des Public Domain und die bestmögliche Nutzung von CC Lizenzen zu ermöglichen.

Im Grunde geht es ja um folgende Interessensabwägung: Auf der einen Seite die Absicht des Urheberrechtes, den Schutz der Urheberschaft zu gewährleisten und demjenigen, der etwas erschafft, mögliche Erträge seines Werkes zu sichern; auf der andern Seite das Konzept des freien Zugangs auf Information, mehr noch: die Möglichkeit, auf vorhandene Werke zuzugreifen, sie sich anzueignen und auf ihnen aufzubauen.

Natürlich soll dabei all jenen Rechteinhabern, die andern grosszügige Nutzungsrechte an ihren Inhalten einräumen möchten, geholfen werden; das ist unproblematisch (nicht im Verfahren, aber im Prinzip).

Das öffentliche Gut, das man für eine offene Wissens-Gesellschaft gerne im Public Domain hätte, besteht grob etwa
– aus wissenschaftlicher und wirtschaftlicher Innovation
– plus kultureller Leistung im Sinne einer Kreation mit dem Ziel kultureller Vielfalt und
– Teilhabe am öffentlichen demokratischen Geschehen.

Darunter fällt sehr Vieles und sehr Unterschiedliches. Was nämlich ist genau gemeint, wenn von einer drohenden Verknappung des öffentlichen Gutes die Rede ist? Im vielen Bereichen gab es im Gegenteil wohl noch nie soviel Zugriffsmöglichkeiten wie jetzt; Präzisierungen sind also notwendig. Folgendes sind Vorschläge für mögliche Unterscheidungsebenen, die zwar isoliert betrachtet werden können, aber untereinander verbunden sind: Finanzierung, Bereich/Medium, Ausübung der Tätigkeit, Relevanz.

Finanzierung: Mithilfe welcher Finanzierungsmodelle entstehen Beiträge zum öffentlichen Gut? In welcher Weise, wenn überhaupt, ist der Staat daran beteiligt?

Beispiel: wenn die öffentliche Hand via Gehälter und Forschungszuschüsse an Hochschulen wissenschaftliche Arbeiten finanziert, ist es stossend, wenn die Resultate nachher ebendieser Öffentlichkeit nicht zugänglich sein oder sie in irgend einer Weise nochmals dafür bezahlen sollte. Aber warum umgekehrt soll eine frei schaffende Fotografin ihre Fotos nicht als Waren und Informationsprodukte betrachten, für deren Nutzung sie Gebühren erheben und damit handeln kann? Ihr einleuchtendes Interesse ist, Nutzungen der Bilder zu verkaufen. Hier ist doch das zentrale Anliegen, kulturell Tätigen die Möglichkeit zu geben, möglichst adäquate Wege bei der Vermarktung ihrer Inhalte einzuschlagen. Um die Neugier der Öffentlichkeit zu wecken, sind Proben des Schaffens auf dem Netz so oder so eine gute Sache; ob in diesem und ähnlichen Fällen über On-Demand-Geschäftsmodelle und CC Lizenzen oder mit dem herkömmlichen Urheberschutzschutz besser funktioniert werden kann, entzieht sich der Kenntnis der Schreiberin. Ein anderes Modell ist dagegen, wenn beispielsweise die Stadt Linz ab 1.01. 09 Werke mit einem Pauschalaufschlag von zusätzlichen 10% über dem von der Stadt erarbeiteten Fördervorschlag unterstützt, die unter einer freien Lizenz zugänglich gemacht werden (1).

Bereich/Medium: Für welche Bereichsfelder und Disziplinen sind CC Lizenzen attraktiv, für welche weniger? Auf welche Vorleistungen kann unter welchen Bedingungen zugegriffen werden?

Durch die Ablösung der Information von der materiellen Basis – mit der Digitalisierung – entsteht gelegentlich der Eindruck, als ob in Sätzen wie «Wissen und Information gedeihen nicht in einem Klima der Verknappung, sondern nur in einem Klima der Offenheit und Freizügigkeit, in dem allen der freie Zugriff zu fairen Bedingungen ermöglicht wird.» (2) jegliche Informationsform in jedem Bereich dasselbe wäre: Texte, Bild, Ton, Bewegtbild in Wissenschaft, Publizistik und Kultur, alles eins. Hier geschieht vielleicht eine allzu schnelle Gleichsetzung.

Dass beispielsweise Autoren von Texten weniger dringend auf CC Lizenzen gewartet haben, scheint nahe liegend: warum sollten sie denn? Was sie erschaffen, verfertigen sie selber oder sind zum Zitat verpflichtet. Wie viel Aufregung es verursacht, wenn hier gesamplet wird, hat im literarischen Bereich vor kurzem «Axolotl Roadkill» gezeigt. Umgekehrt aber ist etwa die Disziplin Film auf sehr viele Vorleistungen angewiesen: Story, Drehbuch, Musik, Kostüme, Ausgestaltungen von Innen- und Aussenräumen, ja selbst Elemente dieser Räume, wie Poster, Bilder, Kunst- und Bauwerke (in Frankreich gilt nicht einmal die Panoramafreiheit). Das macht vielleicht erklärlich, warum sie sich für offenere Lizenzformen stärker interessieren. Das berühmte Beispiel des nächtlichen Beleuchtungsdesigns des Eiffelturmes führt die Sache hier spürbar ins Absurde: es ist ebenfalls durch das Urheberrecht geschützt, sodass der Eiffelturm samt Beleuchtung ausserhalb des strikt Privaten nicht fotografiert oder gefilmt werden darf.

Ausübung der Tätigkeit: Wer professionell künstlerisch tätig ist, beispielsweise in Literatur, bildender Kunst, Musik, in einem Bereich des stehenden oder bewegten Bildes oder der verwandten Schutzrechte – oder auch journalistisch – hat in jedem Fall ein Interesse an einer Form von «Entlöhnung» für seine Werke. (Das war ja auch ursprünglich die Idee der fünf Verwertungsgesellschaften in der Schweiz: SUISSIMAGE, Société Suisse des Auteurs SSA, ProLitteris, SUISA, SWISSPERFORM). Wer heute aber mit welchem Modell tatsächlich besser fährt, ist vielleicht gar nicht so eindeutig. Klar ist, dass der arme Poet sicher möglichst wenig administrativen Aufwand haben möchte und normalerweise nicht über die zeitlichen Ressourcen verfügt, um diesen Rechts- und Wirtschaftsfragen sehr akribisch nachzugehen und daher mit Sicherheit ein möglichst einfaches System sucht. Natürlich sieht es anders aus, wenn jemand das nur als Freizeitaktivität betreibt – «nur» nicht in einem qualitativen, sondern eben im Gegensatz zu gewerbsmässig.

Wenn gelegentlich ganz allgemein vom «Widerstand gewisser etablierter Akteure» die Rede ist, könnte das in diesem Feld auch durchaus zynisch klingen: Die finanzielle Lage vieler im Kreativszenebereich ist bekanntermassen prekär.

Relevanz: Wie steht es bei den CC-Werken mit der Quantität, wie mit der Qualität? Welche relevanten Beiträge zum öffentlichen Gut werden von wem erbracht? Welche Kooperationsformen und Bedingungen sind dazu notwendig?

Das Problem, das die CC Lizenzen lösen sollen, kann nicht ernsthaft nur darin bestehen, dass irgendwelche anspruchslosen Freizeit-Filme nicht mit jeder Musik untermalt und einfach so auf YouTube gestellt werden dürfen. Es stellt sich vielmehr die Frage, von welcher Qualität die produzierten Inhalte sind und in der Folge, was davon ungehindert zirkulieren können sollte. Idealerweise wären es wohl Inhalte, die Voraussetzungen für eine Gesellschaft schaffen,  die über kulturelle Wurzeln verfügt und sich den gesellschaftlichen Fragen nicht entzieht – und darin zur Mitarbeit einladen.

Hier drängt sich beispielsweise die Frage nach Strukturen auf, die guten Journalismus (mit Qualitätskriterien wie Objektivität, fundierten Kenntnissen und Glaubwürdigkeit) ermöglichen und nach Formen und Modi, die den einen eine anständig bezahlte Arbeit ermöglichen und bei den andern die Bereitschaft abruft, ab einer gewissen Nutzungsintensität auch zu zahlen, wenn nur die Zahlungsmodalitäten unkompliziert wären.

1  Bestimmungen unter: http://www.freienetze.at/index.php?option=com_content&task=view&id=47&Itemid=37 (13.07.10)
2  auf netethics:
http://www.netethics.net/nethics_neu/n3/themen/wissensoekologie.htm (09.07.10)

Urheberrecht en detail

Nachdem wir uns in der Lesegruppe der Digitalen Allmend ausgehend von einem Grundlagentext zum Immaterialgüterrecht (1) die letzten beiden Male einmal allgemein mit Grundlagen des Immaterialgüterrechts und das andere Mal mit dem Urheberrecht befasst haben, hat der dritte Abend nochmals mit Einzelaspekten zum Urheberrecht begonnen.

Zwei davon sind vielleicht hier erwähnenswert: Zum einen ist im folgenden Beispiel – wie so oft beim Urheberrecht – das Prinzip eigentlich ein einfaches, der Teufel liegt dann aber juristisch offensichtlich in der konkreten Rechtssprechung. Das Prinzip: «Zulässig ist grundsätzlich die Verwendung eines veröffentlichten Werkes im persönlichen Bereich und im Kreis eng verbundener Freunde und zulässig ist auch die Verwendung durch eine Lehrperson für den Unterricht in der Klasse» (nicht bei Computerprogrammen).
Im Detail ist aber in der Schweiz – und da steht ein klärender Bundesgerichtsentscheid offenbar noch aus –, ob das «downloaden» in jedem Fall eine zulässige Privatkopie erstellt oder eben nicht.

Zum andern hat die so ein bisschen saloppe Anmerkung über die «schmerzlichen Umsatzeinbussen der Musikindustrie», die auf die Verbreitung von urheberrechtlich geschützten Werken über das Internet zurückzuführen seien, Ale völlig zu Recht wieder mal nach soliden Zahlen und Statistiken fragen lassen; dieser Sache sollten wir vielleicht einmal nachgehen.

Im weiteren Verlauf hat sich die Diskussion dann hauptsächlich an Fragestellungen erhitzt, wie sie sich aus der Reibung des bestehenden Urheberrechts und den Anliegen der digitalen Allmend – in diesem Bereich konkret mit der Förderung von CC-Lizenzen – ergeben.

Die Diskussion in der Gruppe hat schnell klar gemacht, dass es mindestens auf Produzentenseite Unterscheidungen braucht: die Situation ist nämlich für «Lehrer, Wissenschaftler, Schriftsteller, Fotografen, Filmschaffende, Musiker, Grafikdesigner und Web-Bastler» (2) keineswegs identisch: Forschung ist anders organisiert und finanziert als Kultur; Unterricht und die dafür benötigten Materialien sind sowieso ein Spezialfall; Presse ist nicht nur x-beliebiger «content», sondern dient dem Aufklärungsbedarf einer demokratischen Öffentlichkeit, etc. Wie mit diesem so ein bisschen unbehaglichen Sammelsurium umzugehen ist, müssten weitere Diskussionen klären.

(1) Markus Kaiser, David Rüetschi: Immaterialgüterrecht. Zürich, 2009. (in a nutshell)
(2) Zielgruppen CC gemäss eigenen Angaben:
http://de.creativecommons.org/faqs/#wen_spricht_antwort
(07.07.10)

Einführung ins Immaterialgüterrecht

Um die Zugkräfte auf die Zugänge zu digitaler Information besser zu verstehen, kommt man ja einfach nicht darum herum, sich mit den grundlegenden Prinzipien des Geistigen Eigentums vertraut zu machen. Die Lesegruppe der digitalen Allmend beschäftigt sich daher – obschon juristische Laientruppe – im Moment mit dessen rechtlichen Aspekten.

«In a nutshell» (zu deutsch: «kurz und bündig») heisst eine Reihe des Dike Verlages mit Publikationen aus allen Rechtsgebieten, die sich in erster Linie an Praktiker und Studierende richtet. Der Titel zum Immaterialgüterrecht (1), den wir uns vorgenommen haben, bietet mit seiner übersichtlichen und kompakten Darstellung aber auch für Nicht-Juristen einen gut lesbaren Überblick und scheint uns zum punktuellen Nachschlagen ebenfalls sehr empfehlenswert.

Die Autoren machen es sich zur Aufgabe, das Wesentliche zum Immaterialgüterrecht knapp und übersichtlich darzustellen; insofern gibt es hier wenig zusammenzufassen und kann mit allerbestem Gewissen auf den Text verwiesen werden. Der erste Teil, den wir bisher gelesen haben, gibt eine allgemeine Einführung –  was sind Immaterialgüter; weshalb Immaterialgüterrechte; was ist die Kritik daran; in welchem Verhältnis stehen sie zueinander – und einen Überblick über Rechtsquellen und Institutionen des Immaterialgüterrechts.

Interessant sind die beiden Ansätze für die Rechtfertigung des Schutzes geistiger Güter: der rechtsphilosophische sichere, so die Verfasser, grundsätzlich dem Schöpfer eines Werkes die Früchte seiner Arbeit zu und sei darin auch kaum zu bestreiten. Weil er aber in der praktischen Ausgestaltung der zu schützenden Rechte im Hinblick auf ihre konkrete Ausgestaltung (Schutzumfang, Schutzdauer, Definition von Ausnahmen, etc.) zu vieles offenlasse, werde heute in der Regel mit einer wohlfahrtsökonomischen Begründung operiert, die auf den wirtschaftlichen Nutzen der Allgemeinheit ziele. Unerwähnt bleibt dabei allerdings, dass auch diese Maxime nichts über die ganz konkrete Ausgestaltung sagt, wie ja aktuelle Diskussionen etwa über Dauer von Schutzrechten zeigen.

Dass in dieser generellen Einführung auch Kritikpunkte am Konzept des geistigen Eigentums (ungerechtfertigte Monopole und Machtballung, Ausbeutung der Länder der dritten Welt) erwähnt sind, spricht für die um neutrale Sachlichkeit bemühte Darstellung.

Selbst bei einem so knappen Überblick wird deutlich, dass Bedingungen, Motivationen, Abwägungen von Chancen und Risiken und entsprechend die Entwicklungslinien für ihren rechtlichen Schutz bei verschiedenen Immaterialgütern sehr unterschiedlich sind, wenn man beispielsweise an den Erfindungsschutz (Patentrechte), den Schutz geistiger Werke der Literatur und Kunst (Urheberrecht mit starker persönlichkeitsrechtlicher Komponente) und den Kennzeichenschutz (Markenrecht) denkt.
Das nächste Mal werden wir uns vertieft mit dem Urheberrecht beschäftigen.

Ob sich daraus irgendetwas für die aktuell geführte Diskussion zur Publikation wichtiger Dokumente des kulturellen Erbes auf der Website e-rara ableiten liesse, hätte die Schreiberin am meisten interessiert. Weil dies aber nun ja etwas wäre, wie wenn man einen Medizinstudenten des ersten Semesters zur Diagnostizierung von Symptomen eines akuten Kreislaufproblems heranlassen wollte, ist es, zumindest mit der Einführung allein, doch noch nicht zu bewerkstelligen.

1 Markus Kaiser, David Rüetschi: Immaterialgüterrecht. Zürich, 2009. (in a nutshell)