Einführung ins Immaterialgüterrecht

Um die Zugkräfte auf die Zugänge zu digitaler Information besser zu verstehen, kommt man ja einfach nicht darum herum, sich mit den grundlegenden Prinzipien des Geistigen Eigentums vertraut zu machen. Die Lesegruppe der digitalen Allmend beschäftigt sich daher – obschon juristische Laientruppe – im Moment mit dessen rechtlichen Aspekten.

«In a nutshell» (zu deutsch: «kurz und bündig») heisst eine Reihe des Dike Verlages mit Publikationen aus allen Rechtsgebieten, die sich in erster Linie an Praktiker und Studierende richtet. Der Titel zum Immaterialgüterrecht (1), den wir uns vorgenommen haben, bietet mit seiner übersichtlichen und kompakten Darstellung aber auch für Nicht-Juristen einen gut lesbaren Überblick und scheint uns zum punktuellen Nachschlagen ebenfalls sehr empfehlenswert.

Die Autoren machen es sich zur Aufgabe, das Wesentliche zum Immaterialgüterrecht knapp und übersichtlich darzustellen; insofern gibt es hier wenig zusammenzufassen und kann mit allerbestem Gewissen auf den Text verwiesen werden. Der erste Teil, den wir bisher gelesen haben, gibt eine allgemeine Einführung –  was sind Immaterialgüter; weshalb Immaterialgüterrechte; was ist die Kritik daran; in welchem Verhältnis stehen sie zueinander – und einen Überblick über Rechtsquellen und Institutionen des Immaterialgüterrechts.

Interessant sind die beiden Ansätze für die Rechtfertigung des Schutzes geistiger Güter: der rechtsphilosophische sichere, so die Verfasser, grundsätzlich dem Schöpfer eines Werkes die Früchte seiner Arbeit zu und sei darin auch kaum zu bestreiten. Weil er aber in der praktischen Ausgestaltung der zu schützenden Rechte im Hinblick auf ihre konkrete Ausgestaltung (Schutzumfang, Schutzdauer, Definition von Ausnahmen, etc.) zu vieles offenlasse, werde heute in der Regel mit einer wohlfahrtsökonomischen Begründung operiert, die auf den wirtschaftlichen Nutzen der Allgemeinheit ziele. Unerwähnt bleibt dabei allerdings, dass auch diese Maxime nichts über die ganz konkrete Ausgestaltung sagt, wie ja aktuelle Diskussionen etwa über Dauer von Schutzrechten zeigen.

Dass in dieser generellen Einführung auch Kritikpunkte am Konzept des geistigen Eigentums (ungerechtfertigte Monopole und Machtballung, Ausbeutung der Länder der dritten Welt) erwähnt sind, spricht für die um neutrale Sachlichkeit bemühte Darstellung.

Selbst bei einem so knappen Überblick wird deutlich, dass Bedingungen, Motivationen, Abwägungen von Chancen und Risiken und entsprechend die Entwicklungslinien für ihren rechtlichen Schutz bei verschiedenen Immaterialgütern sehr unterschiedlich sind, wenn man beispielsweise an den Erfindungsschutz (Patentrechte), den Schutz geistiger Werke der Literatur und Kunst (Urheberrecht mit starker persönlichkeitsrechtlicher Komponente) und den Kennzeichenschutz (Markenrecht) denkt.
Das nächste Mal werden wir uns vertieft mit dem Urheberrecht beschäftigen.

Ob sich daraus irgendetwas für die aktuell geführte Diskussion zur Publikation wichtiger Dokumente des kulturellen Erbes auf der Website e-rara ableiten liesse, hätte die Schreiberin am meisten interessiert. Weil dies aber nun ja etwas wäre, wie wenn man einen Medizinstudenten des ersten Semesters zur Diagnostizierung von Symptomen eines akuten Kreislaufproblems heranlassen wollte, ist es, zumindest mit der Einführung allein, doch noch nicht zu bewerkstelligen.

1 Markus Kaiser, David Rüetschi: Immaterialgüterrecht. Zürich, 2009. (in a nutshell)

Freiheit und Urheberrecht

Welche Diskurse und Denkströmungen haben zur Herausbildung des geistigen Eigentums geführt? Wie werden Urheberrechte legitimiert? Diese Fragen sind keineswegs nur von historischem Interesse. Sie spielen auch in aktuellen Auseinandersetzungen eine Rolle, in denen verschiedene Player ihre Interessen zu begründen versuchen.

Im Januar hat die Lesegruppe der Digitalen Allmend einen historischen Übersichtsartikel diskutiert. Nun wenden wir uns den Konzepten der Aufklärung und ihrem Einfluss auf das Urheberrecht zu. Die Ideen eilten der Rechtsetzung weit voraus. Während Fichte oder die Französische Revolution schon Ende 18. Jahrhundert wesentliche Elemente entwickeln, wird das Urheberrecht erst spät im 19. Jh als juristisches Konzept fixiert und dann auch in geltendes Recht umgesetzt.

In seinem Artikel stellt Luf heraus dass „der Mensch als Subjekt verantworteter Freiheit“ den Angelpunkt aufklärerischer Rechtsbegründung bildet (1). Den einen Pol bildet ein Bild des Menschen als Subjekt und Person. Den zweiten Pol stellt die Freiheit dar, die jeder Person in gleichem Masse zusteht. Nun wird Freiheit nicht einfach in Richtung Meinungsäusserung oder Mobilität im Raum spezifiziert, sondern eng mit Eigentum verbunden.

Eigentum wird als exklusive Verfügungsgewalt über Sachen konzipiert. Dies soll die Handlungsfähigkeit und Freiheit des Individuums konstituieren, indem eine Sphäre vor Eingriffen durch Dritte oder den Staat abgeschirmt wird. Der Sachbegriff und mit ihm das Eigentum wird nun weit über Materielles hinaus gefasst und umfasst die ganze rechtlich garantierte Handlungssphäre. Der Aufschwung dieser individualistischen Konzepte war im absolutistischen und ständischen 18. Jahrhundert revolutionär und wirkt bis heute weiter.

Es ist offensichtlich, dass dieser weite Eigentumsbegriff sich dafür eignet, auf kulturelle Produkte angewandt zu werden. In der naturrechtlichen Begründung von Eigentum blickt Locke auf einen imaginären Naturzustand. Über seine Person und das Werk seiner Hände „hat niemand ein Recht als nur er allein“. Indem ein Individuum einem gemeinsamen Gut etwas durch Arbeit hinzufügt, gewinnt es ein Recht an diesem Mehr. In der Diskussion haben wir festgestellt, dass hier nicht nur Konzepte des geistigen Eigentums, sondern auch die Arbeitswerttheorie eines gewissen Karl Marx andocken: Die Arbeiterklasse als soziales Subjekt schafft in der Arbeit Werte, von denen sie enteignet wird.

Ein weit gefasster Eigentumsbegriff hat keineswegs automatisch zu handhabbaren Vorstellungen geführt. Wie nun Werkbegriff, Urheberschaft oder Rechtsansprüche der Schöpfer zu fassen seien, darüber wurde das ganze 19. Jahrhundert lebhaft geforscht und gestritten. Vorarbeit am Werkbegriff leistete etwa Fichte. Er unterscheidet Ende 18. Jh in einem ersten Schritt das Körperliche (das Papier) vom Geistigen eines Buchs. Das Papier kann problemlos in Eigentum übergehen. Beim Geistigen unterscheidet Ficht erneut: Am Inhalt, an den transportierten Gedanken kann kein privates Eigentum begründet werden – es wird und bleibt Gemeingut. Die Form hingegen entspringt dem schöpferischen Prozess des Autors und begründet eine unveräusserliches Eigentumsrecht des Autors. Dieser Prototyp des Werkbegriffs entfaltete nur langsam seine Wirkung.

Ein temporäreres Grosslabor für neue Konzepte bildet die Französische Revolution, die mit dem Absolutismus auch die königlichen Druckprivilegien stürzt. Ein gesetzlicher Schutz des „propriété littéraire et artistique“ wird geschaffen. Künstlerische Werke werden als „die heiligste und persönlichste aller Formen des Eigentums“ gefeiert.

Bemerkenswert für weite Teile des 19. Jh ist die Tatsache, dass konzeptuell der Künstler in den Mittelpunkt rückte, dies aber lange nur als Angelpunkt für Regulierung von Verlagsinteressen diente. Erst spät im 19. Jh wurden die Rechte der Künstler in einer für diese selbst nützlichen Form gefasst.

Die hier diskutierten Konzepte von individueller Freiheit und individuellen Verfügungsrechten an geistigen Schöpfungen bilden eine machtvolle Begründungslinie für die Ansprüche von Kulturschaffenden. Sie lösen aber nicht die Problematik auf, wie diese Interessen mit anderen legitimen Interessen, etwa denen der Allgemeinheit, zu moderieren sind. Sie bestimmen auch keineswegs mechanisch, wie immaterielle Rechte ausgestaltet werden und wie weit sie reichen.

Bei intensivem Gespräch sind knisternde Kontroversen in der Lesegruppe diesmal ausgeblieben. Als spannende Frage ist stehen geblieben, ob und wie weit sich kritische Positionen in den letzten Jahren auch gegen die begründenden Basics von individuellen Schöpferrechten wenden – etwa Stallmann.

1) Luf, Gerhard: Philosophische Strömungen in der Aufklärung und ihr Einfluss auf das Urheberrecht, in Dittrich, Robert (Hg) Woher kommt das Urheberrecht und wohin geht es. Wien 1988.

Zur historischen Entwicklung von Urheberrecht und Geistigem Eigentum

Die Lesegruppe hat aus dem Report des European Communication Council ECC das Kapitel von Hannes Siegrist über die historische Entwicklung des Geistigen Eigentums gelesen. (1)

Siegrist betont gleich zu Beginn, dass es sich bei Autorschaft und Geistigem Eigentum um soziale, kulturelle und gesetzliche Konstrukte handle und setzt sich damit deutlich ab von jenen Betrachtungsweisen und Disziplinen, die den Autoren, das Werk oder das Geistige Eigentum ahistorisch als zeitlose, quasi natürliche Phänomene betrachten.

In der vormodernen Ständegesellschaft, so breitet es der Text dann aus, lag die Verfügung über Symbole und Formen von Wissen in der Hand weltlicher und kirchlicher Obrigkeiten; dieses Recht begründete sich aus Religion, Tradition und Gewohnheitsrecht. Herrscher, Päpste und freie Städte verliehen Privilegien: die Universitäten kontrollierten das medizinische und rechtliche Wissen, Zünfte das technische Wissen von Handwerkern und Kunstgewerblern, Handelsgesellschaften das Wirtschaftswissen. Dannzumal lag das Druck- oder Publikationsrecht bei Druckern und Verlegern – und nicht etwa bei den Autoren, die gerade nur gelegentlich belohnt wurden. Erst mit dem so genannten «Statute of Anne», dem eigentlichen Beginn eines Urhebergesetzes 1710 in England und ähnlichen Regelungen in Frankreich um dieselbe Zeit, wurde der Verfasser als gesetzlicher Urheber eines Werkes anerkannt. Damit wurde nicht nur der Autor über Drucker und Verleger gestellt, indem er per Vertrag die Rechte zur Reproduktion und Verbreitung seines Werkes abtreten konnte, es wurde auch die geistige Arbeit gegenüber Handels- und Handwerksarbeit höher gestellt; das Verhältnis zwischen materiellen und immateriellen Anteilen eines Werks war neu definiert.

Der Autor in einem modernen Verständnis als kreatives Individuum taucht dann aber erst in der Folge der Aufklärung auf: Die Ablösung von Traditionen und althergebrachten Mustern und ein Bewusstsein für das freie Denken bringen ihn in der zweiten Hälfte des 18. Jahrhunderts als Erfinder und Schöpfer von Werken eigentlich erst hervor.

Schriftsteller und Autoren haben sich in der Folge auch über die aufführenden Künstler und angewanden Künste gesetzt. Erst im Laufe des 20. Jahrhunderts wurde diese Hierarchie aufgrund von Veränderungen in der Arbeitsteilung in Theater, Film und Fernsehproduktion in Frage gestellt: Produzenten, Regisseure, Schauspieler und Musiker machten den kreativen Anteil ihrer Arbeit und den Anspruch an dessen Originalität mehr und mehr geltend. Das 20. Jahrhundert schliesslich hat eine völlige Umgestaltung dessen gesehen, was als Kreativität gilt: von der seltenen schöpferischen Begabung des Genies zu einem allgemeinen menschlichen Attribut. Parallel dazu kommen in der modernen, kommerzialisierten Massen- und Populärkultur immer mehr Werke verschiedenster Gattungen unter den Schutz eines Copyrights, die oft sogar nicht einmal den Anspruch an Originalität vertreten, beispielsweise elektronisch unterstützte Mixtures von Bild und Ton.

Der Historiker der Lesegruppe merkt zum geschichtlichen Abriss des Textes kritisch an, dass er da und dort gern genauere Beispiele und Daten gehabt hätte, die Siegrist hier zumeist schuldig bleibt. Der Text ist tatsächlich sehr summarisch, zeichnet aber anschaulich und lesbar die groben Entwicklungslinien nach.

Kein Blick in die Zukunft: Die historische Forschung zeige – Siegrist weist mehrfach darauf hin – dass das Prinzip des Geistigen Eigentums eigentlich nie nur der Abgeltung der Autoren gedient habe, sondern dass der Zweck immer gleichfalls war, das dynamische Zusammenspiel von Kultur, Gesellschaft und Wirtschaft sicher zu stellen und einen Ausgleich zwischen den Rechten der Autoren, der Verleger und dem öffentlichen Interesse zu schaffen. (So sprach schon der «statute of Anne», der eigentliche Meilenstein in der Urheberrechtsgeschichte, einem Schriftsteller zwar ein urheberrechtliches Eigentum an seinem Werk zu, das für die nächsten 14 Jahre gesichert sein sollte. Dazu war eine Erneuerung seiner Rechte um weitere 14 Jahre möglich, solange der Autor noch lebte.) Gleichzeitig wurde aber damit auch schon der «Public Domain» geschaffen, was bedeutet, dass der Eigentümer des Urheberrechts nach Ablauf dieser Zeit auf den Gebrauch seines Werkes keinen Einfluss mehr hatte.
Befürchtungen, dass Konzepte des Geistigen Eigentums aus der Kontrolle geraten und das Ende jeder Autorschaft bevorstehe, können also durchaus in dieser Tradition der Kontroversen, aber auch Bemühungen um den Ausgleich zwischen individuellem und öffentlichem Gut gelesen werden. Das Veränderungspotential der Digitalisierung und des Internets ist aber auch in diesem Bereich gewaltig und äusserst dynamisch. Nicht nur wird die vorherige Zuschreibung von Wissen, Fähigkeiten, Fertigkeiten und Werken zu traditionellen Berufsständen und Inhabern mehr und mehr in Frage gestellt und ist der Schutz entlang nationaler Grenzen kaum mehr zu gewährleisten. Wenn der Wert einer Autorschaft heute weniger durch deren intellektuelle Errungenschaft bestimmt wird als durch die Nachfrage, verändern sich auch soziale, ökonomische und kulturelle Rangordnungen. Wie unter diesen veränderten Bedingungen produktive Begleichungen zu gewährleisten wären, lässt der Text verständlicherweise offen.

1 Hannes Siegrist: The History and Currrent Problems of Intellectual Propery (1600-2000); in: Axel Zerdick … et al.: E-Merging Media. Communication and the Media Economy of the Future. European Communication Council Report. Berlin, 2005. (D: E-Merging Media. Kommunikation und Medienwirtschaft der Zukunft. Berlin, 2004).

European Communication Council ECC: Gruppe vorwiegend europäischer Kommunikationswissenschaftler. Der erste ökonomisch ausgerichtete Bericht «Die Internet-Ökonomie – Strategien für die digitale Wirtschaft» erschien 1999 als European Communication Council Report und befasste sich mit dem Einfluss neuer Technologien auf die Medien- und Kommunikationsindustrie. Dieser dritte Bericht des ECC untersucht aus unterschiedlichen Blickwinkeln den Wandel der Medienlandschaft.

Hannes Siegrist: Prof. Dr. habil., Universität Leipzig, Bereich vergleichende Kultur- und Gesellschaftsgeschichte

Schockwellen von Google Books

Die NZZ sieht ein Menetekel auch über der Buchbranche lasten, nachdem die Musikindustrie durch Tauschbörsen „an den Rand des wirtschaftlichen Ruins getrieben wurde“ (21.7.09). Das mag die lebhaften Kontroversen erklären, welche das „Google Book Search Copyright Settlement“ begleiten. Die Lesegruppe der Digitalen Allmend hat die Problematik anhand von einigen Zeitungsartikeln am 12. Oktober diskutiert.

Das Potential der digitalen Präsentation von Büchern wird seit Jahren diskutiert und ansatzweise auch ausgeschöpft. Zivilgesellschaftliche Initiativen bereiten ältere Texte auf. Die Staaten als Hüter des kulturellen Erbes wurden ebenfalls tätig. Allerdings zeigten sich in den letzten Jahren die Grenzen. Weder die EU mit dem Projekt ‚Europeana‘ und noch ansonsten kulturbeflissene Staaten wie Frankreich waren bereit, mehr als ein paar finanzielle Peanuts in die Hand zu nehmen. Obwohl ein paar hundert Millionen Euro reichen würden, um grosse Teile des literarischen Erbes eines Landes digital aufzubereiten, setzt die Politik andere Prioritäten.

Google stösst also mit seinem Projekt der Buchdigitalisierung in ein Vakuum vor und das kann man einem Konzern schlecht zum Vorwurf machen. Die strategische Positionierung als Content-Drehscheibe dürfte dem Werbegeschäft zugute kommen. Wie legitime Interessen von AutorInnen und Öffentlichkeit gewahrt werden können, ist Gegenstand laufender Auseinandersetzungen.

Weniger problematisch ist die Digitalisierung alter Werke. Hier vereinbaren Bibliotheken im Rahmen von Digitalisierungsprojekten mit Google, dass sie eine eigene Kopie des digitalen Inhalts bekommen und zur Verfügung stellen können. Hier haben wir diskutiert, ob es nicht eine öffentliche Aufgabe sein soll, ein zentrales Portal für den leichten Zugang zu diesen Inhalten aufzubauen.

Im Zentrum der Auseinandersetzungen um das Google Settlement steht einerseits das Vorgehen des Konzerns, ausgehend von der Festung USA die weltweiten Kulturproduzenten vor vollendete Tatsachen zu stellen. Andererseits die Modalitäten der Präsentation und vor allem die Entschädigungsfrage. Der anfängliche Schock ist einer differenzierteren Haltung gewichen. Es ist ja nicht so, dass die Mehrheit der AutorInnen in den letzen Jahrzehnten in einer paradiesischen Lage befand, die Google nun zu zerrütten droht.

Vielmehr ist die Lage für viele eher prekär und auch publizistisch unbefriedigend. Etwa im Fall eines Autors, der in den 90er Jahren mal ein Sachbuch mit ein paar tausend Auflage verkaufen konnte, das nun aber weder neue aufgelegt wird noch irgendwelche Tantiemen abwirft. Die Möglichkeit, dass der technische Wandel im allgemeinen und Google im besonderen die Prekarisierung weiter verschärfen können, ist nicht von der Hand zu weisen.

So begreiflich ein gewisse Nervosität ist, so wenig hilfreich erweist sich ein Rundumschlag wie der ‚Heidelberger Appell‘. Da wird auch der ‚Open Access‘ Gedanke frontal attackiert. Das erscheint uns angesichts der Tatsache, dass an Hochschulen gut bezahlte Staatsangestellte wissenschaftliche Texte produzieren, ziemlich überzogen. Die Öffentlichkeit zahlt, sie entscheidet auch die Modalitäten der Publikation.

Die Auseinandersetzung geht weiter. Entgegen allen Erwartungen geht das Google Book Settlement nicht einfach über die Bühne. Ein erster Termin wurde annulliert. Das zuständige Gericht soll auf Antrag der Parteien am 6. November eine Standortbestimmung vornehmen (NZZ 23.9.09).

Googeln – und Alternativen

Was ist der Stellenwert von Suchmaschinen im Allgemeinen und von Google im Besonderen? Wo sind bedenkliche Aspekte zu diskutieren? Wie sehen Alternativen aus? Diese Fragestellungen haben wir in der Lesegruppe am 14. September diskutiert.

Eine Feststellung ist wenig umstritten. Die weitläufige und unübersichtliche Ansammlung von Objekten im Internet macht Suchmaschinen unverzichtbar. Google erfüllt hier – genau wie andere Angebote – eine produktive Funktion. Suchmaschinen erschliessen, sie schaffen keinen Content. Geschäftsmodelle, die auf Suchmaschinen aufsetzen, weisen einen gewissen parasitären Aspekt auf. Sie basieren auf inhaltlicher Kulturarbeit, die von Dritten geleistet wurde, ohne dass diese am Geldfluss der Suchmaschine beteiligt werden. Allerdings werden sie als Gegenleistung den Suchenden präsentiert.

Kreation und Erschliessung von Inhalten sind zwei paar Schuhe. Letzeres kann voll automatisiert durch die mechanische Anwendung von Algorithmen geschehen. Und Vollautomatisierung gehört zu den Dogmen von Google: Man will Systeme laufen lassen, nicht Inhalte produzieren.

In einer Pionierphase wurden Suchmaschinen ohne Geschäftsmodell aufgebaut. Dann kam rasch die Idee au, Werbung zu schalten. Das geschah in Form bunter Bildchen und massloser Userbelästigung. Hier setzte nun Google an und wählte ein zurückhaltenderes, von den BenutzerInnen eher akzeptiertes Layout. Ein wesentlicher Grund für den Aufstieg zur Nummer eins.

Mit kritischen Aspekten der Google-Dominanz setzt sich Gerald Reischl im Buch „Die Google Falle“ auseinander. Er nennt Indizien dafür, dass Google die Systeme nicht absolut autonom werkeln lässt, sondern im Interesse guter Geschäftsbeziehungen durchaus für einen wichtigen Werbekunden unterstützend eingreift und die Suchergebnisse beeinflusst. Wie weit das geschieht und wie relevant das für die Suche ist, konnten wir in der Diskussion nicht wirklich einschätzen. Auch wenn nicht von permanenten massiven Manipulationen ausgegangen werden muss, sind die Intransparenz und die verdeckten Eingriffsmöglichkeiten ein Ärgernis.

Ein zweiter Konfliktbereich ist der Datenschutz. Wenn Suchmaschinen mit universellen Mechanismen auf Datenbestände mit grösstenteils niedriger Qualität losgehen, lassen die Ergebnisse häufig zu wünschen übrig. Um die Qualität der Suche zu verbessern, implementiert Google ein weitreichendes User-Tracking. So werden nicht nur Infos in Browser-Cookies abgelegt. Die können auch mit Informationen aus anderen Google-Services verknüpft werden. Google sammelt riesige Datenmengen über User und ihr Verhalten, was natürlich für das Werbegeschäft Gold wert ist. Reischl weist darauf hin, dass im Bereich User-Tracking emsiges Patentieren im Gang ist. Die Forscher und Firmen suchen dabei mit der Wortwahl jede Assoziation an Big Brother zu vermeiden. Die Rede ist von Tokenization oder Statistik (1). Wenn Reischl „das totale Wissen über den Nutzer“ als ein Ziel von Google nennt, ist das vielleicht etwas überzogen. Diskussions- und regulationswürdig erscheint das aber schon.

Interessant sind Ansätze zur Verbesserung von Suchergebnissen, die Reischl unglücklicherweise unter dem Thema „semantisches Web“ fasst. Gemeint sind Versuche, auf Seite der Suchmaschine mit computerlinguistischen Ansätzen die Qualität der Indexierung zu verbessern und in die Richtung formulierter Antwort auf Fragen zu gehen. Nach Ansicht der Diskutierenden würde das Semantische Web in erster Linie auf Seiten der Angebote implementiert, wo die Objekte mit systematischer Metainformation angereichert würden. Das wäre menschliche Kulturarbeit (soweit es von Hand geschieht). Was Google mit den erweiterten Ansätzen tut, ist eben keine Bedeutungskreation. Maschinen reorganisieren Bytes.

Im zweiten Teil der Diskussion haben eines Webdokuments (2) einen Blick auf Dutzende von Alternativen zu Google geworfen. Hier gibt es sehr interessante spezialisierte Angebote. Meistens sind das Varianten des Prinzips Suchmaschine.

Grundlegende Alternativen sind andere Mechanismen, welche die disparate Welt des Internets erschliessen. Ein Mechanismus ist der direkte Verweis auf Inhalte aus Chatnetzen oder Mailinglisten. Hier wird Bekannten oder einer Community vertraut, die auf einen Inhalt zeigen. Auch bestimmte Medien, digital oder nicht, können weitere Inhalte erschliessen und Links liefern. Diese Mechanismen führen wie Suchmaschinen auf erwünschte Seiten hin, aber anders als Suchmaschinen. Durch Sinnerzeugung in einem soziokulturellen Prozess, nicht durch Festplattengeratter.

Suchmaschinen sind unverzichtbar. Mit Blick auf unsere Alltagserfahrungen haben wir noch festgestellt, dass Suchmaschinen ausgerechnet dort schwach sind, wo das Angebot gross ist. Etwa bei Hotels in einer Grossstadt. Es gibt das Zimmer, das Du suchst. Nur zeigt es Google nicht.

1) Gerald Reischl: Die Google-Falle: die unkontrollierte Weltmacht im Internet. Ueberreuter 2008. S. 44
2)
Beyond Google: Cool Search Engines And Search Tools You May Have Not Heard About – A Mini-Guide 

Google zum ersten: Geschäftsmodell und Serviceangebote

Lars Reppesgaard, freier Journalist in Hamburg, hat 2008 ein Buch über Google als Firma und Prinzip vorgelegt, das einen guten Einblick in Entwicklung und Geschäftsstrategien des Suchmaschinenriesen gibt (1). 

Abwechslungsreich und seriös geschrieben handelt es sich dabei weniger um eine sehr tief gehende Analyse des Google-Imperiums, sondern eher um eine Geschichte, die die Firma über ihre Kultur, Praktiken, Gründer und Mitarbeiter  plastisch macht; heiklere gesellschaftlich-politische Themen wie Datenschutz und Privatsphäre werden gestreift, der Fokus liegt aber auf den geschäftlichen und wirtschaftlichen Strategien. Bereits das Inhaltsverzeichnis gibt einen Überblick über all die Google-Applikationen, die es bis anhin gibt. Der Autor verhehlt auch keineswegs, dass Google bei den meisten keineswegs die Erfinder waren, aber die besseren Zweiten, denen es gelingt, die Fehler der Konkurrenz konsequent zu vermeiden.

Das zweite Kapitel «Der Kampf um die ersten Plätze» beleuchtet denn auch schon den Kern von Googles Geschäftserfolg, die online-Werbung. Die Lesegruppe der digitalen Allmend nahm es zum Ausgangspunkt, Googles Geschäftsmodell und Serviceangebot im Werbemarkt zu diskutieren.

Interessant daran ist ja folgendes: Während Google in der Öffentlichkeit vor allem als Suchmaschine wahrgenommen wird, ist es weit eher eine Werbe- und Verkaufsmaschine, wenn man zum Massstab nimmt, womit der Geschäftserfolg erwirtschaftet wird. Einnahmen werden also erst mit einem Sekundärmechanismus generiert, eben mit der «Geldmaschine Onlinewerbung» (so der Untertitel des Kapitels), während die eigentliche Suche für den Nutzer kostenfrei bleibt.

Zwei Mechanismen werden im Folgenden genauer beschrieben: Adwords und Adsense. Adwords ist das Programm, das bei einer Suchabfrage mit Google auf der Ergebnisseite rechts die kleinen vierzeiligen Textannoncen platziert.  Jedes Mal, wenn die suchende Person anstatt eines Links aus der Ergebnisleiste ein bezahltes Inserat anklickt, wird eine Provision an Google fällig. Adsense stimmt Anzeigen auf die Inhalte von Webseiten ab, die nicht direkt zu Google gehören. Jeder der eine Internetseite, einen Blog, ein Ratgeberportal oder was immer betreibt, kann sich für das Programm anmelden; auch professionelle Online-Angebot wie dasjenige der Süddeutschen Zeitung nutzen das Angebot, um Geld zu verdienen und Aufwände zu refinanzieren.

Weil das automatisierte System, mit dem passende Anzeigen neben die eigentlichen Suchergebnisse gestellt werden, ebenfalls sehr treffsicher ist, sind die Klickraten – und entsprechend die Gewinne – hoch. Dass die Anzeigen so gut passen, macht ein ausgeklügeltes Positionierungssystem möglich, das verschiedene Parameter anhand mathematischer Verfahren gewichtet: neben Stichworten, die vom Anzeigekunden bestimmt werden, sind es Klickraten (wenig angeklickt scheint für die Surfer weniger interessant und rutscht nach unten), geografische Zuordnungen und andere statistische Auswertungsverfahren, etwa die Ladezeit.

Die Diskussion in unserer Gruppe hat erbracht, dass wir selber die Kleinanzeigen rechts meistens eher ignorieren. Hin und wieder einmal können sie jedoch durchaus hilfreich sein auf der Suche nach einem speziellen Produkt (als Beispiel dient eine Luftwärmepumpe), etwa um einen lokalen Anbieter  kennen zu lernen. Weiter haben wir uns gefragt, ob es heikle Anwendungen gibt, Beispiel: Angebote für Kleinkredite. Ausprobieren zeigt, dass mit «Kleinkredit/Zürich/diskret» sofort 8 Werbeinserate erscheinen (auf Wunsch mehr). Ein weiterer Klick präzisiert, was ein Betrag von CHF 20000 über 12 Monate pro Monat kostet (zuviel!) und auf der gleichen Seite erscheinen auch gleich die unbestreitbar tröstlichen Vorteile: Erlass der Restschuld im Todesfall. Ob allerdings Kleinkredite übers Netz problematischer sind, nur weil man sie auch über Googles Werbeanzeigen findet, ist aber doch zu bezweifeln.

Der Vorteil für die werbenden Unternehmen – und für die Marketingindustrie, der sich da ein neues Betätigungsfeld aufgetan hat: Suchmaschinenmarketing und -optimierung, Web-Analytics, E-Business Beratung, Virales Marketing, Online-Werbung und ähnliches – ist ein ausgebautes System von Softwarelösungen: von der Evaluation über die Auswertungen von Benutzerverhalten bis zur laufenden Optimierung, etwa der Keywörter, die Besucher auf die eigene Website ziehen sollen. Ob der einzelne Werbefranken hier tatsächlich mehr bewirkt als an der Plakatwand, dürfte trotzdem schwer zu erheben sein; offensichtlich verbreitet ist aber die Hoffnung, dass man mehr Kontrolle hat.

Der Text wagt auch einen Blick in die Zukunft: Die Bedeutung des Onlinewerbemarktes ist immer noch gering, im Verhältnis zur Summe die insgesamt für Marketing ausgegeben wird, handelt es sich laut Reppesgaard um ca 5%. Google hat im Suchbusiness, kombiniert mit Anzeigen, eine hohe Marktsättigung erreicht; offenbar liegt sie in Europa bei deutlich über 90%: die Wachstumsmöglichkeiten sind da also begrenzt. Die Strategie von Google wird es daher sein, die technologischen Errungenschaften aus dem Online-Geschäft auf andere Werbebereiche (Radio, Fernsehen, Print und neue Formen wie interaktive Displayflächen) zu übertragen: mit Hilfe von Software Anzeigen so zu platzieren, dass sie einen engen Bezug haben zum Kontext, in dem sie stehen (Beispiel sind etwa die von MINI USA versendeten Chips mit Radiofrequenz-Identifikation (RFID), auf die interaktive Displayflächen mit einer persönlichen Nachricht für die Fahrer reagieren), Kampagnen in Echtzeit zu analysieren und sie gegebenenfalls zu verändern und Preise je nach Nachfrage automatisch über Auktionen festzulegen. 

 

1) Lars Reppesgaard: Das Google-Imperium. Hamburg, 2008

Ökologie der Information

In seinem Buch «The Public Domain» fordert James Boyle „an environmentalism for information“ – ein Ökologie(bewegung) für Information. Dabei sucht er einen Weg zwischen allgemeinen Konzepten einerseits und konkreten Forderungen andererseits (1).

Im entsprechenden Kapitel 10 geht Boyle von der Frage aus, was denn eigentlich zu den unpraktischen und behindernden Einschränkungen bei Regulierungen zum geistigen Eigentum führt. Dabei ortet er kognitive Voreingenommenheit als wichtige Ursache: Er spricht von kultureller Phobie gegenüber Offenheit – von Agoraphobie. Diese Haltung führt dazu, immer die Bedenken und Risiken (wie Spam, Viren, Piraterie) in den Vordergrund zu rücken. Als Beispiele nennt der Autor Trusted Computing und Netzneutralität. Boyle räumt durchaus ein, dass Offenheit nicht immer angemessen ist. Als Grundhaltung hilft sie aber, das Potential von Wissenschaft und Kultur zu entfalten.

Die Lesegruppe der Digitalen Allmend diskutiert, wie weit Agoraphobie wirklich eine Mainstreamhaltung des westlichen Mittelstands sei. Immerhin sind ja auch zahlreiche Menschen bereit, in Bewegungen und Vereinen eine Reihe von Leistungen und Publikationen gratis und ohne Kontrolle in die Öffentlichkeit zu entlassen.

Boyle nimmt seine Agoraphobie-These zum Ausgangspunkt, um eine Ökologie der Information zu skizzieren, die sich in Inhalt und Form an der Umweltbewegung orientiert. Er ruft Elemente wie die Forderung nach der Internalisierung externer Kosten in Erinnerung, ohne sie im Detail auf die Informationsfreiheit zu übertragen. Ihn interessiert mehr die Entstehung einer Bewegung, welche sich für die öffentlichen Interessen der Informationsgesellschaft einsetzt – gegen starre Vorurteile und verfestigte Geisthaltungen.

Wie in der Diskussion vermerkt wird, bleiben die konkreten Forderungen des Autors ziemlich moderat, verglichen mit dem gross angelegten Konzept einer Informationsökologie. So möchte Boyle das Copyright bei Literatur auf zwanzig Jahre beschränken, dann aber eine Erneuerung auf Antrag zulassen. Als Fehlschlag im Geiste von engstirnigen politischen Interessen und Geisteshaltungen taxiert er die Europäische Datenbankdirektive. Die Aufhebung von Pharmapatenten hält er für eine schlechte Idee.

Boyle ist also weder Fundi noch Anhänger eines ‚anything goes‘. Er will konkrete Probleme angehen – mit „Ausgewogenheit, Nachdenklichkeit und empirischen Belegen“ (S. 238).

 

1) The Public Domain. Enclosing the Commons of the Mind. James Boyle, New Haven Ct, 2008. Der Autor macht das Buch auch verfügbar unter einer Creative Commons Lizenz: http://thepublicdomain.org

Gemeinfreiheit des Geistes

In seinem Buch «The Public Domain» (1) beschreibt James Boyle, Rechtsprofessor an der Duke University School of Law und Mitbegründer von Creative Commons, die aktuellen Kämpfe um die Rechte des geistigen Eigentums und bezeichnet sie gar als «Gebietskriege des Informationszeitalters».

Unsere Musik, unsere Wissenschaft, unser wirtschaftliches Gedeihen, ja unsere gesamte Kultur würden abhängen von der heiklen Balance zwischen jenem Ideengut, das jemand besitzt und kontrolliert und jenem, das öffentlich und frei ist. Natürlich sei der Schutz des Geistigen Eigentums wichtig, so dann des Autors Position, der aktuelle Umgang mit den Rechten aber unausgewogen: eine allzu wegschliessende Geste von «Symbolen, Themen, Fakten, Genen und Ideen». Boyle prognostiziert für die aktuelle Praxis fatale Auswirkungen auf die freie Rede und Kreativität, zukünftige Bildung und wissenschaftliche Innovation.

Dabei geht es ihm erst einmal um Aufklärung: Er argumentiert, dass – genauso wie jeder informierte Bürger, jede Bürgerin wenigstens ein Minimum über Umwelt, Wirtschaft oder Bürgerrechte wissen müsse – auch alle etwas vom Prinzip des Geistigen Eigentums verstehen sollten, eben weil es dabei um Regelungen zum grundlegenden Gut der Informationsgesellschaft gehe. Als eines der Hauptprobleme identifiziert er das «weit verbreitete Nichtverstehen» der Bedeutung des «Public Domain» –  also der Gesamtheit des geistigen Kollektivgutes und Materials, das jedermann ohne weitere Genehmigung und ohne Kosten frei benutzen und weitergeben darf. Der «Public Domain» müsse im öffentlichen Verständnis als Wissensallmende und Gemeingut der modernen Informationsgesellschaft in einem gewissen Sinn erst erfunden und etabliert werden, bevor wir ihn schützen könnten – in dieser Hinsicht durchaus analog zur «Umwelt» und den Bemühungen um ihren Schutz.

Das erste Kapitel «Why Intellectual Property», das die Gruppe gelesen hat, verfolgt erst einmal die (guten) Gründe für Schutzregelungen. Während viele materielle Güter nach Bedarf erzeugt werden und sich ihr Preis an der Schnittstelle von Angebot und Nachfrage ergibt, stellen sich Probleme des Marktanreizes bei jenen, die aufwendig in der Entwicklung, aber billig zu kopieren sind. Wer würde beispielsweise die langwierige Entwicklung von wirksamen Medikamenten auf sich nehmen? Solche Güter schütze der Staat via den «Markt-schaffenden Kniff» des intellektuellen Eigentums (2): vor allem durch Patente und Copyrights. Gerade der Vorteil von Patenten sei doppelt: Durch die Möglichkeit, Entwicklungsaufwände wieder einzuspielen sicheren sie einerseits einer Erfindung überhaupt erst eine gewisse Lebenschance, durch ihre Registrierung verhindern sie andererseits, dass innovatives Wissen geheim gehalten und damit der Gesellschaft entzogen sei.

Etwas anders noch stellt sich die Problematik schützen/frei lassen bei kulturellen Gütern, wie etwa Musik, Bilder, Texte, Filme, literarische Werke, die – heute oft gar nicht mehr an materielle Publikationsformen gebunden – durch den Gebrauch nicht etwa weniger werden, sondern durch ihre Verwendung und Vervielfältigung via Internet und mittels der verblüffenden Informationsverarbeitungskapazität von Millionen von Menschen die Chance auf neue Gebrauchszusammenhänge erst eröffnen. Im ungünstigen Fall aber, etwa als «orphan works» (verwaiste Werke, deren Urheber oder Rechtsinhaber nicht oder nur sehr schwer zu ermitteln ist) stellen sie ein Problem dar, da eine Nutzung, die die Zustimmung des Urhebers oder der Rechteinhaber voraussetzt, nicht möglich ist. Das ist eines der Beispiele, die der Autor anhand der Library of Congress etwas breiter ausführt; hier schreibt er dann explizit an gegen unsinnige Copyright Bestimmungen und das, was er als Exzesse des Rechtes auf Geistiges Eigentum ansieht.

Die Gruppe stimmt ihm grundsätzlich zu und die Diskussion beschäftigt sich in der Folge einige Male mit dem, was wir eben nicht so genau wissen: Einerseits geht es um ein Auseinanderhalten von sehr verschiedenen Rechten im Zusammenhang mit dem Geistigen Eigentum: copyright, patent und trademark. (Was z.B. ist genau patentierbar bei der Software-Entwicklung, das Verfahren? Ist das Urheberrecht ebenfalls so ein «Markt-schaffender Kniff»?) Dann sind historische Entwicklungen, und Bedeutungen einzelner Aspekte in den USA zuverlässig verschieden von europäischen (in den USA wird offenbar seit längerem heftig über orphan works debattiert; Relevanz bei uns, z.B. wissenschaftlich?). Und nicht zuletzt kann die Bedeutung englischer Begriffe wie «Copyright» und «Public Domain» nicht ohne weiteres auf die deutschen Begriffe «Urheberrecht» und «Gemeinfreiheit» übertragen werden (Neben «Public Domain» als «Gemeinfreiheit» bezeichnet der Begriff gelegentlich offenbar auch Werke, «deren Urheber mindestens einer nichtkommerziellen Verbreitung zugestimmt hat» (3). So ist das rechtliche Prinzip des Copylefts – zumindest gemäss dem, was die Schreiberin nachgelesen hat  – «nicht vereinbar mit dem der Gemeinfreiheit, da Copyleft auf das Urheberrecht aufbaut, anstatt wie die Gemeinfreiheit darauf zu verzichten.… «Public Domain» ist «keine Lizenzvariante, sondern der generelle Verzicht auf eine Lizenzforderung». (3))

Der Text liest sich anschaulich und wir wollen es gern noch etwas genauer wissen. Beschluss: ein zweites Kapitel wird gelesen.

 

1 The Public Domain. Enclosing the Commons of the Mind. James Boyle, New Haven Ct, 2008. Der Autor macht das Buch auch verfügbar unter einer Creative Commons Lizenz: http://thepublicdomain.org

2 («market-making» device) der Autor zitiert hier seinen Kollegen Jerry Reichmann

3 http://de.wikipedia.org/wiki/Gemeinfreiheit (02/05/09)

Amateuer Kult

Auf dem Höhepunkt der Web 2.0 Verklärung ist Andrew Keen der Kragen geplatzt. Er ist 2007 mit einer lebhaft geschriebenen Polemik auf den Plan getreten – gegen den „Cult oft he Amateur“ (1).

Keen selber ist als Aktivist und Unternehmer in der Internet-Kulturszene tätig und entwickelte ein Musikportal. Ihm schwebte vor, das Internet zu einem technischen Verteilkanal von Kultur in einem breiten und herkömmlichen Sinn zu machen. Dazu gehört für ihn eben auch Hochkultur und etwa klassische Musik.

Die Wende kam für Keen im September 2004 an einem von Medien-Millionär und Web 2.0 Verkünder Tim O’Reilly veranstalteten Camp. Da trafen sich gemäss Keen rund 200 „ergrauende Hippies, neue Medienunternehmer und Technologie Fans“ um das Hohelied des Usercontents auf dem Internet anzustimmen. Keen konnte sich mit der Verklärung des Amateurs nicht anfreunden und hat mit dieser Strömung gebrochen.

Keen zeigt sich besorgt um die Qualität des öffentlichen Diskurses. Das postulierte Verschwimmen der Autorposition und die geringe Transparaenz zersplitterter Publikationen wie der Blogs öffnet Tür und Tor für Manipulationen etwa durch intransparente Lobbys. Aus dem Web 2.0 strömen „dubiose Inhalte aus anonymen Quellen, die unser Zeit in Anspruch nehmen und auf unsere Leichtgläubigkeit abzielen“.

Eine weitere Kritik richtet sich gegen den Demokratisierungsanspruch der Web 2.0 VertreterInnen. Demokratisiert werden sollen nicht nur Autorschaft, Information, Wissen oder Kultur – sondern dank dem Internet auch Big Media, Big Business und Big Government. Keen sieht in einer solchen Konzeption von Demokratisierung eine Unterminierung von Wahrheit und Fachwissen.

So berechtigt sich über die aufgeblähten Ansprüche von Web 2.0 Konzepten streiten lässt, so schwach ist Keens Ansatz, hier mit einem naiven Wahrheitsbegriff zu operieren. In der Diskussion wurde betont, dass Demokratisierung eher am Begriff der Partizipation gemessen werden muss: Entwickeln sich Formen von Beeinflussung des öffentlichen Diskurses und gesellschaftlicher Entscheidungen? Davon kann in der Tat auf weiten Teilen des Web 2.0 keine Rede sein.

Keen identifiziert als weitere problematische Tendenz, dass Amateurpublikationen wie Blogs oder Wikipedia die Aufmerksamkeit und die ökonomische Basis von professioneller Kulturarbeit abziehen, wie sie etwa von Enzyclopedia Britannica oder Qualitätszeitungen geleistet wird.

Keens Kritikpunkte erscheinen relevant und fulminant, seine Positionen aber etwas unbedarft. Er neigt zu einem schlichten Vorzeichenwechsel. Pauschale Verherrlichung der neuen medialen Formen wird durch pauschale Niedergangsrhetorik ersetzt. Keen verpasst es auch, die Zivilgesellschaft zu würdigen und die Chancen anzusehen, welche neue Medien hier eröffnen.

Die Positionen in der Diskussion der Lesegruppe neigen zu mehr Pragmatismus. Wo problematische Entwicklungen in der politischen Kultur vorliegen oder Qualitätsmedien unter Druck geraten, kann dass nicht einfach den neuen medialen Formen angelastet werden.

Da müsste umfassend diskutiert werden, ob es im tonangebenden Mittelstand ein kulturelles Race to the Bottom gibt. Wenn es zutreffen sollte, dass die funktionale Elite sich boulevardisiert und beispielsweise Banker die Derivatemathematik auf Hochschulniveau betreiben, Allgemeinbildung aber aus digitalen, analogen oder papierenen Sensationsmedien bezieht: Dann haben wir vielleicht ein Problem.

 1) Andrew Keen: The Cult of the Amateur: How Today’s Internet is Killing Our Culture. Boston, London 2009.

Partizipationsformen im Web 2.0

Das Buch von Roberto Simanowski (1) untersucht gegenwärtige Phänomene der digitalen Medien –Weblogs, Werbung, Identitätstourismus, interaktive Kunst – vor dem Hintergrund einer postmodernen Spass- und Erlebnisgesellschaft. Eine Fülle von Beispielen macht es zum Fundus für verschiedene Auseinandersetzungen; kulturelle, künstlerische und utopische Aspekte werden ebenso aufgenommen wie historische Kontexte. Der Autor behält dabei eine ausgewogene, kritische wie positive Offenheit gegenüber den einzelnen Phänomenen.

Das dritte Kapitel «Kultur der Mitgestaltung», das die Gruppe besprochen hat, handelt zu Beginn ausführlich von Blogs: solche, die das Private öffentlich machen, Watchblogs als praktizierte Medienkritik oder Orte der politischen Auseinandersetzung, literarische Tummelfelder. Der Autor konfrontiert dabei die hoffnungsvolle Vorstellung von den basisdemokratischen Chancen des Web 2.0 mit der kulturpessimistischen Position – harsch vertreten aktuell etwa durch Andrew Keen (2) –, es handle sich dabei doch wohl eher um ein «Überhandnehmen des Banalen» und eine «Herrschaft des Mittelmässigen. Dass sich für beides ungezählte Belege auf dem Netz finden lassen, ist in der Gruppe unbestritten; auch wird darauf verwiesen, dass Blogs über unterschiedlichste Formen, Qualitäten und Dynamiken verfügen, in den verschiedenen Dimensionen sehr ausdifferenziert und daher kaum auf einen Nenner zu bringen sind. Die Diskussion beschäftigt sich dann mit der Frage, ob Blogs so etwas wie ein digitaler Ersatz für den früheren Dorfplatz oder -laden sind; da klingt das «Global Village» von Marshall McLuhan aus den 60-er Jahren nochmals mit an. Während die Dorfgemeinschaft sich aber lokal formiert und über Bewegungsradien natürliche Zwängen unterworfen ist, gruppieren sich Blogs eher um thematische Schwerpunkte und scheinen dadurch erst einmal grössere Beweglichkeiten und Wahlfreiheiten zuzulassen.

Simanowski führt weiter aus, dass bestimmte Phänomene des Web 2.0, etwa politische Blogs oder Wikipedia, angemessener als eine Kultur von Autodidakten als eine von Amateuren zu beschreiben seien – gerade das Wort Amateur transportiert ja auch eine Abwertung im Vergleich zur professionellen Expertenwelt. Die Gruppe nickt und ergänzt, dass es allerdings bis vor nicht allzu langer Zeit auch keine «klassische» Journalistenausbildung gab, sondern sich grosse Anteile der Professionalität dieses Berufsstandes durch «learning on the job» entwickelt haben. Andere Formen dagegen wie z.B. You tube, so Simanowski weiter, werden dagegen als ausschliesslicher Ort von Amateuren gehandelt. Es gehe um einen Wettbewerb, wer am professionellsten wirke, mit dem Grundverständnis und einer Art internem Ehrenkodex, dass kein Profi an diesem Wettstreit teilnehme.

Die abschliessende, beschreibende Darstellung des Bereichs der Computerspiele (Adventure Games, Strategie- oder Rollenspiele) mit verschiedensten Formen der Interaktion (vom Mitspielen bis zum Hack) verhindert zwar eine kontroverse Diskussion in der Gruppe, liest sich aber flüssig und anschaulich, auch wenn man selber nicht spielt. Der Autor verfolgt dabei die Frage nach der Erweiterung des Spielraums für das Publikums, die verschiedenen Formen der Partizipation, durchaus auch mit Anschluss an die alte Vorstellung von der Verwandlung des Zuschauers in den Stückeschreiber. Die Motivation, den Fortgang der Geschichte selber zu prägen, ist dann gleichfalls ein Aspekt der Fan-Fiction zu Spielen, Filmserien oder Büchern, ebenso wie gegebenenfalls sogar eine Korrektur, wenn etwa bei Star Track das weibliche Publikum mit der stereotypischen Darstellung der schwachen und inkompetenten weiblichen Charaktere nicht zufrieden war.

Simanowski bleibt bis zum Schluss neutral: Ob es sich dabei nämlich eher um subversive Äusserungen oder eine Bestätigung der Kulturindustrie handelt, bleibe nicht nur im einzelnen abzuwägen. Angesichts der friedlichen Koexistenz und Kooperation vertritt er die These, es herrsche eine Art kultureller Sozialfrieden zwischen Avantgarde und Kulturindustrie. Diese Betrachtungsweise scheint nun ja der postmodernen Erlebnisgesellschaft recht gut zu entsprechen.

1) Digitale Medien in der Erlebnisgesellschaft. Kultur – Kunst – Utopien. Roberto Simanowski, Reinbek 2008. – Besprochen in der Lesegruppe Wissensgesellschaft der Digitalen Allmend.

2) The cult of the amateur: how today’s internet is killing our culture and assaulting our economy. Andrew Keen, London 2007