Schlingerndes Flagschiff

Die Lesegruppe der Digitalen Allmend hat sich weiteren Teilen des Buchs von Russ-Mohl (1) zugewandt. Diesmal geht es um den Wandel der New York Times (NYT) und die Zukunftsperspektiven der US-Presse.

Wie im letzten Beitrag diskutiert, konstatiert Russ einen mittelfristigen Trend zu einer tiefer werdenden Krise des Presse in den USA: weniger Inserate, weniger Stellen, weniger journalistische Substanz. Der Autor stimmt nun aber nicht ein Lamento an, sondern sieht auch die kreativen Potentiale, welche die Krise freisetzen kann. Als Beispiel skizziert er die Entwicklung der NYT.

Dass die NYT noch vor kurzem einen Büroturm in Manhattan hochgezogen hat, erscheint als obsoleter Verweis auf eine verflossene Goldene Ära. Das Gebäude musste verkauft werden, denn das Unternehmen befand sich jahrelang in Schieflage: Sinkende Anzeigeneinnahmen, Überschuldung, instabile Eigentumsverhältnisse. Letzteres konnte gedreht werden. Die historische Eigentümerfamilie Sulzberger erwarb wieder grosse Anteile, die Hedgefonds verschwanden von der Bildfläche. Die Zahl der Journalisten wurde etwas reduziert. Zudem trat ein mexikanischer Multimilliardär als Kreditgeber auf.

Auf einer zweiten Ebene hat die NYT neben der Printausgabe den Internetauftritt forciert. Russ nimmt sie als Beispiel „wie interaktiv, wie multimedial und auch wie transparent Qualitätsjournalismus im Internet sein kann“. Der Site zählt etwa 20 Millionen Besucher pro Monat. Da wird auch klar, warum sich die Zeitung nach einigem Hin- und Her für Gratiszugang entschiedenen hat. Die Werbeindustrie zeigte Heisshunger nach Werbeflächen in einer HiEnd Umgebung, wo zahlungskräftige Mittel- und Oberschichtangehörige erreicht werden können.

Russ stellt fest, dass diese Strategie doch eine Eigendynamik entwickelt. Auch wenn von Boulevardisierung nicht die Rede sein kann, setzt sich das gratis online Modell „unter Druck, dem Massengeschmack zu folgen“. Unter dem Strich attestiert der Autor aber der NYT, Berichterstattung auf hohem Niveau zu leisten, interaktive Formen und Selbstkritik zu fördern, den investigativen Journalismus wiederbelebt zu haben.

Der Autor hütet sich mit guten Gründen, die NYT als Beispiel hinzustellen, das nun alle nachahmen können. Die Mehrheit der paar führenden US-Zeitungen sind in den letzten Jahren in den Niederungen von Boulevard und Bedeutungslosigkeit verschwunden. So die historische Nummer zwei, die Los Angeles Times. Nicht besser sieht es mit bei den mittelgrossen und kleineren lokalen Blättern aus.

Eine vorsichtige Tonart schlägt der Text bei den Zukunftsaussichten an. Harte Kritik stecken Unternehmensleitungen ein, die sich einfach an alte Praktiken und Vorstellungen geklammert haben. Der Autor konstatiert, dass der Journalismus „als professionelle Spezies neu erfunden“ wird. Der Journalist wird zum „dynamischen Unternehmer“. Das passt nun allerdings nicht so richtig zum Modell NYT, wo JournalistInnen doch gerade im Kontext eines institutionellen Rahmens agieren – als Fachspezialisten und nicht als Unternehmer. Dass bürgernaher Freelancer Journalismus zu einem ökonomischen Modell werden könnte, wird einfach angetönt, aber nicht entwickelt.

Eine komplexer werdende Welt braucht hochwertigen Journalismus. Russ sieht ihn eher in einer Funktion als Lotse denn als Welterklärer. Das ist allerdings nicht als free lunch zu haben. Anspruchsvollen Stoff gebe es wohl auf die Dauer nur „wenn wir dafür bezahlen“.

Das Buch hat Schwächen, etwa die (bereits im letzten Beitrag erwähnte) ungeklärte Verwendung des News-Begriffs. Auch werden die medialen Entwicklungen nicht mit kulturellen Neuorientierungen in Verbindung gebracht. Der Text bringt aber viel Material, welches eine Einschätzung der medialen Dynamik in den USA erlaubt.


1) Stephan Ruß-Mohl: Kreative Zerstörung. Niedergang und Neuerfindung des Zeitungsjournalismus in den USA. Konstanz 2009

Gensequenz des Goldhasen

Etwas summarischer hat sich die Lesegruppe der Digitalen Allmend mit Marken- und Patentrecht beschäftigt. Der Grundsatz eines Schutzes wirkt durchaus plausibel, soweit allgemeine Interessen gefördert werden. Diskutabel sind Abgrenzungen und Ausmass.

Am 14. Juni haben wir ein weiteres Mal zum Taschenbuch „Immaterialgüterrecht“ (1) gegriffen, um die juristischen Grundzüge des schweizerischen Rechts kennenzulernen. Beim Markenrecht wird prägnant eine Unterscheidungsfunktion und eine Herkunftsfunktion unterschieden. Eine Marke zeigt also auf ein Produkt wie auf ein Unternehmen. Wie in andern Teilen des Immaterialgüterrechts verweist das Buch auf eine gesamtwirtschaftliche und damit gesellschaftliche Funktion, mit der Markenschutz legitimiert wird: Er soll dem Unternehmen einen Anreiz geben, die Produktequalität hochzuhalten.

Die Diskussion würdigt dieses Argument sowie die Verlässlichkeit für den Konsumenten in einem vielfältigen Warenangebot durchaus. Besonders bei vitalen Produkten wie Medikamenten. Die Kreation von Markenidentitäten kann also nicht einfach auf eine Fetisch-Produktion reduziert werden, wie das die Konsumkritik nach 68 getan hat. Völlig irrelevant erscheint dieser Aspekt aber nicht. Wer Stilbeilagen durchblättert, sieht Seite für Seite: Hier geht es nicht um die Unterscheidbarkeit der Qualität von Stoffen oder Lötstellen, sondern um Identitätsproduktion.

Bemerkenswert haben wir verschiedene Limitierungen beim Gebrauch von Zeichen als Marke gefunden. So ist es etwa nicht möglich, ein Markenzeichen einfach auf Vorrat für unbestimmte Zeit zu blockieren. Anders als beim Urheberrecht sind uns einige Abgrenzungskriterien aus dem Text nicht richtig klar geworden. Warum etwa die Kombination von zwei universellen Elementen wie farbige Metallfolie und Schokoladehase als „Goldhase“ markenwürdig ist, hat sich nicht mit letzter Klarheit erschlossen. Das trifft auch für Anwendung der Unterscheidung von starken und schwachen Marken zu.

Ein aktuelles Konfliktfeld, das eher mit der Umsetzung als mit den Grundzügen des Markenrechts zusammenhängt, ist der Umgang mit der Einfuhr von Produktenachahmungen durch Privatpersonen. Hier hat es bekanntlich eine Praxisverschärfung gegeben.

Beim Patentrecht können wir eine Berechtigung soweit sehen, wie wirklich das Eingehen von Innovationsrisiken über das ohnehin nötige hinaus gefördert wird. Wo jahrelange gebunden Forschungs- und Entwicklungsaufwendungen getätigt werden, wie in der Pharmaindustrie, erscheint ein gewisser Schutz legitim. Am andern Ende der Skala ist die Softwareindustrie, wo Patente im engen Sinn in Europa nicht möglich sind. In den USA bestehen aber mehr Möglichkeiten was sich in cleveren bis erpresserischen Prozessdrohungen und komplexen Games zwischen den Firmen äussert. Das wirkt natürlich abschottend gegenüber kleineren Playern, die durch einen einzigen Prozess mit einem grossen Player ruiniert werden könnten.

Beim Thema Grenzen der Patentierbarkeit sind wir auf eine Schwäche des Textes gestossen, was mit der Knappheit zu tun hat. Wenn festgehalten wird: Nicht patentierbar sind „Sequenzen eines Gens… Patentierbar sind dagegen technisch bereitgestellte… abgeleitete Gensequenzen“, lässt das gerade in diesem umstrittenen Bereich Fragen offen. Hier geht es um den privaten Zugriff auf ökologisches Gemeingut, was Aufmerksamekeit verdient.

 

1) Markus Kaiser, David Rüetschi: Immaterialgüterrecht. Zürich, 2009. (in a nutshell)

Paragrafen browsen

Letztes Mal haben wir uns mit den allgemeinen Grundlagen des Immaterialgüterrechts beschäftigt, nun sind wir ins Urheberrecht eingestiegen. In der Lesergruppe der Digitalen Allmend interessiert uns, welche Begriffe, Unterscheidungen und Konzepte das schweizerische Recht verwendet und wie die Regelungen aussehen.

Das handliche Buch „Immaterialgüterrecht – in a nutshell“ (1) ist für unsere Zwecke gut geeignet. Die am 8. April diskutierten Teile über das Urheberrecht sind übersichtlich gegliedert und auch für Nicht-Juristen gut verständlich. Das Treffen hat ausnahmsweise eher der Charakter eines Lernzirkels und dient weniger der kontroversen Diskussion. Wir wollen hier keine Kurzfassung des Urheberrechts versuchen, sondern einfach auf ein konzeptuelle Dinge hinweisen, die für uns eher neu und überraschend waren.

– Schutzwürdige Objekte werden nicht top down von einem allgemeinen Werkbegriff abgeleitet. Dieser steht als individuelle geistige Schöpfung der Literatur oder Kunst sicher im Zentrum. Auf der gleichen Ebene werden aber durch Aufzählung weitere Gruppen angesiedelt, etwa Software, Werke zweiter Hand oder Sammelwerke.

– Beim allgemeinen Werkbegriff wird das Element der Kunst weit in Richtung Kunsthandwerk interpretiert. Nur so ist zu verstehen, dass etwa auch topografische Karten oder Computerspiele als Werke der Literatur und Kunst gelten.

– Neu für uns ist die Konzeption eigentlicher Werkstapel. Auf einen Roman kann als Werk zweiter Hand ein Theaterstück aufsetzen und darauf eine besondere Inszenierung. Eine solche Inszenierung wird allerdings nicht als eigenständiges Werk, sondern mit dem Konzept der „verwandten Schutzrechte“ geschützt.

– Was wir in der Geschichte schon angetroffen haben, ist die Unterscheidung zwischen persönlichkeitsrechtlichen und ökonomischen Aspekten. Der wirkt auch in der schweizerischen Gesetzgebung weiter, indem den Urhebern Rechte zugesprochen werden, die im Gegensatz zu den Verwertungsaspekten nicht weitergegeben werden können. Das betrifft etwa das Recht, gegen eine Entstellung des Werks vorzugehen oder eine Namensnennung durchzusetzen.

– Unter dem Begriff „Schutzschranken“ finden wir eine ziemlich lange Liste Elementen, welche den Möglichkeitenraum der Rechteinhaber beschränken. Dazu gehören die bekannten Recht zum Gebrauch geschützten Materials im privaten Rahmen oder die Sicherungskopie. Weiter auch die Verwendung in Unterricht und Betrieben, sowie Zitate und Berichterstattung.

Natürlich vergeht keine Lesegruppensession, ohne dass spannende Hintergrunddiskussion aufflackern. Diesmal ging es kurz ums Thema, wie es eigentlich mit der Legitimität eines derartigen Gesetzes in der Bevölkerung bestellt ist. Das lässt sich natürlich nicht zwischen zwei Schlucken Mineralwasser klären.

 1) Markus Kaiser, David Rüetschi: Immaterialgüterrecht. Zürich, 2009. (in a nutshell)

Freiheit und Urheberrecht

Welche Diskurse und Denkströmungen haben zur Herausbildung des geistigen Eigentums geführt? Wie werden Urheberrechte legitimiert? Diese Fragen sind keineswegs nur von historischem Interesse. Sie spielen auch in aktuellen Auseinandersetzungen eine Rolle, in denen verschiedene Player ihre Interessen zu begründen versuchen.

Im Januar hat die Lesegruppe der Digitalen Allmend einen historischen Übersichtsartikel diskutiert. Nun wenden wir uns den Konzepten der Aufklärung und ihrem Einfluss auf das Urheberrecht zu. Die Ideen eilten der Rechtsetzung weit voraus. Während Fichte oder die Französische Revolution schon Ende 18. Jahrhundert wesentliche Elemente entwickeln, wird das Urheberrecht erst spät im 19. Jh als juristisches Konzept fixiert und dann auch in geltendes Recht umgesetzt.

In seinem Artikel stellt Luf heraus dass „der Mensch als Subjekt verantworteter Freiheit“ den Angelpunkt aufklärerischer Rechtsbegründung bildet (1). Den einen Pol bildet ein Bild des Menschen als Subjekt und Person. Den zweiten Pol stellt die Freiheit dar, die jeder Person in gleichem Masse zusteht. Nun wird Freiheit nicht einfach in Richtung Meinungsäusserung oder Mobilität im Raum spezifiziert, sondern eng mit Eigentum verbunden.

Eigentum wird als exklusive Verfügungsgewalt über Sachen konzipiert. Dies soll die Handlungsfähigkeit und Freiheit des Individuums konstituieren, indem eine Sphäre vor Eingriffen durch Dritte oder den Staat abgeschirmt wird. Der Sachbegriff und mit ihm das Eigentum wird nun weit über Materielles hinaus gefasst und umfasst die ganze rechtlich garantierte Handlungssphäre. Der Aufschwung dieser individualistischen Konzepte war im absolutistischen und ständischen 18. Jahrhundert revolutionär und wirkt bis heute weiter.

Es ist offensichtlich, dass dieser weite Eigentumsbegriff sich dafür eignet, auf kulturelle Produkte angewandt zu werden. In der naturrechtlichen Begründung von Eigentum blickt Locke auf einen imaginären Naturzustand. Über seine Person und das Werk seiner Hände „hat niemand ein Recht als nur er allein“. Indem ein Individuum einem gemeinsamen Gut etwas durch Arbeit hinzufügt, gewinnt es ein Recht an diesem Mehr. In der Diskussion haben wir festgestellt, dass hier nicht nur Konzepte des geistigen Eigentums, sondern auch die Arbeitswerttheorie eines gewissen Karl Marx andocken: Die Arbeiterklasse als soziales Subjekt schafft in der Arbeit Werte, von denen sie enteignet wird.

Ein weit gefasster Eigentumsbegriff hat keineswegs automatisch zu handhabbaren Vorstellungen geführt. Wie nun Werkbegriff, Urheberschaft oder Rechtsansprüche der Schöpfer zu fassen seien, darüber wurde das ganze 19. Jahrhundert lebhaft geforscht und gestritten. Vorarbeit am Werkbegriff leistete etwa Fichte. Er unterscheidet Ende 18. Jh in einem ersten Schritt das Körperliche (das Papier) vom Geistigen eines Buchs. Das Papier kann problemlos in Eigentum übergehen. Beim Geistigen unterscheidet Ficht erneut: Am Inhalt, an den transportierten Gedanken kann kein privates Eigentum begründet werden – es wird und bleibt Gemeingut. Die Form hingegen entspringt dem schöpferischen Prozess des Autors und begründet eine unveräusserliches Eigentumsrecht des Autors. Dieser Prototyp des Werkbegriffs entfaltete nur langsam seine Wirkung.

Ein temporäreres Grosslabor für neue Konzepte bildet die Französische Revolution, die mit dem Absolutismus auch die königlichen Druckprivilegien stürzt. Ein gesetzlicher Schutz des „propriété littéraire et artistique“ wird geschaffen. Künstlerische Werke werden als „die heiligste und persönlichste aller Formen des Eigentums“ gefeiert.

Bemerkenswert für weite Teile des 19. Jh ist die Tatsache, dass konzeptuell der Künstler in den Mittelpunkt rückte, dies aber lange nur als Angelpunkt für Regulierung von Verlagsinteressen diente. Erst spät im 19. Jh wurden die Rechte der Künstler in einer für diese selbst nützlichen Form gefasst.

Die hier diskutierten Konzepte von individueller Freiheit und individuellen Verfügungsrechten an geistigen Schöpfungen bilden eine machtvolle Begründungslinie für die Ansprüche von Kulturschaffenden. Sie lösen aber nicht die Problematik auf, wie diese Interessen mit anderen legitimen Interessen, etwa denen der Allgemeinheit, zu moderieren sind. Sie bestimmen auch keineswegs mechanisch, wie immaterielle Rechte ausgestaltet werden und wie weit sie reichen.

Bei intensivem Gespräch sind knisternde Kontroversen in der Lesegruppe diesmal ausgeblieben. Als spannende Frage ist stehen geblieben, ob und wie weit sich kritische Positionen in den letzten Jahren auch gegen die begründenden Basics von individuellen Schöpferrechten wenden – etwa Stallmann.

1) Luf, Gerhard: Philosophische Strömungen in der Aufklärung und ihr Einfluss auf das Urheberrecht, in Dittrich, Robert (Hg) Woher kommt das Urheberrecht und wohin geht es. Wien 1988.

Schockwellen von Google Books

Die NZZ sieht ein Menetekel auch über der Buchbranche lasten, nachdem die Musikindustrie durch Tauschbörsen „an den Rand des wirtschaftlichen Ruins getrieben wurde“ (21.7.09). Das mag die lebhaften Kontroversen erklären, welche das „Google Book Search Copyright Settlement“ begleiten. Die Lesegruppe der Digitalen Allmend hat die Problematik anhand von einigen Zeitungsartikeln am 12. Oktober diskutiert.

Das Potential der digitalen Präsentation von Büchern wird seit Jahren diskutiert und ansatzweise auch ausgeschöpft. Zivilgesellschaftliche Initiativen bereiten ältere Texte auf. Die Staaten als Hüter des kulturellen Erbes wurden ebenfalls tätig. Allerdings zeigten sich in den letzten Jahren die Grenzen. Weder die EU mit dem Projekt ‚Europeana‘ und noch ansonsten kulturbeflissene Staaten wie Frankreich waren bereit, mehr als ein paar finanzielle Peanuts in die Hand zu nehmen. Obwohl ein paar hundert Millionen Euro reichen würden, um grosse Teile des literarischen Erbes eines Landes digital aufzubereiten, setzt die Politik andere Prioritäten.

Google stösst also mit seinem Projekt der Buchdigitalisierung in ein Vakuum vor und das kann man einem Konzern schlecht zum Vorwurf machen. Die strategische Positionierung als Content-Drehscheibe dürfte dem Werbegeschäft zugute kommen. Wie legitime Interessen von AutorInnen und Öffentlichkeit gewahrt werden können, ist Gegenstand laufender Auseinandersetzungen.

Weniger problematisch ist die Digitalisierung alter Werke. Hier vereinbaren Bibliotheken im Rahmen von Digitalisierungsprojekten mit Google, dass sie eine eigene Kopie des digitalen Inhalts bekommen und zur Verfügung stellen können. Hier haben wir diskutiert, ob es nicht eine öffentliche Aufgabe sein soll, ein zentrales Portal für den leichten Zugang zu diesen Inhalten aufzubauen.

Im Zentrum der Auseinandersetzungen um das Google Settlement steht einerseits das Vorgehen des Konzerns, ausgehend von der Festung USA die weltweiten Kulturproduzenten vor vollendete Tatsachen zu stellen. Andererseits die Modalitäten der Präsentation und vor allem die Entschädigungsfrage. Der anfängliche Schock ist einer differenzierteren Haltung gewichen. Es ist ja nicht so, dass die Mehrheit der AutorInnen in den letzen Jahrzehnten in einer paradiesischen Lage befand, die Google nun zu zerrütten droht.

Vielmehr ist die Lage für viele eher prekär und auch publizistisch unbefriedigend. Etwa im Fall eines Autors, der in den 90er Jahren mal ein Sachbuch mit ein paar tausend Auflage verkaufen konnte, das nun aber weder neue aufgelegt wird noch irgendwelche Tantiemen abwirft. Die Möglichkeit, dass der technische Wandel im allgemeinen und Google im besonderen die Prekarisierung weiter verschärfen können, ist nicht von der Hand zu weisen.

So begreiflich ein gewisse Nervosität ist, so wenig hilfreich erweist sich ein Rundumschlag wie der ‚Heidelberger Appell‘. Da wird auch der ‚Open Access‘ Gedanke frontal attackiert. Das erscheint uns angesichts der Tatsache, dass an Hochschulen gut bezahlte Staatsangestellte wissenschaftliche Texte produzieren, ziemlich überzogen. Die Öffentlichkeit zahlt, sie entscheidet auch die Modalitäten der Publikation.

Die Auseinandersetzung geht weiter. Entgegen allen Erwartungen geht das Google Book Settlement nicht einfach über die Bühne. Ein erster Termin wurde annulliert. Das zuständige Gericht soll auf Antrag der Parteien am 6. November eine Standortbestimmung vornehmen (NZZ 23.9.09).

Googeln – und Alternativen

Was ist der Stellenwert von Suchmaschinen im Allgemeinen und von Google im Besonderen? Wo sind bedenkliche Aspekte zu diskutieren? Wie sehen Alternativen aus? Diese Fragestellungen haben wir in der Lesegruppe am 14. September diskutiert.

Eine Feststellung ist wenig umstritten. Die weitläufige und unübersichtliche Ansammlung von Objekten im Internet macht Suchmaschinen unverzichtbar. Google erfüllt hier – genau wie andere Angebote – eine produktive Funktion. Suchmaschinen erschliessen, sie schaffen keinen Content. Geschäftsmodelle, die auf Suchmaschinen aufsetzen, weisen einen gewissen parasitären Aspekt auf. Sie basieren auf inhaltlicher Kulturarbeit, die von Dritten geleistet wurde, ohne dass diese am Geldfluss der Suchmaschine beteiligt werden. Allerdings werden sie als Gegenleistung den Suchenden präsentiert.

Kreation und Erschliessung von Inhalten sind zwei paar Schuhe. Letzeres kann voll automatisiert durch die mechanische Anwendung von Algorithmen geschehen. Und Vollautomatisierung gehört zu den Dogmen von Google: Man will Systeme laufen lassen, nicht Inhalte produzieren.

In einer Pionierphase wurden Suchmaschinen ohne Geschäftsmodell aufgebaut. Dann kam rasch die Idee au, Werbung zu schalten. Das geschah in Form bunter Bildchen und massloser Userbelästigung. Hier setzte nun Google an und wählte ein zurückhaltenderes, von den BenutzerInnen eher akzeptiertes Layout. Ein wesentlicher Grund für den Aufstieg zur Nummer eins.

Mit kritischen Aspekten der Google-Dominanz setzt sich Gerald Reischl im Buch „Die Google Falle“ auseinander. Er nennt Indizien dafür, dass Google die Systeme nicht absolut autonom werkeln lässt, sondern im Interesse guter Geschäftsbeziehungen durchaus für einen wichtigen Werbekunden unterstützend eingreift und die Suchergebnisse beeinflusst. Wie weit das geschieht und wie relevant das für die Suche ist, konnten wir in der Diskussion nicht wirklich einschätzen. Auch wenn nicht von permanenten massiven Manipulationen ausgegangen werden muss, sind die Intransparenz und die verdeckten Eingriffsmöglichkeiten ein Ärgernis.

Ein zweiter Konfliktbereich ist der Datenschutz. Wenn Suchmaschinen mit universellen Mechanismen auf Datenbestände mit grösstenteils niedriger Qualität losgehen, lassen die Ergebnisse häufig zu wünschen übrig. Um die Qualität der Suche zu verbessern, implementiert Google ein weitreichendes User-Tracking. So werden nicht nur Infos in Browser-Cookies abgelegt. Die können auch mit Informationen aus anderen Google-Services verknüpft werden. Google sammelt riesige Datenmengen über User und ihr Verhalten, was natürlich für das Werbegeschäft Gold wert ist. Reischl weist darauf hin, dass im Bereich User-Tracking emsiges Patentieren im Gang ist. Die Forscher und Firmen suchen dabei mit der Wortwahl jede Assoziation an Big Brother zu vermeiden. Die Rede ist von Tokenization oder Statistik (1). Wenn Reischl „das totale Wissen über den Nutzer“ als ein Ziel von Google nennt, ist das vielleicht etwas überzogen. Diskussions- und regulationswürdig erscheint das aber schon.

Interessant sind Ansätze zur Verbesserung von Suchergebnissen, die Reischl unglücklicherweise unter dem Thema „semantisches Web“ fasst. Gemeint sind Versuche, auf Seite der Suchmaschine mit computerlinguistischen Ansätzen die Qualität der Indexierung zu verbessern und in die Richtung formulierter Antwort auf Fragen zu gehen. Nach Ansicht der Diskutierenden würde das Semantische Web in erster Linie auf Seiten der Angebote implementiert, wo die Objekte mit systematischer Metainformation angereichert würden. Das wäre menschliche Kulturarbeit (soweit es von Hand geschieht). Was Google mit den erweiterten Ansätzen tut, ist eben keine Bedeutungskreation. Maschinen reorganisieren Bytes.

Im zweiten Teil der Diskussion haben eines Webdokuments (2) einen Blick auf Dutzende von Alternativen zu Google geworfen. Hier gibt es sehr interessante spezialisierte Angebote. Meistens sind das Varianten des Prinzips Suchmaschine.

Grundlegende Alternativen sind andere Mechanismen, welche die disparate Welt des Internets erschliessen. Ein Mechanismus ist der direkte Verweis auf Inhalte aus Chatnetzen oder Mailinglisten. Hier wird Bekannten oder einer Community vertraut, die auf einen Inhalt zeigen. Auch bestimmte Medien, digital oder nicht, können weitere Inhalte erschliessen und Links liefern. Diese Mechanismen führen wie Suchmaschinen auf erwünschte Seiten hin, aber anders als Suchmaschinen. Durch Sinnerzeugung in einem soziokulturellen Prozess, nicht durch Festplattengeratter.

Suchmaschinen sind unverzichtbar. Mit Blick auf unsere Alltagserfahrungen haben wir noch festgestellt, dass Suchmaschinen ausgerechnet dort schwach sind, wo das Angebot gross ist. Etwa bei Hotels in einer Grossstadt. Es gibt das Zimmer, das Du suchst. Nur zeigt es Google nicht.

1) Gerald Reischl: Die Google-Falle: die unkontrollierte Weltmacht im Internet. Ueberreuter 2008. S. 44
2)
Beyond Google: Cool Search Engines And Search Tools You May Have Not Heard About – A Mini-Guide 

Ökologie der Information

In seinem Buch «The Public Domain» fordert James Boyle „an environmentalism for information“ – ein Ökologie(bewegung) für Information. Dabei sucht er einen Weg zwischen allgemeinen Konzepten einerseits und konkreten Forderungen andererseits (1).

Im entsprechenden Kapitel 10 geht Boyle von der Frage aus, was denn eigentlich zu den unpraktischen und behindernden Einschränkungen bei Regulierungen zum geistigen Eigentum führt. Dabei ortet er kognitive Voreingenommenheit als wichtige Ursache: Er spricht von kultureller Phobie gegenüber Offenheit – von Agoraphobie. Diese Haltung führt dazu, immer die Bedenken und Risiken (wie Spam, Viren, Piraterie) in den Vordergrund zu rücken. Als Beispiele nennt der Autor Trusted Computing und Netzneutralität. Boyle räumt durchaus ein, dass Offenheit nicht immer angemessen ist. Als Grundhaltung hilft sie aber, das Potential von Wissenschaft und Kultur zu entfalten.

Die Lesegruppe der Digitalen Allmend diskutiert, wie weit Agoraphobie wirklich eine Mainstreamhaltung des westlichen Mittelstands sei. Immerhin sind ja auch zahlreiche Menschen bereit, in Bewegungen und Vereinen eine Reihe von Leistungen und Publikationen gratis und ohne Kontrolle in die Öffentlichkeit zu entlassen.

Boyle nimmt seine Agoraphobie-These zum Ausgangspunkt, um eine Ökologie der Information zu skizzieren, die sich in Inhalt und Form an der Umweltbewegung orientiert. Er ruft Elemente wie die Forderung nach der Internalisierung externer Kosten in Erinnerung, ohne sie im Detail auf die Informationsfreiheit zu übertragen. Ihn interessiert mehr die Entstehung einer Bewegung, welche sich für die öffentlichen Interessen der Informationsgesellschaft einsetzt – gegen starre Vorurteile und verfestigte Geisthaltungen.

Wie in der Diskussion vermerkt wird, bleiben die konkreten Forderungen des Autors ziemlich moderat, verglichen mit dem gross angelegten Konzept einer Informationsökologie. So möchte Boyle das Copyright bei Literatur auf zwanzig Jahre beschränken, dann aber eine Erneuerung auf Antrag zulassen. Als Fehlschlag im Geiste von engstirnigen politischen Interessen und Geisteshaltungen taxiert er die Europäische Datenbankdirektive. Die Aufhebung von Pharmapatenten hält er für eine schlechte Idee.

Boyle ist also weder Fundi noch Anhänger eines ‚anything goes‘. Er will konkrete Probleme angehen – mit „Ausgewogenheit, Nachdenklichkeit und empirischen Belegen“ (S. 238).

 

1) The Public Domain. Enclosing the Commons of the Mind. James Boyle, New Haven Ct, 2008. Der Autor macht das Buch auch verfügbar unter einer Creative Commons Lizenz: http://thepublicdomain.org

Amateuer Kult

Auf dem Höhepunkt der Web 2.0 Verklärung ist Andrew Keen der Kragen geplatzt. Er ist 2007 mit einer lebhaft geschriebenen Polemik auf den Plan getreten – gegen den „Cult oft he Amateur“ (1).

Keen selber ist als Aktivist und Unternehmer in der Internet-Kulturszene tätig und entwickelte ein Musikportal. Ihm schwebte vor, das Internet zu einem technischen Verteilkanal von Kultur in einem breiten und herkömmlichen Sinn zu machen. Dazu gehört für ihn eben auch Hochkultur und etwa klassische Musik.

Die Wende kam für Keen im September 2004 an einem von Medien-Millionär und Web 2.0 Verkünder Tim O’Reilly veranstalteten Camp. Da trafen sich gemäss Keen rund 200 „ergrauende Hippies, neue Medienunternehmer und Technologie Fans“ um das Hohelied des Usercontents auf dem Internet anzustimmen. Keen konnte sich mit der Verklärung des Amateurs nicht anfreunden und hat mit dieser Strömung gebrochen.

Keen zeigt sich besorgt um die Qualität des öffentlichen Diskurses. Das postulierte Verschwimmen der Autorposition und die geringe Transparaenz zersplitterter Publikationen wie der Blogs öffnet Tür und Tor für Manipulationen etwa durch intransparente Lobbys. Aus dem Web 2.0 strömen „dubiose Inhalte aus anonymen Quellen, die unser Zeit in Anspruch nehmen und auf unsere Leichtgläubigkeit abzielen“.

Eine weitere Kritik richtet sich gegen den Demokratisierungsanspruch der Web 2.0 VertreterInnen. Demokratisiert werden sollen nicht nur Autorschaft, Information, Wissen oder Kultur – sondern dank dem Internet auch Big Media, Big Business und Big Government. Keen sieht in einer solchen Konzeption von Demokratisierung eine Unterminierung von Wahrheit und Fachwissen.

So berechtigt sich über die aufgeblähten Ansprüche von Web 2.0 Konzepten streiten lässt, so schwach ist Keens Ansatz, hier mit einem naiven Wahrheitsbegriff zu operieren. In der Diskussion wurde betont, dass Demokratisierung eher am Begriff der Partizipation gemessen werden muss: Entwickeln sich Formen von Beeinflussung des öffentlichen Diskurses und gesellschaftlicher Entscheidungen? Davon kann in der Tat auf weiten Teilen des Web 2.0 keine Rede sein.

Keen identifiziert als weitere problematische Tendenz, dass Amateurpublikationen wie Blogs oder Wikipedia die Aufmerksamkeit und die ökonomische Basis von professioneller Kulturarbeit abziehen, wie sie etwa von Enzyclopedia Britannica oder Qualitätszeitungen geleistet wird.

Keens Kritikpunkte erscheinen relevant und fulminant, seine Positionen aber etwas unbedarft. Er neigt zu einem schlichten Vorzeichenwechsel. Pauschale Verherrlichung der neuen medialen Formen wird durch pauschale Niedergangsrhetorik ersetzt. Keen verpasst es auch, die Zivilgesellschaft zu würdigen und die Chancen anzusehen, welche neue Medien hier eröffnen.

Die Positionen in der Diskussion der Lesegruppe neigen zu mehr Pragmatismus. Wo problematische Entwicklungen in der politischen Kultur vorliegen oder Qualitätsmedien unter Druck geraten, kann dass nicht einfach den neuen medialen Formen angelastet werden.

Da müsste umfassend diskutiert werden, ob es im tonangebenden Mittelstand ein kulturelles Race to the Bottom gibt. Wenn es zutreffen sollte, dass die funktionale Elite sich boulevardisiert und beispielsweise Banker die Derivatemathematik auf Hochschulniveau betreiben, Allgemeinbildung aber aus digitalen, analogen oder papierenen Sensationsmedien bezieht: Dann haben wir vielleicht ein Problem.

 1) Andrew Keen: The Cult of the Amateur: How Today’s Internet is Killing Our Culture. Boston, London 2009.

Open Source Diskurse im Wandel

Mit den Diskursen der Open Source Bewegung und deren Widersprüchen beschäftigt sich Andrea Hemetsberger im Open Source Jahrbuch 2008 (1). Sie konstatiert ein Spannungsfeld zwischen traditionellem und universalistischem Diskurs.

Hemetsberger skizziert die Free / Open Source Gemeinschaft als soziale Bewegung, die sich nicht um eine antikapitalistische Strategie dreht. Vielmehr hat sie durch „kollektives Handeln” Möglichkeiten für „radikal alternative Formen” der Zusammenarbeit und der Produktion wertvoller öffentlicher Güter hervorgebracht. Die Autorin weist darauf hin, dass die Produktion von Gütern auf dem Internet einer speziellen Logik folgt. Relevant ist nur, was auf dem Netz sichtbar ist – konventionelle Machtstrukturen treten zurück. Das wurde in der Diskussion kritisch hinterfragt. Wohl entfallen Kontrollelemente, die etwa beim Auftauchen in einer Szenenbar greifen. Andererseits ist auch etwa das Eintauchen in eine Software-Entwickler Szene von Ausschliessungsmechanismen begleitet.

Die Diskussion in der Lesegruppe ‚Wissensgesellschaft’ der Digitalen Allmend hat sich auch darum gedreht, was denn eine soziale Bewegung in diesem Fall ausmacht. So wurde auf die 80er und 90er Jahre zurückgeblendet und gefragt, ob die bastelnden Computer Hobbyisten der 8oer Jahr auch zu dieser Bewegung zählten. Weiter wurde auch darauf hingewiesen, dass andere Wurzeln in die Universitäten zurückreichen, was ein professionelles und nicht ein zivilgesellschaftliches Umfeld darstellt. In der Diskussion wird bedauert, dass Hemetsberger etwas allgemein bleibt. Ein genauerer Blick auf die Szene der Pionierzeiten wäre sicher spannend.

Die Autorin geht auf die Frage ein, welche Rolle kulturelle Codes im Diskurs von sozialen Bewegungen spielen. Mit Verweis auf eine leider nicht weiter dokumentierte Untersuchung von Material aus slashdot.org identifiziert Andrea Hemetsberger zwei unterschiedliche Diskurse – auf traditionellen und universalistischen Codes basierenden. Traditionelle Codes beziehen sich auf antikapitalistische, Gut und Bös scheidende Elemente, die der Identität und Stabilität der Bewegung dienen. Universalistische Codes sind offen und zielen auf produktiven sozialen Wandel.

Die Unterscheidung wird in der Diskussion als relevant angesehen. Sie erinnert an den Fundi – Realo Dualismus in der Diskussion um die deutschen Grünen. Ob die Begrifflichkeit nun wirklich passend ist, bleibt fraglich. Die Position, die hier einfach als „traditionell” gefasst wird, kann durchaus unterschiedliche Haltungen umfassen: Eine gebetsmühlenartige Wiederholung ideologischer Phrasen ist nicht identisch mit einem Verfolgen strategischer Ziele. Solche Unterschiede verschwinden bei der vorliegenden Code-Analyse.

Die Autorin legt in der Folge dar, dass es durchaus gelingen könne, utopisch-humanistischen Diskurs mit praktischem Erfolg zu verbinden. Digitale Güter sind von der Art, dass Verschenken keinen Mangel beim Geber hervorruft, sondern die Beschenkten für die Erweiterung von Einfluss und Ansehen einspannt. Die Praktiken der Free / Open Source Bewegung nützen die Freiheit, das kapitalistische Denken umzudrehen und „gerade durch scheinbar altruistische Handlungen umso mehr Erfolg und sogar Profit zu machen” /129/. Ob das mit Befreiung von Marktlogik, entfremdeter Arbeit und fehlerhafter Software gleichgesetzt werden kann? Sobald Geld fliesst und Profit gemacht wird, ist doch wohl der Markt am Werk?

Die Codierungslogik der vorliegenden Analyse lässt andere Dimensionen der Bewegung etwas aus dem Blickfeld treten. In der Diskussion erscheint die Frage, welche Bedeutung das Handeln von kleineren Firmen und an Konzerne gebundenen Leuten in der Open Source Bewegung hat. Das sieht nach einer hybriden Konfiguration aus, die nicht einfach einer Logik zivilgesellschaftlicher Akteure folgt.

1) ANDREA HEMETSBERGER. Vom Revolutionär zum Unternehmer. Die F/OSS-Bewegung im Wandel.  In: Open Source Jahrbuch 2008.

Linux und das Bazar Modell

Wie lassen sich das organisatorische Modell und die Methoden beschreiben, mit denen sich Linux und andere Open Source Projekte entwickelt haben? In einem wichtigen Text greift Eric Raymond 1997 zur Metapher von Kathedrale und Bazar (1). Das Konzept Kathedrale entspricht einem Projekt – mit Plan, zentralen Ressourcen und einer hierarchischen Organisationsstruktur.

In der Diskussion wurde die Frage aufgeworfen, wie weit das Bild des Bazars zutrifft. Auf dem Bazar treffen gleichartige Akteure aufeinander, vermittelnd wirkt der Marktmechanismus. In der Linux Community treffen die Entwickler nicht einfach unstrukturiert aufeinander, sondern in einem moderierten Prozess.

Der Moderator in diesem Fall ist Linus Torvalds. Eric Ramond betont in seinem Text immer wieder Torvalds unverzichtbare Rolle – beim mobilisieren des weltweiten Talentpools oder als „Gatekeeper“. Seine „design intuition and cleverness“ seien unverzichtbar. Die Diskussionsrunde hat hier durchaus Parallelen zu kleineren zivilgesellschaftlichen Projekten, wo eine moderierende, motivierende, kommunikative Figur häufig unabdingbar ist. Optimal ist, wenn diese Leaderfigur nicht einfach eigene Vorstellungen implementieren will, sondern im Gravitationszentrum des Netzwerks mitdriftet.

Hier liegt wohl auch ein Beitrag zu Frage, warum die Linux-Community nicht durch kreuz und quer verlaufende Spaltungen pulverisiert worden ist. Einerseits halten Linus und ein engeres Netz die Community im Zustand von Offenheit und Ausgleich. Andererseits ist Linus eben auch deswegen stark legitimiert – den meisten Entwicklern dürfte klar sein, dass ein Zerfall in verschiedene kleine Kernel-Communities das Ende der Relevanz von Linux bedeuten würde.

Grössere Passagen des Textes sind ziemlich praxisnah. Raymond bringt Erfahrungen aus der Entwicklung des Mailprogramms „Fetchmail“ ein. Er betont, dass Entwickler von persönlichem Interesse an der Sache getrieben sein sollten.

In zurückhaltender Tonart geht Raymond auf die Frage ein, was das erfolgreiche Funktionieren der Linux-Community erklären kann. Er spricht mit dem Anarchisten Kropotkin die Mobilisierung „vieler zusammen strebender Willenskräfte“ an. Raymond verweist auf selbstadaptive Systeme in Biologie und Wirtschaft.

Diese Elemente treffen aber auch auf andere Bewegungen mit zivilgesellschaftlichen Wurzeln zu und erklären nicht unbedingt, warum ausserhalb der digitalen Welt von Linux stark institutionalisierte Formen der nationalen und internationalen Zusammenarbeit dominieren, etwa bei WWF, Mobility oder Pfadfindern.

Zum Schluss haben wir in der Lesegruppe „Wissensgesellschaft“ auch noch kurz diskutiert, was den Linux von andern Betriebssystem unterscheidet. Hypothese: Kathedralenprojekte wie Windows oder MacOS werden durchgehend als Produkte geplant, entwickelt und vermarktet. Bei Linux sind die Ebenen von Ressource und Produkt getrennt. Linux als Set von Kernel, Treibern und weiteren Modulen ist eine Ressource, die von der Entwicklercommunity fliessend erweitert wird. Zum Produkt wird Linux als Distribution. Da schnüren andere, teils stark institutionalisierte Akteure Bausteine aus dem Ressourcenpool zu einem für Endanwender nutzbaren Produkt.

Urs

 

1) Eric Raymond – The cathedral and the bazar
http://www.catb.org/esr/writings/cathedral-bazaar/