Google zum ersten: Geschäftsmodell und Serviceangebote

Lars Reppesgaard, freier Journalist in Hamburg, hat 2008 ein Buch über Google als Firma und Prinzip vorgelegt, das einen guten Einblick in Entwicklung und Geschäftsstrategien des Suchmaschinenriesen gibt (1). 

Abwechslungsreich und seriös geschrieben handelt es sich dabei weniger um eine sehr tief gehende Analyse des Google-Imperiums, sondern eher um eine Geschichte, die die Firma über ihre Kultur, Praktiken, Gründer und Mitarbeiter  plastisch macht; heiklere gesellschaftlich-politische Themen wie Datenschutz und Privatsphäre werden gestreift, der Fokus liegt aber auf den geschäftlichen und wirtschaftlichen Strategien. Bereits das Inhaltsverzeichnis gibt einen Überblick über all die Google-Applikationen, die es bis anhin gibt. Der Autor verhehlt auch keineswegs, dass Google bei den meisten keineswegs die Erfinder waren, aber die besseren Zweiten, denen es gelingt, die Fehler der Konkurrenz konsequent zu vermeiden.

Das zweite Kapitel «Der Kampf um die ersten Plätze» beleuchtet denn auch schon den Kern von Googles Geschäftserfolg, die online-Werbung. Die Lesegruppe der digitalen Allmend nahm es zum Ausgangspunkt, Googles Geschäftsmodell und Serviceangebot im Werbemarkt zu diskutieren.

Interessant daran ist ja folgendes: Während Google in der Öffentlichkeit vor allem als Suchmaschine wahrgenommen wird, ist es weit eher eine Werbe- und Verkaufsmaschine, wenn man zum Massstab nimmt, womit der Geschäftserfolg erwirtschaftet wird. Einnahmen werden also erst mit einem Sekundärmechanismus generiert, eben mit der «Geldmaschine Onlinewerbung» (so der Untertitel des Kapitels), während die eigentliche Suche für den Nutzer kostenfrei bleibt.

Zwei Mechanismen werden im Folgenden genauer beschrieben: Adwords und Adsense. Adwords ist das Programm, das bei einer Suchabfrage mit Google auf der Ergebnisseite rechts die kleinen vierzeiligen Textannoncen platziert.  Jedes Mal, wenn die suchende Person anstatt eines Links aus der Ergebnisleiste ein bezahltes Inserat anklickt, wird eine Provision an Google fällig. Adsense stimmt Anzeigen auf die Inhalte von Webseiten ab, die nicht direkt zu Google gehören. Jeder der eine Internetseite, einen Blog, ein Ratgeberportal oder was immer betreibt, kann sich für das Programm anmelden; auch professionelle Online-Angebot wie dasjenige der Süddeutschen Zeitung nutzen das Angebot, um Geld zu verdienen und Aufwände zu refinanzieren.

Weil das automatisierte System, mit dem passende Anzeigen neben die eigentlichen Suchergebnisse gestellt werden, ebenfalls sehr treffsicher ist, sind die Klickraten – und entsprechend die Gewinne – hoch. Dass die Anzeigen so gut passen, macht ein ausgeklügeltes Positionierungssystem möglich, das verschiedene Parameter anhand mathematischer Verfahren gewichtet: neben Stichworten, die vom Anzeigekunden bestimmt werden, sind es Klickraten (wenig angeklickt scheint für die Surfer weniger interessant und rutscht nach unten), geografische Zuordnungen und andere statistische Auswertungsverfahren, etwa die Ladezeit.

Die Diskussion in unserer Gruppe hat erbracht, dass wir selber die Kleinanzeigen rechts meistens eher ignorieren. Hin und wieder einmal können sie jedoch durchaus hilfreich sein auf der Suche nach einem speziellen Produkt (als Beispiel dient eine Luftwärmepumpe), etwa um einen lokalen Anbieter  kennen zu lernen. Weiter haben wir uns gefragt, ob es heikle Anwendungen gibt, Beispiel: Angebote für Kleinkredite. Ausprobieren zeigt, dass mit «Kleinkredit/Zürich/diskret» sofort 8 Werbeinserate erscheinen (auf Wunsch mehr). Ein weiterer Klick präzisiert, was ein Betrag von CHF 20000 über 12 Monate pro Monat kostet (zuviel!) und auf der gleichen Seite erscheinen auch gleich die unbestreitbar tröstlichen Vorteile: Erlass der Restschuld im Todesfall. Ob allerdings Kleinkredite übers Netz problematischer sind, nur weil man sie auch über Googles Werbeanzeigen findet, ist aber doch zu bezweifeln.

Der Vorteil für die werbenden Unternehmen – und für die Marketingindustrie, der sich da ein neues Betätigungsfeld aufgetan hat: Suchmaschinenmarketing und -optimierung, Web-Analytics, E-Business Beratung, Virales Marketing, Online-Werbung und ähnliches – ist ein ausgebautes System von Softwarelösungen: von der Evaluation über die Auswertungen von Benutzerverhalten bis zur laufenden Optimierung, etwa der Keywörter, die Besucher auf die eigene Website ziehen sollen. Ob der einzelne Werbefranken hier tatsächlich mehr bewirkt als an der Plakatwand, dürfte trotzdem schwer zu erheben sein; offensichtlich verbreitet ist aber die Hoffnung, dass man mehr Kontrolle hat.

Der Text wagt auch einen Blick in die Zukunft: Die Bedeutung des Onlinewerbemarktes ist immer noch gering, im Verhältnis zur Summe die insgesamt für Marketing ausgegeben wird, handelt es sich laut Reppesgaard um ca 5%. Google hat im Suchbusiness, kombiniert mit Anzeigen, eine hohe Marktsättigung erreicht; offenbar liegt sie in Europa bei deutlich über 90%: die Wachstumsmöglichkeiten sind da also begrenzt. Die Strategie von Google wird es daher sein, die technologischen Errungenschaften aus dem Online-Geschäft auf andere Werbebereiche (Radio, Fernsehen, Print und neue Formen wie interaktive Displayflächen) zu übertragen: mit Hilfe von Software Anzeigen so zu platzieren, dass sie einen engen Bezug haben zum Kontext, in dem sie stehen (Beispiel sind etwa die von MINI USA versendeten Chips mit Radiofrequenz-Identifikation (RFID), auf die interaktive Displayflächen mit einer persönlichen Nachricht für die Fahrer reagieren), Kampagnen in Echtzeit zu analysieren und sie gegebenenfalls zu verändern und Preise je nach Nachfrage automatisch über Auktionen festzulegen. 

 

1) Lars Reppesgaard: Das Google-Imperium. Hamburg, 2008

Ökologie der Information

In seinem Buch «The Public Domain» fordert James Boyle „an environmentalism for information“ – ein Ökologie(bewegung) für Information. Dabei sucht er einen Weg zwischen allgemeinen Konzepten einerseits und konkreten Forderungen andererseits (1).

Im entsprechenden Kapitel 10 geht Boyle von der Frage aus, was denn eigentlich zu den unpraktischen und behindernden Einschränkungen bei Regulierungen zum geistigen Eigentum führt. Dabei ortet er kognitive Voreingenommenheit als wichtige Ursache: Er spricht von kultureller Phobie gegenüber Offenheit – von Agoraphobie. Diese Haltung führt dazu, immer die Bedenken und Risiken (wie Spam, Viren, Piraterie) in den Vordergrund zu rücken. Als Beispiele nennt der Autor Trusted Computing und Netzneutralität. Boyle räumt durchaus ein, dass Offenheit nicht immer angemessen ist. Als Grundhaltung hilft sie aber, das Potential von Wissenschaft und Kultur zu entfalten.

Die Lesegruppe der Digitalen Allmend diskutiert, wie weit Agoraphobie wirklich eine Mainstreamhaltung des westlichen Mittelstands sei. Immerhin sind ja auch zahlreiche Menschen bereit, in Bewegungen und Vereinen eine Reihe von Leistungen und Publikationen gratis und ohne Kontrolle in die Öffentlichkeit zu entlassen.

Boyle nimmt seine Agoraphobie-These zum Ausgangspunkt, um eine Ökologie der Information zu skizzieren, die sich in Inhalt und Form an der Umweltbewegung orientiert. Er ruft Elemente wie die Forderung nach der Internalisierung externer Kosten in Erinnerung, ohne sie im Detail auf die Informationsfreiheit zu übertragen. Ihn interessiert mehr die Entstehung einer Bewegung, welche sich für die öffentlichen Interessen der Informationsgesellschaft einsetzt – gegen starre Vorurteile und verfestigte Geisthaltungen.

Wie in der Diskussion vermerkt wird, bleiben die konkreten Forderungen des Autors ziemlich moderat, verglichen mit dem gross angelegten Konzept einer Informationsökologie. So möchte Boyle das Copyright bei Literatur auf zwanzig Jahre beschränken, dann aber eine Erneuerung auf Antrag zulassen. Als Fehlschlag im Geiste von engstirnigen politischen Interessen und Geisteshaltungen taxiert er die Europäische Datenbankdirektive. Die Aufhebung von Pharmapatenten hält er für eine schlechte Idee.

Boyle ist also weder Fundi noch Anhänger eines ‚anything goes‘. Er will konkrete Probleme angehen – mit „Ausgewogenheit, Nachdenklichkeit und empirischen Belegen“ (S. 238).

 

1) The Public Domain. Enclosing the Commons of the Mind. James Boyle, New Haven Ct, 2008. Der Autor macht das Buch auch verfügbar unter einer Creative Commons Lizenz: http://thepublicdomain.org

Gemeinfreiheit des Geistes

In seinem Buch «The Public Domain» (1) beschreibt James Boyle, Rechtsprofessor an der Duke University School of Law und Mitbegründer von Creative Commons, die aktuellen Kämpfe um die Rechte des geistigen Eigentums und bezeichnet sie gar als «Gebietskriege des Informationszeitalters».

Unsere Musik, unsere Wissenschaft, unser wirtschaftliches Gedeihen, ja unsere gesamte Kultur würden abhängen von der heiklen Balance zwischen jenem Ideengut, das jemand besitzt und kontrolliert und jenem, das öffentlich und frei ist. Natürlich sei der Schutz des Geistigen Eigentums wichtig, so dann des Autors Position, der aktuelle Umgang mit den Rechten aber unausgewogen: eine allzu wegschliessende Geste von «Symbolen, Themen, Fakten, Genen und Ideen». Boyle prognostiziert für die aktuelle Praxis fatale Auswirkungen auf die freie Rede und Kreativität, zukünftige Bildung und wissenschaftliche Innovation.

Dabei geht es ihm erst einmal um Aufklärung: Er argumentiert, dass – genauso wie jeder informierte Bürger, jede Bürgerin wenigstens ein Minimum über Umwelt, Wirtschaft oder Bürgerrechte wissen müsse – auch alle etwas vom Prinzip des Geistigen Eigentums verstehen sollten, eben weil es dabei um Regelungen zum grundlegenden Gut der Informationsgesellschaft gehe. Als eines der Hauptprobleme identifiziert er das «weit verbreitete Nichtverstehen» der Bedeutung des «Public Domain» –  also der Gesamtheit des geistigen Kollektivgutes und Materials, das jedermann ohne weitere Genehmigung und ohne Kosten frei benutzen und weitergeben darf. Der «Public Domain» müsse im öffentlichen Verständnis als Wissensallmende und Gemeingut der modernen Informationsgesellschaft in einem gewissen Sinn erst erfunden und etabliert werden, bevor wir ihn schützen könnten – in dieser Hinsicht durchaus analog zur «Umwelt» und den Bemühungen um ihren Schutz.

Das erste Kapitel «Why Intellectual Property», das die Gruppe gelesen hat, verfolgt erst einmal die (guten) Gründe für Schutzregelungen. Während viele materielle Güter nach Bedarf erzeugt werden und sich ihr Preis an der Schnittstelle von Angebot und Nachfrage ergibt, stellen sich Probleme des Marktanreizes bei jenen, die aufwendig in der Entwicklung, aber billig zu kopieren sind. Wer würde beispielsweise die langwierige Entwicklung von wirksamen Medikamenten auf sich nehmen? Solche Güter schütze der Staat via den «Markt-schaffenden Kniff» des intellektuellen Eigentums (2): vor allem durch Patente und Copyrights. Gerade der Vorteil von Patenten sei doppelt: Durch die Möglichkeit, Entwicklungsaufwände wieder einzuspielen sicheren sie einerseits einer Erfindung überhaupt erst eine gewisse Lebenschance, durch ihre Registrierung verhindern sie andererseits, dass innovatives Wissen geheim gehalten und damit der Gesellschaft entzogen sei.

Etwas anders noch stellt sich die Problematik schützen/frei lassen bei kulturellen Gütern, wie etwa Musik, Bilder, Texte, Filme, literarische Werke, die – heute oft gar nicht mehr an materielle Publikationsformen gebunden – durch den Gebrauch nicht etwa weniger werden, sondern durch ihre Verwendung und Vervielfältigung via Internet und mittels der verblüffenden Informationsverarbeitungskapazität von Millionen von Menschen die Chance auf neue Gebrauchszusammenhänge erst eröffnen. Im ungünstigen Fall aber, etwa als «orphan works» (verwaiste Werke, deren Urheber oder Rechtsinhaber nicht oder nur sehr schwer zu ermitteln ist) stellen sie ein Problem dar, da eine Nutzung, die die Zustimmung des Urhebers oder der Rechteinhaber voraussetzt, nicht möglich ist. Das ist eines der Beispiele, die der Autor anhand der Library of Congress etwas breiter ausführt; hier schreibt er dann explizit an gegen unsinnige Copyright Bestimmungen und das, was er als Exzesse des Rechtes auf Geistiges Eigentum ansieht.

Die Gruppe stimmt ihm grundsätzlich zu und die Diskussion beschäftigt sich in der Folge einige Male mit dem, was wir eben nicht so genau wissen: Einerseits geht es um ein Auseinanderhalten von sehr verschiedenen Rechten im Zusammenhang mit dem Geistigen Eigentum: copyright, patent und trademark. (Was z.B. ist genau patentierbar bei der Software-Entwicklung, das Verfahren? Ist das Urheberrecht ebenfalls so ein «Markt-schaffender Kniff»?) Dann sind historische Entwicklungen, und Bedeutungen einzelner Aspekte in den USA zuverlässig verschieden von europäischen (in den USA wird offenbar seit längerem heftig über orphan works debattiert; Relevanz bei uns, z.B. wissenschaftlich?). Und nicht zuletzt kann die Bedeutung englischer Begriffe wie «Copyright» und «Public Domain» nicht ohne weiteres auf die deutschen Begriffe «Urheberrecht» und «Gemeinfreiheit» übertragen werden (Neben «Public Domain» als «Gemeinfreiheit» bezeichnet der Begriff gelegentlich offenbar auch Werke, «deren Urheber mindestens einer nichtkommerziellen Verbreitung zugestimmt hat» (3). So ist das rechtliche Prinzip des Copylefts – zumindest gemäss dem, was die Schreiberin nachgelesen hat  – «nicht vereinbar mit dem der Gemeinfreiheit, da Copyleft auf das Urheberrecht aufbaut, anstatt wie die Gemeinfreiheit darauf zu verzichten.… «Public Domain» ist «keine Lizenzvariante, sondern der generelle Verzicht auf eine Lizenzforderung». (3))

Der Text liest sich anschaulich und wir wollen es gern noch etwas genauer wissen. Beschluss: ein zweites Kapitel wird gelesen.

 

1 The Public Domain. Enclosing the Commons of the Mind. James Boyle, New Haven Ct, 2008. Der Autor macht das Buch auch verfügbar unter einer Creative Commons Lizenz: http://thepublicdomain.org

2 («market-making» device) der Autor zitiert hier seinen Kollegen Jerry Reichmann

3 http://de.wikipedia.org/wiki/Gemeinfreiheit (02/05/09)

Bericht zu Urheberrechstgesprächen mit IGE

Christian Laux (ch/open) und Felix Stalder (Digitale Allmend) haben die Internetcommunity an den Urheberrechtsgesprächen des Institut für geistiges Eigentum vertreten und folgende Zusammenfassung erstellt:

Es folgt eine Zusammenfassung der Veranstaltung beim IGE vom vergangenen Dienstag, 26. Mai 2009.
Bitte die drei besonderen Punkte am Ende dieser Nachricht beachten:

An der Veranstaltung beim IGE vom vergangenen Dienstag, 26. Mai 2009 waren 24 Personen anwesend, und zwar Vertreter des IGE, der ESchK, der Beobachtungsstelle für technische Maßnahmen, des BAK (Bundesamt für Kultur), der Verwertungsgesellschaften, von Verbänden und lose organisierten Interessengruppen. Es waren nicht alle Verwertungsgesellschaften vertreten, was von vielen Teilnehmern kritisiert wurde.

Inhaltlich wurde intensiv über einzelne Aspekte einer allfälligen Neuausrichtung des Urheberrechts diskutiert. (Zum Thema “Nutzung vorbestehender Werke” siehe RFC#2 und RFC#3 vom 25. April 2009, beide dieser Nachricht angehängt.) Anlass dazu gaben v.a. die beiden Themenvorstösse, die Felix Stalder vorgetragen hat. Diskutiert wurde auf dieser Grundlage, ob es neue Schutzausnahmen im Urheberrechtsgesetz bräuchte, ob diese als konkret formulierter Rechtekatalog oder als offenes Prinzip wie der Fair Use nach US amerikanischem Vorbild auszugestalten ist, und ob in der Schweiz in Ergänzung zu den Einzelaufzählungen eine allgemeine Generalklausel eingeführt werden sollte, über welche ein allgemeines Kulturprivileg, die so-genannte Kulturschranke, begründet werden könnte (z.B. Neuschaffung von Kunst auf der Grundlage bestehender Werke, wobei die Nutzung über ein blosses Zitat hinausgeht).

Die Meinungen gingen darüber auseinander, ob das Anliegen überhaupt berechtigt ist oder ob umgekehrt Änderungen gar nicht nötig seien, weil das Bundesgericht in der Schweiz ohnehin zu weitgehenden Privilegien Hand bieten würde (sofern es denn nur genügend Fälle hätte).

Es wurde auch eingeworfen, dass Schutzausnahmen nur dann eine Daseinsberechtigung hätten, wenn a) der Rechtsinhaber nicht bekannt sei oder b) wenn er das Einräumen einer Lizenz zu angemessenen Bedingungen verweigere und c) es auch keine Verwertungsgesellschaft gebe, die die beabsichtigte Nutzung erlauben könne. (Anzumerken ist hierzu, dass im Bereich der Kunst oft das Urheberpersönlichkeitsrecht betroffen ist, welches die Verwertungsgesellschaften allerdings nicht wahrnehmen.)

Sodann wurde auf die Revidierte Berner Übereinkunft (RBÜ) hingewiesen, die Vorgaben macht im Zusammenhang mit Schutzausnahmen, nämlich den sog. “Dreistufentest” (Artikel 9 Absatz 2 RBÜ). Der Dreistufentest besagt, dass Schutzausnahmen auf bestimmte Sonderfälle begrenzt sein müssen und nicht so ausgelegt werden dürfen, dass ihre Anwendung zu einer unzumutbaren Verletzung der Interessen der Rechtsinhaber führt oder dadurch die normale Auswertung der Werke und geschützten Leistungen beeinträchtigt wird.

Mit Blick auf den Umstand, dass Vertreter des Bundesamts für Kultur (BAK) anwesend waren, wurde ebenfalls diskutiert, inwiefern das BAK Kulturförderungsgelder nur unter der Auflage zusprechen könnte, dass die Arbeitsresultate nach Ablauf der ordentlichen Verwertungsperiode frei zugänglich gemacht werden. Lösungen gab es natürlich keine, dafür wurde klarer, wo allseits noch weiterer Klärungsbedarf besteht: z.B. wie ist die genaue Interessenlage?; welches sind die gesetzlichen Rahmenbedingungen?; welchen Spielraum kann das BAK wahrnehmen und welche Verantwortung hat das BAK, in dieser Diskussion Stellung zu beziehen?; und selbstverständlich: welche Nutzungshandlungen sollen nach Ablauf der ordentlichen Verwertungsperiode bewilligungsfrei möglich sein?

Es wurden weitere Themen diskutiert, die aus Sicht der Internetcommunity aber weniger von Bedeutung waren.

Besonderes:

Die folgenden Aufrufe wurden seitens der Offiziellen des Instituts für Geistiges Eigentum (IGE) gemacht. Bitte macht euch hierzu Gedanken, ergänzende Hinweise gibt es auf der Webseite des IGE (www.ige.ch) sowie der WIPO (www.wipo.int):

  • Felix Addor, stv. Direktor des IGE, hat die Teilnehmer ermuntert, mit Fragen betreffend ACTA an das IGE zu gelangen. Er könnte sich vorstellen, eine regelmäßige ACTA Sitzung abzuhalten, sofern daran Interesse bestünde. Deswegen die Frage: Wer hätte Interesse an einer solchen Sitzung?
  • Emmanuel Meyer, Leiter der Urheberrechtsabteilung, ersucht um Diskussionsvorschläge, die ein hilfreicher Beitrag für die Diskussion über die Zukunft des Urheberrechts vor der WIPO sein könnten.
  • Carlo Govoni von der Beobachtungsstelle für technische Maßnahmen ersucht um Mitteilung von Problemen im Zusammenhang mit DRM. Insbesondere von Seiten von Open Source Software Entwicklern werden Meldungen erwartet. Es wären aber auch allgemeine Hinweise hilfreich, damit Herr Govoni auf allenfalls noch unentdeckte Kanäle stößt, über die er eine allenfalls mißbräuchliche Verwendung von technischen Schutzmaßnahmen erkennen kann. Herr Govoni hat anhand von praktischen Beispielen erläutert, wo mißbräuchliche Situationen bestehen könnten.
    Zum Beispiel verwies er auf die Praxis von Online Shops in preislicher Hinsicht danach zu differenzieren, ob ein Musikwerk mit oder ohne Kopierschutz zum Download angeboten wird. Wenn die Version mit Kopierschutz den Privatgebrauch einschränkt, die Version ohne
    Kopierschutz jedoch nur gegen einen Aufpreis zu bekommen ist, könnte darin ein Mißbrauch liegen. Die Beobachtungsstelle klärt diesen Fall derzeit ab.
  • P.S.: Das nächste Urheberrechtsgespräch findet am 18. Mai 2010 statt.


    Anhang:

    RFC #3: Nutzung vorbestehender Werke

    Am 26. Mai 2009 findet beim Institut für Geistiges Eigentum ein Treffen statt, bei welchem Vertreter der am Urheberrecht interessierte Kreise ihre
    Anliegen mit Bezug auf das Urheberrecht einbringen können. An diesem Treffen nehmen auch Vertreter von der Digitalen Allmend, von Plazi sowie von ch/open teil und bringen dort Standpunkte aus Sicht von Open Source Software sowie allgemein aus Sicht der “Internet-Community” vor.

    Bitte kommentiert, inwiefern aus Eurer Sicht zum obigen Thema Handlungsbedarf in der Schweiz besteht. Dazu die folgenden ergänzenden

    Bemerkungen:

    Das Urheberrechtsgesetz enthält Bestimmungen, welche die Nutzung von vorbestehenden Werken ermöglichen, ohne dass vorgängig nach dem
    Rechtsinhaber geforscht werden müsste (teilweise sind die Nutzungen jedoch nur mit Zustimmung einer Verwertungsgesellschaft und gegen Bezahlung einer Vergütung erlaubt), z.B. Art. 19 URG (Privatgebrauch, Schulnutzung, unternehmensinterner Gebrauch), Art. 21 (Dekompilieren von
    Computerprogrammen, um erforderliche Schnittstelleninformationen zu gewinnen), Art. 25 URG (Recht, aus veröffentlichten Werken zu zitieren).

    Fragestellungen im Einzelnen: Müssen einzelne solcher Bestimmungen erweitert werden? Andere hinzugefügt werden? Wären neuartige Ansätze denkbar, um die Nutzung von vorbestehenden Werken zu erleichtern?

    Subject: RFC #2: Access

    Am 26. Mai 2009 findet beim Institut für Geistiges Eigentum ein Treffen statt, bei welchem Vertreter der am Urheberrecht interessierte Kreise ihre
    Anliegen mit Bezug auf das Urheberrecht einbringen können. An diesem Treffen nehmen auch Vertreter von der Digitalen Allmend, von Plazi sowie von ch/open teil und bringen dort Standpunkte aus Sicht von Open Source Software sowie allgemein aus Sicht der “Internet-Community” vor.

    Bitte kommentiert, inwiefern aus Eurer Sicht zum obigen Thema Handlungsbedarf in der Schweiz besteht. Dazu die folgenden ergänzenden

    Bemerkungen:

    Im URG finden sich einige Bestimmungen, welche die Nutzung von verfügbaren kulturellen Gütern erleichtern: Art. 22a URG (Archivwerke von
    Sendeunternehmen) sowie Art. 22b URG (Nutzung von Ton- oder Tonbildträgern, deren Rechtsinhaber unauffindbar sind). Weiter ist der Vergleich im Rahmen des Google Books Prozesses zu erwähnen (http://www.googlebooksettlement.com).
    Bei diesem Vergleich geht es um die Verfügbarkeit von Büchern, die nicht mehr verlegt werden (“out of print”), und insofern gehört das Settlement zum
    Thema.

    Fragestellungen im Einzelnen:

    Müssen Massnahmen zur Förderung der Verfügbarkeit von urheberrechtlich geschützten Materialien getroffen werden?

    – Sind gesetzliche Massnahmen nötig? Welche?

    – Gibt es die Möglichkeit, ausserhalb einer Gesetzesrevision etwas zu bewirken?

    – Sind mit öffentlichen Mitteln finanzierte Werke besonders zu behandeln?

    – Inwiefern verändert der Vergleich im Rahmen des Google Books Prozesses etwas aus Sicht der Internetcommunity in der Schweiz?

    Neun Thesen zur Remix-Kultur

    Heute ist mein umfangreiches Essay zur Remix-Kultur bei irights.info online gegangen. Es berührt viele Themen, die auch die Digitale Allmend behandelt.

    Der Remix ist die kulturelle Form der Netzwerkgesellschaft. Felix Stalder beleuchtet in neun Thesen medienhistorische, technologische, politische, rechtliche, kulturtheorische, soziale und ökonomische Dynamiken, die den Aufstieg und die aktuelle Entwicklung des Remix prägen. In den Konflikten, die damit verbunden sind, spiegelt sich die Tiefe des aktuellen gesellschaftlichen Wandels.

    Ganzes Essay als PDF (600 kb)

    Millionen sparen mit Open Source

    Die NZZ hat einen interessanten Bericht über die positiven Erfahrungen des Kanton Solothurns mit dem Umstieg auf Open Source Software. Vor dem Hintergrund der “fragwürdige Vergabe eines 42-Millionen-Franken-Auftrages durch den Bund an Microsoft unter Ausschaltung des Wettbewerbs” besonders relevant.

    Der Bund verlängerte die Lizenzverträge mit Microsoft für 42 Millionen Franken. Anders entschieden hat vor acht Jahren der Kanton Solothurn – und flächendeckend Linux installiert. Er spart seither Jahr für Jahr viel Geld und verfügt erst noch über flexiblere EDV-Systeme.

    Digitale Allmend Treff 4. Mai 2009

    Am Montag treffen wir uns wieder zu unserem monatlichen Treffen:

    Die Digitale Allmend trifft sich zum monatlichen Treffen am Montag 4. Mai 2009 um 19:00.

    Treffpunkt ist wiederum das Restaurant Gloria, Josefstrasse 59, 8005 Zürich . Eingeladen sind alle die Interesse an der Digitalen Allmend haben und gerne uns unterstützen möchten.

    Amateuer Kult

    Auf dem Höhepunkt der Web 2.0 Verklärung ist Andrew Keen der Kragen geplatzt. Er ist 2007 mit einer lebhaft geschriebenen Polemik auf den Plan getreten – gegen den „Cult oft he Amateur“ (1).

    Keen selber ist als Aktivist und Unternehmer in der Internet-Kulturszene tätig und entwickelte ein Musikportal. Ihm schwebte vor, das Internet zu einem technischen Verteilkanal von Kultur in einem breiten und herkömmlichen Sinn zu machen. Dazu gehört für ihn eben auch Hochkultur und etwa klassische Musik.

    Die Wende kam für Keen im September 2004 an einem von Medien-Millionär und Web 2.0 Verkünder Tim O’Reilly veranstalteten Camp. Da trafen sich gemäss Keen rund 200 „ergrauende Hippies, neue Medienunternehmer und Technologie Fans“ um das Hohelied des Usercontents auf dem Internet anzustimmen. Keen konnte sich mit der Verklärung des Amateurs nicht anfreunden und hat mit dieser Strömung gebrochen.

    Keen zeigt sich besorgt um die Qualität des öffentlichen Diskurses. Das postulierte Verschwimmen der Autorposition und die geringe Transparaenz zersplitterter Publikationen wie der Blogs öffnet Tür und Tor für Manipulationen etwa durch intransparente Lobbys. Aus dem Web 2.0 strömen „dubiose Inhalte aus anonymen Quellen, die unser Zeit in Anspruch nehmen und auf unsere Leichtgläubigkeit abzielen“.

    Eine weitere Kritik richtet sich gegen den Demokratisierungsanspruch der Web 2.0 VertreterInnen. Demokratisiert werden sollen nicht nur Autorschaft, Information, Wissen oder Kultur – sondern dank dem Internet auch Big Media, Big Business und Big Government. Keen sieht in einer solchen Konzeption von Demokratisierung eine Unterminierung von Wahrheit und Fachwissen.

    So berechtigt sich über die aufgeblähten Ansprüche von Web 2.0 Konzepten streiten lässt, so schwach ist Keens Ansatz, hier mit einem naiven Wahrheitsbegriff zu operieren. In der Diskussion wurde betont, dass Demokratisierung eher am Begriff der Partizipation gemessen werden muss: Entwickeln sich Formen von Beeinflussung des öffentlichen Diskurses und gesellschaftlicher Entscheidungen? Davon kann in der Tat auf weiten Teilen des Web 2.0 keine Rede sein.

    Keen identifiziert als weitere problematische Tendenz, dass Amateurpublikationen wie Blogs oder Wikipedia die Aufmerksamkeit und die ökonomische Basis von professioneller Kulturarbeit abziehen, wie sie etwa von Enzyclopedia Britannica oder Qualitätszeitungen geleistet wird.

    Keens Kritikpunkte erscheinen relevant und fulminant, seine Positionen aber etwas unbedarft. Er neigt zu einem schlichten Vorzeichenwechsel. Pauschale Verherrlichung der neuen medialen Formen wird durch pauschale Niedergangsrhetorik ersetzt. Keen verpasst es auch, die Zivilgesellschaft zu würdigen und die Chancen anzusehen, welche neue Medien hier eröffnen.

    Die Positionen in der Diskussion der Lesegruppe neigen zu mehr Pragmatismus. Wo problematische Entwicklungen in der politischen Kultur vorliegen oder Qualitätsmedien unter Druck geraten, kann dass nicht einfach den neuen medialen Formen angelastet werden.

    Da müsste umfassend diskutiert werden, ob es im tonangebenden Mittelstand ein kulturelles Race to the Bottom gibt. Wenn es zutreffen sollte, dass die funktionale Elite sich boulevardisiert und beispielsweise Banker die Derivatemathematik auf Hochschulniveau betreiben, Allgemeinbildung aber aus digitalen, analogen oder papierenen Sensationsmedien bezieht: Dann haben wir vielleicht ein Problem.

     1) Andrew Keen: The Cult of the Amateur: How Today’s Internet is Killing Our Culture. Boston, London 2009.

    Tweakfest – digital culture & lifestyle festival

    Das dritte Tweakfest findet am 24. und 25. April in Zurich statt. Thema ist InterFaces, konkret geht es um die Schnittstelle zwischen Realität und Virtualität.

    Am Samstag ist die Digitale Allmend im Rahmen ihrer Creative Commons Switzerland am Tweakfest beteiligt: Showcase: Creative Commons – “Warum wir 300.000 € verschenken…

    Open Expo – 1/2. April

    Am 1. und 2. April findet die OpenExpo 2009 in Bern statt:

    Die Krise als Chance – auch für den Durchbruch von Open Source Software! In wirtschaftlich herausfordernden Zeiten steigt der Kostendruck auf IT-Abteilungen und Open Source Lösungen erhalten plötzlich eine neue Attraktivität. Wie wird konkret Nutzen aus Open Source Software gezogen, was sind die Business Modelle dahinter, wie werden Fehler vermieden und Probleme behoben? Diese und weitere Fragen behandeln die 40 Referate der OpenExpo, der grössten Schweizer Open Source Veranstaltung.

    Mehr Infos gibt es auf der Webseite der OpenExpo.