Einführung ins Immaterialgüterrecht

Um die Zugkräfte auf die Zugänge zu digitaler Information besser zu verstehen, kommt man ja einfach nicht darum herum, sich mit den grundlegenden Prinzipien des Geistigen Eigentums vertraut zu machen. Die Lesegruppe der digitalen Allmend beschäftigt sich daher – obschon juristische Laientruppe – im Moment mit dessen rechtlichen Aspekten.

«In a nutshell» (zu deutsch: «kurz und bündig») heisst eine Reihe des Dike Verlages mit Publikationen aus allen Rechtsgebieten, die sich in erster Linie an Praktiker und Studierende richtet. Der Titel zum Immaterialgüterrecht (1), den wir uns vorgenommen haben, bietet mit seiner übersichtlichen und kompakten Darstellung aber auch für Nicht-Juristen einen gut lesbaren Überblick und scheint uns zum punktuellen Nachschlagen ebenfalls sehr empfehlenswert.

Die Autoren machen es sich zur Aufgabe, das Wesentliche zum Immaterialgüterrecht knapp und übersichtlich darzustellen; insofern gibt es hier wenig zusammenzufassen und kann mit allerbestem Gewissen auf den Text verwiesen werden. Der erste Teil, den wir bisher gelesen haben, gibt eine allgemeine Einführung –  was sind Immaterialgüter; weshalb Immaterialgüterrechte; was ist die Kritik daran; in welchem Verhältnis stehen sie zueinander – und einen Überblick über Rechtsquellen und Institutionen des Immaterialgüterrechts.

Interessant sind die beiden Ansätze für die Rechtfertigung des Schutzes geistiger Güter: der rechtsphilosophische sichere, so die Verfasser, grundsätzlich dem Schöpfer eines Werkes die Früchte seiner Arbeit zu und sei darin auch kaum zu bestreiten. Weil er aber in der praktischen Ausgestaltung der zu schützenden Rechte im Hinblick auf ihre konkrete Ausgestaltung (Schutzumfang, Schutzdauer, Definition von Ausnahmen, etc.) zu vieles offenlasse, werde heute in der Regel mit einer wohlfahrtsökonomischen Begründung operiert, die auf den wirtschaftlichen Nutzen der Allgemeinheit ziele. Unerwähnt bleibt dabei allerdings, dass auch diese Maxime nichts über die ganz konkrete Ausgestaltung sagt, wie ja aktuelle Diskussionen etwa über Dauer von Schutzrechten zeigen.

Dass in dieser generellen Einführung auch Kritikpunkte am Konzept des geistigen Eigentums (ungerechtfertigte Monopole und Machtballung, Ausbeutung der Länder der dritten Welt) erwähnt sind, spricht für die um neutrale Sachlichkeit bemühte Darstellung.

Selbst bei einem so knappen Überblick wird deutlich, dass Bedingungen, Motivationen, Abwägungen von Chancen und Risiken und entsprechend die Entwicklungslinien für ihren rechtlichen Schutz bei verschiedenen Immaterialgütern sehr unterschiedlich sind, wenn man beispielsweise an den Erfindungsschutz (Patentrechte), den Schutz geistiger Werke der Literatur und Kunst (Urheberrecht mit starker persönlichkeitsrechtlicher Komponente) und den Kennzeichenschutz (Markenrecht) denkt.
Das nächste Mal werden wir uns vertieft mit dem Urheberrecht beschäftigen.

Ob sich daraus irgendetwas für die aktuell geführte Diskussion zur Publikation wichtiger Dokumente des kulturellen Erbes auf der Website e-rara ableiten liesse, hätte die Schreiberin am meisten interessiert. Weil dies aber nun ja etwas wäre, wie wenn man einen Medizinstudenten des ersten Semesters zur Diagnostizierung von Symptomen eines akuten Kreislaufproblems heranlassen wollte, ist es, zumindest mit der Einführung allein, doch noch nicht zu bewerkstelligen.

1 Markus Kaiser, David Rüetschi: Immaterialgüterrecht. Zürich, 2009. (in a nutshell)

Zur historischen Entwicklung von Urheberrecht und Geistigem Eigentum

Die Lesegruppe hat aus dem Report des European Communication Council ECC das Kapitel von Hannes Siegrist über die historische Entwicklung des Geistigen Eigentums gelesen. (1)

Siegrist betont gleich zu Beginn, dass es sich bei Autorschaft und Geistigem Eigentum um soziale, kulturelle und gesetzliche Konstrukte handle und setzt sich damit deutlich ab von jenen Betrachtungsweisen und Disziplinen, die den Autoren, das Werk oder das Geistige Eigentum ahistorisch als zeitlose, quasi natürliche Phänomene betrachten.

In der vormodernen Ständegesellschaft, so breitet es der Text dann aus, lag die Verfügung über Symbole und Formen von Wissen in der Hand weltlicher und kirchlicher Obrigkeiten; dieses Recht begründete sich aus Religion, Tradition und Gewohnheitsrecht. Herrscher, Päpste und freie Städte verliehen Privilegien: die Universitäten kontrollierten das medizinische und rechtliche Wissen, Zünfte das technische Wissen von Handwerkern und Kunstgewerblern, Handelsgesellschaften das Wirtschaftswissen. Dannzumal lag das Druck- oder Publikationsrecht bei Druckern und Verlegern – und nicht etwa bei den Autoren, die gerade nur gelegentlich belohnt wurden. Erst mit dem so genannten «Statute of Anne», dem eigentlichen Beginn eines Urhebergesetzes 1710 in England und ähnlichen Regelungen in Frankreich um dieselbe Zeit, wurde der Verfasser als gesetzlicher Urheber eines Werkes anerkannt. Damit wurde nicht nur der Autor über Drucker und Verleger gestellt, indem er per Vertrag die Rechte zur Reproduktion und Verbreitung seines Werkes abtreten konnte, es wurde auch die geistige Arbeit gegenüber Handels- und Handwerksarbeit höher gestellt; das Verhältnis zwischen materiellen und immateriellen Anteilen eines Werks war neu definiert.

Der Autor in einem modernen Verständnis als kreatives Individuum taucht dann aber erst in der Folge der Aufklärung auf: Die Ablösung von Traditionen und althergebrachten Mustern und ein Bewusstsein für das freie Denken bringen ihn in der zweiten Hälfte des 18. Jahrhunderts als Erfinder und Schöpfer von Werken eigentlich erst hervor.

Schriftsteller und Autoren haben sich in der Folge auch über die aufführenden Künstler und angewanden Künste gesetzt. Erst im Laufe des 20. Jahrhunderts wurde diese Hierarchie aufgrund von Veränderungen in der Arbeitsteilung in Theater, Film und Fernsehproduktion in Frage gestellt: Produzenten, Regisseure, Schauspieler und Musiker machten den kreativen Anteil ihrer Arbeit und den Anspruch an dessen Originalität mehr und mehr geltend. Das 20. Jahrhundert schliesslich hat eine völlige Umgestaltung dessen gesehen, was als Kreativität gilt: von der seltenen schöpferischen Begabung des Genies zu einem allgemeinen menschlichen Attribut. Parallel dazu kommen in der modernen, kommerzialisierten Massen- und Populärkultur immer mehr Werke verschiedenster Gattungen unter den Schutz eines Copyrights, die oft sogar nicht einmal den Anspruch an Originalität vertreten, beispielsweise elektronisch unterstützte Mixtures von Bild und Ton.

Der Historiker der Lesegruppe merkt zum geschichtlichen Abriss des Textes kritisch an, dass er da und dort gern genauere Beispiele und Daten gehabt hätte, die Siegrist hier zumeist schuldig bleibt. Der Text ist tatsächlich sehr summarisch, zeichnet aber anschaulich und lesbar die groben Entwicklungslinien nach.

Kein Blick in die Zukunft: Die historische Forschung zeige – Siegrist weist mehrfach darauf hin – dass das Prinzip des Geistigen Eigentums eigentlich nie nur der Abgeltung der Autoren gedient habe, sondern dass der Zweck immer gleichfalls war, das dynamische Zusammenspiel von Kultur, Gesellschaft und Wirtschaft sicher zu stellen und einen Ausgleich zwischen den Rechten der Autoren, der Verleger und dem öffentlichen Interesse zu schaffen. (So sprach schon der «statute of Anne», der eigentliche Meilenstein in der Urheberrechtsgeschichte, einem Schriftsteller zwar ein urheberrechtliches Eigentum an seinem Werk zu, das für die nächsten 14 Jahre gesichert sein sollte. Dazu war eine Erneuerung seiner Rechte um weitere 14 Jahre möglich, solange der Autor noch lebte.) Gleichzeitig wurde aber damit auch schon der «Public Domain» geschaffen, was bedeutet, dass der Eigentümer des Urheberrechts nach Ablauf dieser Zeit auf den Gebrauch seines Werkes keinen Einfluss mehr hatte.
Befürchtungen, dass Konzepte des Geistigen Eigentums aus der Kontrolle geraten und das Ende jeder Autorschaft bevorstehe, können also durchaus in dieser Tradition der Kontroversen, aber auch Bemühungen um den Ausgleich zwischen individuellem und öffentlichem Gut gelesen werden. Das Veränderungspotential der Digitalisierung und des Internets ist aber auch in diesem Bereich gewaltig und äusserst dynamisch. Nicht nur wird die vorherige Zuschreibung von Wissen, Fähigkeiten, Fertigkeiten und Werken zu traditionellen Berufsständen und Inhabern mehr und mehr in Frage gestellt und ist der Schutz entlang nationaler Grenzen kaum mehr zu gewährleisten. Wenn der Wert einer Autorschaft heute weniger durch deren intellektuelle Errungenschaft bestimmt wird als durch die Nachfrage, verändern sich auch soziale, ökonomische und kulturelle Rangordnungen. Wie unter diesen veränderten Bedingungen produktive Begleichungen zu gewährleisten wären, lässt der Text verständlicherweise offen.

1 Hannes Siegrist: The History and Currrent Problems of Intellectual Propery (1600-2000); in: Axel Zerdick … et al.: E-Merging Media. Communication and the Media Economy of the Future. European Communication Council Report. Berlin, 2005. (D: E-Merging Media. Kommunikation und Medienwirtschaft der Zukunft. Berlin, 2004).

European Communication Council ECC: Gruppe vorwiegend europäischer Kommunikationswissenschaftler. Der erste ökonomisch ausgerichtete Bericht «Die Internet-Ökonomie – Strategien für die digitale Wirtschaft» erschien 1999 als European Communication Council Report und befasste sich mit dem Einfluss neuer Technologien auf die Medien- und Kommunikationsindustrie. Dieser dritte Bericht des ECC untersucht aus unterschiedlichen Blickwinkeln den Wandel der Medienlandschaft.

Hannes Siegrist: Prof. Dr. habil., Universität Leipzig, Bereich vergleichende Kultur- und Gesellschaftsgeschichte

Lehrer müssen keine Diebe sein: Offene Inhalte für die Schulen anstatt Schutz der Verlage

Buchhändler und Lehrmittelverlage bangen um ihre Einkünfte und haben deshalb die Kampagne „Fair kopieren“ lanciert. Die Digitale Allmend weist jetzt darauf hin, dass der freie Zugang zu Wissen zentral ist für die Bildung und dazu alternative Lizenzen wie die Creative Commons zu fördern sind.

Der Verein Digitale Allmend hat mit Erstaunen von der Kampagne „Fair kopieren“ des Schweizer Buchhändler- und Verleger-Verbands SBVV und den Lehrmittelverlagen Kenntnis genommen. Lehrerinnen und Lehrer sollen vom Kopieren von Unterrichtsmaterialien abgeschreckt werden, indem davor gewarnt wird, dass qualitativ hochstehende Lehrmittel nicht mehr produziert werden könnten, falls für Unterrichtszwecke weiterhin kopiert wird. Die Kampagne operiert dabei mit nicht nachvollziehbaren Schätzungen und unterstellt, ohne den Beweis zu erbringen, vielen Lehrer und Lehrerinnen ein kriminelles Verhalten.

Auch wenn die Kampagne scheinbar ein differenziertes Bild aufzeigen möchte, so enthält sie einige Irreführungen und Übertreibungen. Sie ist stark von den Interessen von Verlagen an einer restriktiven Auslegung des Urheberrechts geprägt und erwähnt die Schrankenbestimmungen nicht als Recht, sondern als gutmütige Ausnahme der Rechteinhaber. Unter anderem behauptet die Kampagne fälschlicherweise, dass Buchkapitel nicht kopiert werden dürfen. Auch wird nur am Rande erwähnt, dass Schulen bereits beachtliche Summen für das Kopieren von Unterrichtsmaterialien an Verwertungsgesellschaften bezahlen und damit die Nutzung für den Unterricht vergüten.

Des weiteren werden keinerlei Alternativen aufgezeigt, wie auf kostengünstige Weise ein breiter Zugang zu Bildung und Wissen für unsere Schulen möglich ist. Es könnte bspw. darauf hingewiesen werden, dass bereits eine beachtliche Anzahl von Werken verfügbar ist, die durch die Verwendung von Creative Commons Lizenzen explizit vervielfältigt und je nach der gewählten Lizenz sogar angepasst werden dürfen. Open Source Communities, die Wikipedia-Autorenschaft oder wissenschaftliche Open Access Journals haben gezeigt, dass es auch alternative Wege gibt, qualitativ hochstehende Werke zu schaffen, bei denen Kopieren explizit erlaubt ist. Schliesslich darf nicht übersehen werden, dass im Literaturbereich viele Werke kopiert werden dürfen, da das Urheberrecht bereits erloschen ist.

Problematisch ist ausserdem, dass viele der an der Kampagne beteiligten Lehrmittelverlage im Besitz von Kantonen oder anderen staatlichen Institutionen sind. Es stellt sich ernsthaft die Frage, weshalb Werke, die von öffentlichen Institutionen für Bildungszwecke erstellt werden, nicht grundsätzlich frei verfügbar sein sollten. Eine Forderung die auch von Nationalrätin Edith Graf-Litscher, Co-Präsidentin der Parlamentarischen Gruppe Digitale Nachhaltigkeit unterstützt wird: “Von der öffentlichen Hand finanzierte Forschungs- und Bildungsergebnisse sollen als öffentliche Güter frei verfügbar sein.” Eine Klärung der Situation ist dringend notwendig, da offenbar das ursprüngliche Ziel dieser Verlage, kostengünstige und einfach verfügbare Lehrmitteln für die Schule zu fördern, mit der Unterstützung der Kampagne „Fair kopieren“ in den Hintergrund gerückt ist.

Eine wirklich “faire” Kampagne würde nicht nur die Sichtweise und Interessen der Verleger darlegen, sondern auch die aktuelle Situation umfassender darstellen, nachhaltige Alternativen aufzeigen und fördern. Die Digitale Allmend verlangt von der Kampagne „Fair kopieren“ eine gründliche Überarbeitung der Kampagneninhalte entsprechend der aufgeführten Punkte. Sie fordern zudem, dass öffentliche Lehrmittelverlage und Bildungsinstitutionen vermehrt freie Lizenzen wie Creative Commons einsetzen, damit ihre Werke frei kopiert, verbreitet und verwendet werden können.

Googeln – und Alternativen

Was ist der Stellenwert von Suchmaschinen im Allgemeinen und von Google im Besonderen? Wo sind bedenkliche Aspekte zu diskutieren? Wie sehen Alternativen aus? Diese Fragestellungen haben wir in der Lesegruppe am 14. September diskutiert.

Eine Feststellung ist wenig umstritten. Die weitläufige und unübersichtliche Ansammlung von Objekten im Internet macht Suchmaschinen unverzichtbar. Google erfüllt hier – genau wie andere Angebote – eine produktive Funktion. Suchmaschinen erschliessen, sie schaffen keinen Content. Geschäftsmodelle, die auf Suchmaschinen aufsetzen, weisen einen gewissen parasitären Aspekt auf. Sie basieren auf inhaltlicher Kulturarbeit, die von Dritten geleistet wurde, ohne dass diese am Geldfluss der Suchmaschine beteiligt werden. Allerdings werden sie als Gegenleistung den Suchenden präsentiert.

Kreation und Erschliessung von Inhalten sind zwei paar Schuhe. Letzeres kann voll automatisiert durch die mechanische Anwendung von Algorithmen geschehen. Und Vollautomatisierung gehört zu den Dogmen von Google: Man will Systeme laufen lassen, nicht Inhalte produzieren.

In einer Pionierphase wurden Suchmaschinen ohne Geschäftsmodell aufgebaut. Dann kam rasch die Idee au, Werbung zu schalten. Das geschah in Form bunter Bildchen und massloser Userbelästigung. Hier setzte nun Google an und wählte ein zurückhaltenderes, von den BenutzerInnen eher akzeptiertes Layout. Ein wesentlicher Grund für den Aufstieg zur Nummer eins.

Mit kritischen Aspekten der Google-Dominanz setzt sich Gerald Reischl im Buch „Die Google Falle“ auseinander. Er nennt Indizien dafür, dass Google die Systeme nicht absolut autonom werkeln lässt, sondern im Interesse guter Geschäftsbeziehungen durchaus für einen wichtigen Werbekunden unterstützend eingreift und die Suchergebnisse beeinflusst. Wie weit das geschieht und wie relevant das für die Suche ist, konnten wir in der Diskussion nicht wirklich einschätzen. Auch wenn nicht von permanenten massiven Manipulationen ausgegangen werden muss, sind die Intransparenz und die verdeckten Eingriffsmöglichkeiten ein Ärgernis.

Ein zweiter Konfliktbereich ist der Datenschutz. Wenn Suchmaschinen mit universellen Mechanismen auf Datenbestände mit grösstenteils niedriger Qualität losgehen, lassen die Ergebnisse häufig zu wünschen übrig. Um die Qualität der Suche zu verbessern, implementiert Google ein weitreichendes User-Tracking. So werden nicht nur Infos in Browser-Cookies abgelegt. Die können auch mit Informationen aus anderen Google-Services verknüpft werden. Google sammelt riesige Datenmengen über User und ihr Verhalten, was natürlich für das Werbegeschäft Gold wert ist. Reischl weist darauf hin, dass im Bereich User-Tracking emsiges Patentieren im Gang ist. Die Forscher und Firmen suchen dabei mit der Wortwahl jede Assoziation an Big Brother zu vermeiden. Die Rede ist von Tokenization oder Statistik (1). Wenn Reischl „das totale Wissen über den Nutzer“ als ein Ziel von Google nennt, ist das vielleicht etwas überzogen. Diskussions- und regulationswürdig erscheint das aber schon.

Interessant sind Ansätze zur Verbesserung von Suchergebnissen, die Reischl unglücklicherweise unter dem Thema „semantisches Web“ fasst. Gemeint sind Versuche, auf Seite der Suchmaschine mit computerlinguistischen Ansätzen die Qualität der Indexierung zu verbessern und in die Richtung formulierter Antwort auf Fragen zu gehen. Nach Ansicht der Diskutierenden würde das Semantische Web in erster Linie auf Seiten der Angebote implementiert, wo die Objekte mit systematischer Metainformation angereichert würden. Das wäre menschliche Kulturarbeit (soweit es von Hand geschieht). Was Google mit den erweiterten Ansätzen tut, ist eben keine Bedeutungskreation. Maschinen reorganisieren Bytes.

Im zweiten Teil der Diskussion haben eines Webdokuments (2) einen Blick auf Dutzende von Alternativen zu Google geworfen. Hier gibt es sehr interessante spezialisierte Angebote. Meistens sind das Varianten des Prinzips Suchmaschine.

Grundlegende Alternativen sind andere Mechanismen, welche die disparate Welt des Internets erschliessen. Ein Mechanismus ist der direkte Verweis auf Inhalte aus Chatnetzen oder Mailinglisten. Hier wird Bekannten oder einer Community vertraut, die auf einen Inhalt zeigen. Auch bestimmte Medien, digital oder nicht, können weitere Inhalte erschliessen und Links liefern. Diese Mechanismen führen wie Suchmaschinen auf erwünschte Seiten hin, aber anders als Suchmaschinen. Durch Sinnerzeugung in einem soziokulturellen Prozess, nicht durch Festplattengeratter.

Suchmaschinen sind unverzichtbar. Mit Blick auf unsere Alltagserfahrungen haben wir noch festgestellt, dass Suchmaschinen ausgerechnet dort schwach sind, wo das Angebot gross ist. Etwa bei Hotels in einer Grossstadt. Es gibt das Zimmer, das Du suchst. Nur zeigt es Google nicht.

1) Gerald Reischl: Die Google-Falle: die unkontrollierte Weltmacht im Internet. Ueberreuter 2008. S. 44
2)
Beyond Google: Cool Search Engines And Search Tools You May Have Not Heard About – A Mini-Guide 

Google zum ersten: Geschäftsmodell und Serviceangebote

Lars Reppesgaard, freier Journalist in Hamburg, hat 2008 ein Buch über Google als Firma und Prinzip vorgelegt, das einen guten Einblick in Entwicklung und Geschäftsstrategien des Suchmaschinenriesen gibt (1). 

Abwechslungsreich und seriös geschrieben handelt es sich dabei weniger um eine sehr tief gehende Analyse des Google-Imperiums, sondern eher um eine Geschichte, die die Firma über ihre Kultur, Praktiken, Gründer und Mitarbeiter  plastisch macht; heiklere gesellschaftlich-politische Themen wie Datenschutz und Privatsphäre werden gestreift, der Fokus liegt aber auf den geschäftlichen und wirtschaftlichen Strategien. Bereits das Inhaltsverzeichnis gibt einen Überblick über all die Google-Applikationen, die es bis anhin gibt. Der Autor verhehlt auch keineswegs, dass Google bei den meisten keineswegs die Erfinder waren, aber die besseren Zweiten, denen es gelingt, die Fehler der Konkurrenz konsequent zu vermeiden.

Das zweite Kapitel «Der Kampf um die ersten Plätze» beleuchtet denn auch schon den Kern von Googles Geschäftserfolg, die online-Werbung. Die Lesegruppe der digitalen Allmend nahm es zum Ausgangspunkt, Googles Geschäftsmodell und Serviceangebot im Werbemarkt zu diskutieren.

Interessant daran ist ja folgendes: Während Google in der Öffentlichkeit vor allem als Suchmaschine wahrgenommen wird, ist es weit eher eine Werbe- und Verkaufsmaschine, wenn man zum Massstab nimmt, womit der Geschäftserfolg erwirtschaftet wird. Einnahmen werden also erst mit einem Sekundärmechanismus generiert, eben mit der «Geldmaschine Onlinewerbung» (so der Untertitel des Kapitels), während die eigentliche Suche für den Nutzer kostenfrei bleibt.

Zwei Mechanismen werden im Folgenden genauer beschrieben: Adwords und Adsense. Adwords ist das Programm, das bei einer Suchabfrage mit Google auf der Ergebnisseite rechts die kleinen vierzeiligen Textannoncen platziert.  Jedes Mal, wenn die suchende Person anstatt eines Links aus der Ergebnisleiste ein bezahltes Inserat anklickt, wird eine Provision an Google fällig. Adsense stimmt Anzeigen auf die Inhalte von Webseiten ab, die nicht direkt zu Google gehören. Jeder der eine Internetseite, einen Blog, ein Ratgeberportal oder was immer betreibt, kann sich für das Programm anmelden; auch professionelle Online-Angebot wie dasjenige der Süddeutschen Zeitung nutzen das Angebot, um Geld zu verdienen und Aufwände zu refinanzieren.

Weil das automatisierte System, mit dem passende Anzeigen neben die eigentlichen Suchergebnisse gestellt werden, ebenfalls sehr treffsicher ist, sind die Klickraten – und entsprechend die Gewinne – hoch. Dass die Anzeigen so gut passen, macht ein ausgeklügeltes Positionierungssystem möglich, das verschiedene Parameter anhand mathematischer Verfahren gewichtet: neben Stichworten, die vom Anzeigekunden bestimmt werden, sind es Klickraten (wenig angeklickt scheint für die Surfer weniger interessant und rutscht nach unten), geografische Zuordnungen und andere statistische Auswertungsverfahren, etwa die Ladezeit.

Die Diskussion in unserer Gruppe hat erbracht, dass wir selber die Kleinanzeigen rechts meistens eher ignorieren. Hin und wieder einmal können sie jedoch durchaus hilfreich sein auf der Suche nach einem speziellen Produkt (als Beispiel dient eine Luftwärmepumpe), etwa um einen lokalen Anbieter  kennen zu lernen. Weiter haben wir uns gefragt, ob es heikle Anwendungen gibt, Beispiel: Angebote für Kleinkredite. Ausprobieren zeigt, dass mit «Kleinkredit/Zürich/diskret» sofort 8 Werbeinserate erscheinen (auf Wunsch mehr). Ein weiterer Klick präzisiert, was ein Betrag von CHF 20000 über 12 Monate pro Monat kostet (zuviel!) und auf der gleichen Seite erscheinen auch gleich die unbestreitbar tröstlichen Vorteile: Erlass der Restschuld im Todesfall. Ob allerdings Kleinkredite übers Netz problematischer sind, nur weil man sie auch über Googles Werbeanzeigen findet, ist aber doch zu bezweifeln.

Der Vorteil für die werbenden Unternehmen – und für die Marketingindustrie, der sich da ein neues Betätigungsfeld aufgetan hat: Suchmaschinenmarketing und -optimierung, Web-Analytics, E-Business Beratung, Virales Marketing, Online-Werbung und ähnliches – ist ein ausgebautes System von Softwarelösungen: von der Evaluation über die Auswertungen von Benutzerverhalten bis zur laufenden Optimierung, etwa der Keywörter, die Besucher auf die eigene Website ziehen sollen. Ob der einzelne Werbefranken hier tatsächlich mehr bewirkt als an der Plakatwand, dürfte trotzdem schwer zu erheben sein; offensichtlich verbreitet ist aber die Hoffnung, dass man mehr Kontrolle hat.

Der Text wagt auch einen Blick in die Zukunft: Die Bedeutung des Onlinewerbemarktes ist immer noch gering, im Verhältnis zur Summe die insgesamt für Marketing ausgegeben wird, handelt es sich laut Reppesgaard um ca 5%. Google hat im Suchbusiness, kombiniert mit Anzeigen, eine hohe Marktsättigung erreicht; offenbar liegt sie in Europa bei deutlich über 90%: die Wachstumsmöglichkeiten sind da also begrenzt. Die Strategie von Google wird es daher sein, die technologischen Errungenschaften aus dem Online-Geschäft auf andere Werbebereiche (Radio, Fernsehen, Print und neue Formen wie interaktive Displayflächen) zu übertragen: mit Hilfe von Software Anzeigen so zu platzieren, dass sie einen engen Bezug haben zum Kontext, in dem sie stehen (Beispiel sind etwa die von MINI USA versendeten Chips mit Radiofrequenz-Identifikation (RFID), auf die interaktive Displayflächen mit einer persönlichen Nachricht für die Fahrer reagieren), Kampagnen in Echtzeit zu analysieren und sie gegebenenfalls zu verändern und Preise je nach Nachfrage automatisch über Auktionen festzulegen. 

 

1) Lars Reppesgaard: Das Google-Imperium. Hamburg, 2008

Ökologie der Information

In seinem Buch «The Public Domain» fordert James Boyle „an environmentalism for information“ – ein Ökologie(bewegung) für Information. Dabei sucht er einen Weg zwischen allgemeinen Konzepten einerseits und konkreten Forderungen andererseits (1).

Im entsprechenden Kapitel 10 geht Boyle von der Frage aus, was denn eigentlich zu den unpraktischen und behindernden Einschränkungen bei Regulierungen zum geistigen Eigentum führt. Dabei ortet er kognitive Voreingenommenheit als wichtige Ursache: Er spricht von kultureller Phobie gegenüber Offenheit – von Agoraphobie. Diese Haltung führt dazu, immer die Bedenken und Risiken (wie Spam, Viren, Piraterie) in den Vordergrund zu rücken. Als Beispiele nennt der Autor Trusted Computing und Netzneutralität. Boyle räumt durchaus ein, dass Offenheit nicht immer angemessen ist. Als Grundhaltung hilft sie aber, das Potential von Wissenschaft und Kultur zu entfalten.

Die Lesegruppe der Digitalen Allmend diskutiert, wie weit Agoraphobie wirklich eine Mainstreamhaltung des westlichen Mittelstands sei. Immerhin sind ja auch zahlreiche Menschen bereit, in Bewegungen und Vereinen eine Reihe von Leistungen und Publikationen gratis und ohne Kontrolle in die Öffentlichkeit zu entlassen.

Boyle nimmt seine Agoraphobie-These zum Ausgangspunkt, um eine Ökologie der Information zu skizzieren, die sich in Inhalt und Form an der Umweltbewegung orientiert. Er ruft Elemente wie die Forderung nach der Internalisierung externer Kosten in Erinnerung, ohne sie im Detail auf die Informationsfreiheit zu übertragen. Ihn interessiert mehr die Entstehung einer Bewegung, welche sich für die öffentlichen Interessen der Informationsgesellschaft einsetzt – gegen starre Vorurteile und verfestigte Geisthaltungen.

Wie in der Diskussion vermerkt wird, bleiben die konkreten Forderungen des Autors ziemlich moderat, verglichen mit dem gross angelegten Konzept einer Informationsökologie. So möchte Boyle das Copyright bei Literatur auf zwanzig Jahre beschränken, dann aber eine Erneuerung auf Antrag zulassen. Als Fehlschlag im Geiste von engstirnigen politischen Interessen und Geisteshaltungen taxiert er die Europäische Datenbankdirektive. Die Aufhebung von Pharmapatenten hält er für eine schlechte Idee.

Boyle ist also weder Fundi noch Anhänger eines ‚anything goes‘. Er will konkrete Probleme angehen – mit „Ausgewogenheit, Nachdenklichkeit und empirischen Belegen“ (S. 238).

 

1) The Public Domain. Enclosing the Commons of the Mind. James Boyle, New Haven Ct, 2008. Der Autor macht das Buch auch verfügbar unter einer Creative Commons Lizenz: http://thepublicdomain.org

Gemeinfreiheit des Geistes

In seinem Buch «The Public Domain» (1) beschreibt James Boyle, Rechtsprofessor an der Duke University School of Law und Mitbegründer von Creative Commons, die aktuellen Kämpfe um die Rechte des geistigen Eigentums und bezeichnet sie gar als «Gebietskriege des Informationszeitalters».

Unsere Musik, unsere Wissenschaft, unser wirtschaftliches Gedeihen, ja unsere gesamte Kultur würden abhängen von der heiklen Balance zwischen jenem Ideengut, das jemand besitzt und kontrolliert und jenem, das öffentlich und frei ist. Natürlich sei der Schutz des Geistigen Eigentums wichtig, so dann des Autors Position, der aktuelle Umgang mit den Rechten aber unausgewogen: eine allzu wegschliessende Geste von «Symbolen, Themen, Fakten, Genen und Ideen». Boyle prognostiziert für die aktuelle Praxis fatale Auswirkungen auf die freie Rede und Kreativität, zukünftige Bildung und wissenschaftliche Innovation.

Dabei geht es ihm erst einmal um Aufklärung: Er argumentiert, dass – genauso wie jeder informierte Bürger, jede Bürgerin wenigstens ein Minimum über Umwelt, Wirtschaft oder Bürgerrechte wissen müsse – auch alle etwas vom Prinzip des Geistigen Eigentums verstehen sollten, eben weil es dabei um Regelungen zum grundlegenden Gut der Informationsgesellschaft gehe. Als eines der Hauptprobleme identifiziert er das «weit verbreitete Nichtverstehen» der Bedeutung des «Public Domain» –  also der Gesamtheit des geistigen Kollektivgutes und Materials, das jedermann ohne weitere Genehmigung und ohne Kosten frei benutzen und weitergeben darf. Der «Public Domain» müsse im öffentlichen Verständnis als Wissensallmende und Gemeingut der modernen Informationsgesellschaft in einem gewissen Sinn erst erfunden und etabliert werden, bevor wir ihn schützen könnten – in dieser Hinsicht durchaus analog zur «Umwelt» und den Bemühungen um ihren Schutz.

Das erste Kapitel «Why Intellectual Property», das die Gruppe gelesen hat, verfolgt erst einmal die (guten) Gründe für Schutzregelungen. Während viele materielle Güter nach Bedarf erzeugt werden und sich ihr Preis an der Schnittstelle von Angebot und Nachfrage ergibt, stellen sich Probleme des Marktanreizes bei jenen, die aufwendig in der Entwicklung, aber billig zu kopieren sind. Wer würde beispielsweise die langwierige Entwicklung von wirksamen Medikamenten auf sich nehmen? Solche Güter schütze der Staat via den «Markt-schaffenden Kniff» des intellektuellen Eigentums (2): vor allem durch Patente und Copyrights. Gerade der Vorteil von Patenten sei doppelt: Durch die Möglichkeit, Entwicklungsaufwände wieder einzuspielen sicheren sie einerseits einer Erfindung überhaupt erst eine gewisse Lebenschance, durch ihre Registrierung verhindern sie andererseits, dass innovatives Wissen geheim gehalten und damit der Gesellschaft entzogen sei.

Etwas anders noch stellt sich die Problematik schützen/frei lassen bei kulturellen Gütern, wie etwa Musik, Bilder, Texte, Filme, literarische Werke, die – heute oft gar nicht mehr an materielle Publikationsformen gebunden – durch den Gebrauch nicht etwa weniger werden, sondern durch ihre Verwendung und Vervielfältigung via Internet und mittels der verblüffenden Informationsverarbeitungskapazität von Millionen von Menschen die Chance auf neue Gebrauchszusammenhänge erst eröffnen. Im ungünstigen Fall aber, etwa als «orphan works» (verwaiste Werke, deren Urheber oder Rechtsinhaber nicht oder nur sehr schwer zu ermitteln ist) stellen sie ein Problem dar, da eine Nutzung, die die Zustimmung des Urhebers oder der Rechteinhaber voraussetzt, nicht möglich ist. Das ist eines der Beispiele, die der Autor anhand der Library of Congress etwas breiter ausführt; hier schreibt er dann explizit an gegen unsinnige Copyright Bestimmungen und das, was er als Exzesse des Rechtes auf Geistiges Eigentum ansieht.

Die Gruppe stimmt ihm grundsätzlich zu und die Diskussion beschäftigt sich in der Folge einige Male mit dem, was wir eben nicht so genau wissen: Einerseits geht es um ein Auseinanderhalten von sehr verschiedenen Rechten im Zusammenhang mit dem Geistigen Eigentum: copyright, patent und trademark. (Was z.B. ist genau patentierbar bei der Software-Entwicklung, das Verfahren? Ist das Urheberrecht ebenfalls so ein «Markt-schaffender Kniff»?) Dann sind historische Entwicklungen, und Bedeutungen einzelner Aspekte in den USA zuverlässig verschieden von europäischen (in den USA wird offenbar seit längerem heftig über orphan works debattiert; Relevanz bei uns, z.B. wissenschaftlich?). Und nicht zuletzt kann die Bedeutung englischer Begriffe wie «Copyright» und «Public Domain» nicht ohne weiteres auf die deutschen Begriffe «Urheberrecht» und «Gemeinfreiheit» übertragen werden (Neben «Public Domain» als «Gemeinfreiheit» bezeichnet der Begriff gelegentlich offenbar auch Werke, «deren Urheber mindestens einer nichtkommerziellen Verbreitung zugestimmt hat» (3). So ist das rechtliche Prinzip des Copylefts – zumindest gemäss dem, was die Schreiberin nachgelesen hat  – «nicht vereinbar mit dem der Gemeinfreiheit, da Copyleft auf das Urheberrecht aufbaut, anstatt wie die Gemeinfreiheit darauf zu verzichten.… «Public Domain» ist «keine Lizenzvariante, sondern der generelle Verzicht auf eine Lizenzforderung». (3))

Der Text liest sich anschaulich und wir wollen es gern noch etwas genauer wissen. Beschluss: ein zweites Kapitel wird gelesen.

 

1 The Public Domain. Enclosing the Commons of the Mind. James Boyle, New Haven Ct, 2008. Der Autor macht das Buch auch verfügbar unter einer Creative Commons Lizenz: http://thepublicdomain.org

2 («market-making» device) der Autor zitiert hier seinen Kollegen Jerry Reichmann

3 http://de.wikipedia.org/wiki/Gemeinfreiheit (02/05/09)

Amateuer Kult

Auf dem Höhepunkt der Web 2.0 Verklärung ist Andrew Keen der Kragen geplatzt. Er ist 2007 mit einer lebhaft geschriebenen Polemik auf den Plan getreten – gegen den „Cult oft he Amateur“ (1).

Keen selber ist als Aktivist und Unternehmer in der Internet-Kulturszene tätig und entwickelte ein Musikportal. Ihm schwebte vor, das Internet zu einem technischen Verteilkanal von Kultur in einem breiten und herkömmlichen Sinn zu machen. Dazu gehört für ihn eben auch Hochkultur und etwa klassische Musik.

Die Wende kam für Keen im September 2004 an einem von Medien-Millionär und Web 2.0 Verkünder Tim O’Reilly veranstalteten Camp. Da trafen sich gemäss Keen rund 200 „ergrauende Hippies, neue Medienunternehmer und Technologie Fans“ um das Hohelied des Usercontents auf dem Internet anzustimmen. Keen konnte sich mit der Verklärung des Amateurs nicht anfreunden und hat mit dieser Strömung gebrochen.

Keen zeigt sich besorgt um die Qualität des öffentlichen Diskurses. Das postulierte Verschwimmen der Autorposition und die geringe Transparaenz zersplitterter Publikationen wie der Blogs öffnet Tür und Tor für Manipulationen etwa durch intransparente Lobbys. Aus dem Web 2.0 strömen „dubiose Inhalte aus anonymen Quellen, die unser Zeit in Anspruch nehmen und auf unsere Leichtgläubigkeit abzielen“.

Eine weitere Kritik richtet sich gegen den Demokratisierungsanspruch der Web 2.0 VertreterInnen. Demokratisiert werden sollen nicht nur Autorschaft, Information, Wissen oder Kultur – sondern dank dem Internet auch Big Media, Big Business und Big Government. Keen sieht in einer solchen Konzeption von Demokratisierung eine Unterminierung von Wahrheit und Fachwissen.

So berechtigt sich über die aufgeblähten Ansprüche von Web 2.0 Konzepten streiten lässt, so schwach ist Keens Ansatz, hier mit einem naiven Wahrheitsbegriff zu operieren. In der Diskussion wurde betont, dass Demokratisierung eher am Begriff der Partizipation gemessen werden muss: Entwickeln sich Formen von Beeinflussung des öffentlichen Diskurses und gesellschaftlicher Entscheidungen? Davon kann in der Tat auf weiten Teilen des Web 2.0 keine Rede sein.

Keen identifiziert als weitere problematische Tendenz, dass Amateurpublikationen wie Blogs oder Wikipedia die Aufmerksamkeit und die ökonomische Basis von professioneller Kulturarbeit abziehen, wie sie etwa von Enzyclopedia Britannica oder Qualitätszeitungen geleistet wird.

Keens Kritikpunkte erscheinen relevant und fulminant, seine Positionen aber etwas unbedarft. Er neigt zu einem schlichten Vorzeichenwechsel. Pauschale Verherrlichung der neuen medialen Formen wird durch pauschale Niedergangsrhetorik ersetzt. Keen verpasst es auch, die Zivilgesellschaft zu würdigen und die Chancen anzusehen, welche neue Medien hier eröffnen.

Die Positionen in der Diskussion der Lesegruppe neigen zu mehr Pragmatismus. Wo problematische Entwicklungen in der politischen Kultur vorliegen oder Qualitätsmedien unter Druck geraten, kann dass nicht einfach den neuen medialen Formen angelastet werden.

Da müsste umfassend diskutiert werden, ob es im tonangebenden Mittelstand ein kulturelles Race to the Bottom gibt. Wenn es zutreffen sollte, dass die funktionale Elite sich boulevardisiert und beispielsweise Banker die Derivatemathematik auf Hochschulniveau betreiben, Allgemeinbildung aber aus digitalen, analogen oder papierenen Sensationsmedien bezieht: Dann haben wir vielleicht ein Problem.

 1) Andrew Keen: The Cult of the Amateur: How Today’s Internet is Killing Our Culture. Boston, London 2009.

Partizipationsformen im Web 2.0

Das Buch von Roberto Simanowski (1) untersucht gegenwärtige Phänomene der digitalen Medien –Weblogs, Werbung, Identitätstourismus, interaktive Kunst – vor dem Hintergrund einer postmodernen Spass- und Erlebnisgesellschaft. Eine Fülle von Beispielen macht es zum Fundus für verschiedene Auseinandersetzungen; kulturelle, künstlerische und utopische Aspekte werden ebenso aufgenommen wie historische Kontexte. Der Autor behält dabei eine ausgewogene, kritische wie positive Offenheit gegenüber den einzelnen Phänomenen.

Das dritte Kapitel «Kultur der Mitgestaltung», das die Gruppe besprochen hat, handelt zu Beginn ausführlich von Blogs: solche, die das Private öffentlich machen, Watchblogs als praktizierte Medienkritik oder Orte der politischen Auseinandersetzung, literarische Tummelfelder. Der Autor konfrontiert dabei die hoffnungsvolle Vorstellung von den basisdemokratischen Chancen des Web 2.0 mit der kulturpessimistischen Position – harsch vertreten aktuell etwa durch Andrew Keen (2) –, es handle sich dabei doch wohl eher um ein «Überhandnehmen des Banalen» und eine «Herrschaft des Mittelmässigen. Dass sich für beides ungezählte Belege auf dem Netz finden lassen, ist in der Gruppe unbestritten; auch wird darauf verwiesen, dass Blogs über unterschiedlichste Formen, Qualitäten und Dynamiken verfügen, in den verschiedenen Dimensionen sehr ausdifferenziert und daher kaum auf einen Nenner zu bringen sind. Die Diskussion beschäftigt sich dann mit der Frage, ob Blogs so etwas wie ein digitaler Ersatz für den früheren Dorfplatz oder -laden sind; da klingt das «Global Village» von Marshall McLuhan aus den 60-er Jahren nochmals mit an. Während die Dorfgemeinschaft sich aber lokal formiert und über Bewegungsradien natürliche Zwängen unterworfen ist, gruppieren sich Blogs eher um thematische Schwerpunkte und scheinen dadurch erst einmal grössere Beweglichkeiten und Wahlfreiheiten zuzulassen.

Simanowski führt weiter aus, dass bestimmte Phänomene des Web 2.0, etwa politische Blogs oder Wikipedia, angemessener als eine Kultur von Autodidakten als eine von Amateuren zu beschreiben seien – gerade das Wort Amateur transportiert ja auch eine Abwertung im Vergleich zur professionellen Expertenwelt. Die Gruppe nickt und ergänzt, dass es allerdings bis vor nicht allzu langer Zeit auch keine «klassische» Journalistenausbildung gab, sondern sich grosse Anteile der Professionalität dieses Berufsstandes durch «learning on the job» entwickelt haben. Andere Formen dagegen wie z.B. You tube, so Simanowski weiter, werden dagegen als ausschliesslicher Ort von Amateuren gehandelt. Es gehe um einen Wettbewerb, wer am professionellsten wirke, mit dem Grundverständnis und einer Art internem Ehrenkodex, dass kein Profi an diesem Wettstreit teilnehme.

Die abschliessende, beschreibende Darstellung des Bereichs der Computerspiele (Adventure Games, Strategie- oder Rollenspiele) mit verschiedensten Formen der Interaktion (vom Mitspielen bis zum Hack) verhindert zwar eine kontroverse Diskussion in der Gruppe, liest sich aber flüssig und anschaulich, auch wenn man selber nicht spielt. Der Autor verfolgt dabei die Frage nach der Erweiterung des Spielraums für das Publikums, die verschiedenen Formen der Partizipation, durchaus auch mit Anschluss an die alte Vorstellung von der Verwandlung des Zuschauers in den Stückeschreiber. Die Motivation, den Fortgang der Geschichte selber zu prägen, ist dann gleichfalls ein Aspekt der Fan-Fiction zu Spielen, Filmserien oder Büchern, ebenso wie gegebenenfalls sogar eine Korrektur, wenn etwa bei Star Track das weibliche Publikum mit der stereotypischen Darstellung der schwachen und inkompetenten weiblichen Charaktere nicht zufrieden war.

Simanowski bleibt bis zum Schluss neutral: Ob es sich dabei nämlich eher um subversive Äusserungen oder eine Bestätigung der Kulturindustrie handelt, bleibe nicht nur im einzelnen abzuwägen. Angesichts der friedlichen Koexistenz und Kooperation vertritt er die These, es herrsche eine Art kultureller Sozialfrieden zwischen Avantgarde und Kulturindustrie. Diese Betrachtungsweise scheint nun ja der postmodernen Erlebnisgesellschaft recht gut zu entsprechen.

1) Digitale Medien in der Erlebnisgesellschaft. Kultur – Kunst – Utopien. Roberto Simanowski, Reinbek 2008. – Besprochen in der Lesegruppe Wissensgesellschaft der Digitalen Allmend.

2) The cult of the amateur: how today’s internet is killing our culture and assaulting our economy. Andrew Keen, London 2007

Open Source Diskurse im Wandel

Mit den Diskursen der Open Source Bewegung und deren Widersprüchen beschäftigt sich Andrea Hemetsberger im Open Source Jahrbuch 2008 (1). Sie konstatiert ein Spannungsfeld zwischen traditionellem und universalistischem Diskurs.

Hemetsberger skizziert die Free / Open Source Gemeinschaft als soziale Bewegung, die sich nicht um eine antikapitalistische Strategie dreht. Vielmehr hat sie durch „kollektives Handeln” Möglichkeiten für „radikal alternative Formen” der Zusammenarbeit und der Produktion wertvoller öffentlicher Güter hervorgebracht. Die Autorin weist darauf hin, dass die Produktion von Gütern auf dem Internet einer speziellen Logik folgt. Relevant ist nur, was auf dem Netz sichtbar ist – konventionelle Machtstrukturen treten zurück. Das wurde in der Diskussion kritisch hinterfragt. Wohl entfallen Kontrollelemente, die etwa beim Auftauchen in einer Szenenbar greifen. Andererseits ist auch etwa das Eintauchen in eine Software-Entwickler Szene von Ausschliessungsmechanismen begleitet.

Die Diskussion in der Lesegruppe ‚Wissensgesellschaft’ der Digitalen Allmend hat sich auch darum gedreht, was denn eine soziale Bewegung in diesem Fall ausmacht. So wurde auf die 80er und 90er Jahre zurückgeblendet und gefragt, ob die bastelnden Computer Hobbyisten der 8oer Jahr auch zu dieser Bewegung zählten. Weiter wurde auch darauf hingewiesen, dass andere Wurzeln in die Universitäten zurückreichen, was ein professionelles und nicht ein zivilgesellschaftliches Umfeld darstellt. In der Diskussion wird bedauert, dass Hemetsberger etwas allgemein bleibt. Ein genauerer Blick auf die Szene der Pionierzeiten wäre sicher spannend.

Die Autorin geht auf die Frage ein, welche Rolle kulturelle Codes im Diskurs von sozialen Bewegungen spielen. Mit Verweis auf eine leider nicht weiter dokumentierte Untersuchung von Material aus slashdot.org identifiziert Andrea Hemetsberger zwei unterschiedliche Diskurse – auf traditionellen und universalistischen Codes basierenden. Traditionelle Codes beziehen sich auf antikapitalistische, Gut und Bös scheidende Elemente, die der Identität und Stabilität der Bewegung dienen. Universalistische Codes sind offen und zielen auf produktiven sozialen Wandel.

Die Unterscheidung wird in der Diskussion als relevant angesehen. Sie erinnert an den Fundi – Realo Dualismus in der Diskussion um die deutschen Grünen. Ob die Begrifflichkeit nun wirklich passend ist, bleibt fraglich. Die Position, die hier einfach als „traditionell” gefasst wird, kann durchaus unterschiedliche Haltungen umfassen: Eine gebetsmühlenartige Wiederholung ideologischer Phrasen ist nicht identisch mit einem Verfolgen strategischer Ziele. Solche Unterschiede verschwinden bei der vorliegenden Code-Analyse.

Die Autorin legt in der Folge dar, dass es durchaus gelingen könne, utopisch-humanistischen Diskurs mit praktischem Erfolg zu verbinden. Digitale Güter sind von der Art, dass Verschenken keinen Mangel beim Geber hervorruft, sondern die Beschenkten für die Erweiterung von Einfluss und Ansehen einspannt. Die Praktiken der Free / Open Source Bewegung nützen die Freiheit, das kapitalistische Denken umzudrehen und „gerade durch scheinbar altruistische Handlungen umso mehr Erfolg und sogar Profit zu machen” /129/. Ob das mit Befreiung von Marktlogik, entfremdeter Arbeit und fehlerhafter Software gleichgesetzt werden kann? Sobald Geld fliesst und Profit gemacht wird, ist doch wohl der Markt am Werk?

Die Codierungslogik der vorliegenden Analyse lässt andere Dimensionen der Bewegung etwas aus dem Blickfeld treten. In der Diskussion erscheint die Frage, welche Bedeutung das Handeln von kleineren Firmen und an Konzerne gebundenen Leuten in der Open Source Bewegung hat. Das sieht nach einer hybriden Konfiguration aus, die nicht einfach einer Logik zivilgesellschaftlicher Akteure folgt.

1) ANDREA HEMETSBERGER. Vom Revolutionär zum Unternehmer. Die F/OSS-Bewegung im Wandel.  In: Open Source Jahrbuch 2008.