Wetter digital

Wenn sich Nate Silver über hunderte von Seiten mit der Berechenbarkeit der Zukunft auseinandersetzt (1), darf das Thema Wetter nicht fehlen. Die Lesegruppe der Digitalen Allmend beugt sich über Gittermodelle und Wetterprognosen.

Erst ziemlich spät, ab Mitte des 19. Jahrhunderts, wenden sich Naturwissenschaftler auch dem Wetter zu. Das Verständnis des Wettergeschehens und die Prognosefähigkeit bleiben vorerst bescheiden. Ein methodischer Durchbruch gelang Lewis Fry Richardson 1916, als er die Idee des Gittermodells aufs Papier brachte und erste Berechnungen versuchte. Die scheiterten allerdings aufgrund der grossen Kantenlänge, der Beschränkung auf zwei Dimensionen und der fehlenden Rechenkapazitäten.

Das wird von Silver eingängig präsentiert. Weiter geht es allerdings nicht. Dabei würde uns ja mindestens in grossen Zügen interessieren, was denn so gerechnet wird für diese Grids. Immerhin macht Silver mit dem Gridmodell mehr deutlich, als das etwa bei der Erdbebenprognose geschieht.

Der Autor beleuchtet grundsätzliche Probleme von Prognosen über das Wetter und andere dynamische Systeme. Eine Problematik wird unter dem Titel Chaostheorie seit den siebziger Jahren diskutiert. Damals stiess der Meteorologe Edward Lorenz beim Hantieren mit einem Computermodell darauf, dass minimste Änderungen an einem Parameter zu völlig anderen Ergebnissen führen können. Die von mechanistischem Determinismus beseelte naturwissenschaftliche Community war perplex.

Der Volksmund hat das Problem allerdings schön längst im Tropfen, der das Fass zum Überlaufen bringt, gefasst – die Philosophiegeschichte im dialektischen Umschlagen von Quantität in Qualität. Das nun stammt allerdings nicht von Silver.

Der weist darauf hin, dass die Naturwissenschaften seit der Quantentheorie eigentlich auf die Relativität allen Prognostizierens vorbereitet war. Jahrhunderte lang hatte die Hypothese starke Anhängerschaft, dass die Position und Dynamik der Atome im Universum potentiell analysierbar und die Zukunft darum determiniert und voraussehbar sei. Damit war mit der Quantenmechanik Schluss. Wenn das System nicht deterministisch funktioniert, gibt es auch kein perfektes Modell dafür.

Silver macht uns also eindringlich auf die prinzipiellen Grenzen aufmerksam. Das führt aber zu einem Problem, das dem Autor gar nicht aufzufallen scheint: Wenn das Universum respektive das Wetter so indeterminiert sind, warum sind denn überhaupt Prognosen möglich? Welche Systemeigenschaften erlauben Wetterprognosen mit erheblicher Wahrscheinlichkeit auf fünf Tage hinaus möglich? Warum nicht nur auf zwei Minuten? Warum nicht auf zwei Jahre hinaus?

Weder beim Thema Erdbeben noch beim Thema Wetter macht uns der Autor einigermassen klar, was ein Modell in Bezug auf Realität überhaupt ist und leisten kann. Wir sind gespannt, was noch folgt. Der Text ist lesenswert und wartet mit interessanten Details auf. Wer hätte gedacht, dass es bei einer 14Tage Wetterprognose besser ist, den langfristigen Durchschnitt zu präsentieren als die Modellergebnisse?

1) „Die Berechnung der Zukunft“

Datenflut und Prognoseflops

Ob Berufserfahrung am Pokertisch die geeignete Qualifikation für einen Prognose-Experten bilden? Vielleicht schon. Nat Silver jedenfalls nimmt sich in „Die Berechnung der Zukunft“ die Verheissungen von Big Data und die Fehlleistungen mancher Prognosen vor. Die Digitale Allmend hat sich von Beginn weg auch für die Frage interessiert, ob digitale Technologien mit einer gesteigerten Daten- und Informationsmenge auch zu mehr und besserem Wissen beitragen. Mehr Wissen müsste sich auch in besseren Prognosen niederschlagen.

Dass von stetig besseren Prognosen im Computerzeitalter keine Rede sein kann, macht Silver anhand seines Spezialgebiets der US Wahlprognosen klar. Ein hoher Anteil der Prognosen liegt daneben. Und das ist eigentlich auch egal. Wie der Autor anhand einer regelmässig parlierenden TV Expertenrunde zu zeigen versucht, herrscht eine Kultur des raschen Vergessens. Niemand wertet aus oder reflektiert die die zugrundeliegenden Annahmen.

Einleitend geht Silver auf das Spannungsfeld zwischen Information und Wissen ein. Er legt gleich mit der Prognose los, dass „noch viel Zeit verstreichen kann, bis wir gelernt haben werden, Information in nützliches Wissen umzuwandeln“. Dann zitiert er zustimmend Krugmann mit der These, in den 70er Jahren habe es einen riesigen Theorieüberhang auf der Basis geringer Informationsmengen gegeben, mag das in speziellen Gebieten ökonomischer oder meteorologischer Modelle zutreffen. Krugmann bezieht sich auf eine bestimmte Konzeption des Modellbaus. Da wird mit beschränktem Wissen über das zu modellierende System einfach mal modelliert. Dann werden historische Datenreihen durchs Modell gerattert und die Stellschrauben solange gedreht, bis die auftretenden Anomalien minimiert sind. Dann wird in die Zukunft projiziert.

Bei Krugmanns These geht aber der Zusammenhang verloren, dass im Allgemeinen völlig hinreichende Information vorhanden waren, um Vorgänge wie den Ersten Weltkrieg, die Grosse Depression oder die Entwicklungsdynamik der Sowjetunion zu analysieren. Silver verpasst es leider ein weinig, Prognosefelder zu unterscheiden. 1980 den Zusammenbruch der Sowjetunion oder am Montag das Freitagswetter fürs Tessin zu prognostizieren sind doch zwei verschiedene paar Schuhe.

Silver macht deutlich, dass er diesen Methoden auch in der Big Data Variante mit der nötigen Distanz gegenüber tritt. Sein Ansatz ist pragmatisch. Wo er dann allerdings methodische Annahmen deutlich macht, wird es schon mal problematisch. So stellt er die geeignete Grundhaltung eines Prognostikers zur Diskussion. Er bevorzugt die Figur des Fuchses: Der bedient sich verschiedener Fachgebiete und Perspektiven, ignoriert eigene Haltungen und ist offen für Komplexität. Gar nichts hält er von Igeln, die selbstbezogen mit starren Methoden und ideologisch fixiert agieren. So angemessen eine pragmatische Haltung erscheint, das ist doch etwa schlicht auf schwarz-weiss getrimmt. Nun ist ja das Buch auch im Heyne-Verlag erschienen, dem kein Hang zur Überkomplexität nachgesagt werden kann.

Vereinfachung ist allerdings doch unumgänglich, wie die Lebhafte Diskussion der Lesegruppe über das Thema Finanzkrise zeigt. Silver schafft es auf ein paar Seiten, wichtige Züge der Entwicklung zu skizzieren. Er gibt auch einzelne Hinweise darauf, warum etwa die Ratingagenturen nicht rechtzeitig Alarm schlugen. Ihre Modelle waren durch falsche Annahmen unterlegt und das Risiko eines schweren Einbruchs der Immobilienpreise wurde unterschätzt.

Trotz mehrerer wichtiger Beobachtungen gelangt hier Silver mit seinem pragmatisch positivistischen Erklärungsmodell an seine Grenzen. In der Diskussion wird etwa auf die Interessensteuerung hingewiesen: Die meisten Player handelten einfach so, wie es ihren kurzfristigen Geschäftsinteressen entsprach. Weiter wird Silver kritisiert, dass er die Vorstellungswelt nicht analysiert, mit denen die direkten Akteure, aber auch Journalistinnen, Wirtschaftsprofessoren oder Regulierungsbehörden und eine weitere Öffentlichkeit unterwegs waren. Sogar ohne Internet waren in jedem Dorfkiosk die Informationen über die Entwicklung der problematischen Produkte und die ersten Risse im US-Immobilienmarkt greifbar. Wer relevante Information in eine erheblich unangemessene Weltsicht einsortierte, gelangte zu einer verzerrten Einschätzung von Risiken und Handlungsoptionen.

Navigieren im Komplexen

Die Lesegruppe der Digitalen Allmend hat sich am 15. April in gebührender Distanz zum brennenden Böögg mit dem Thema Komplexität befasst. Der Text „Navigating Complexity: From cultural critique to cultural intelligence” (1) stammt aus dem Umfeld der Medienwissenschaften. Wir laden die geneigten Leserinnen dieses Beitrags ein, nicht zu verzagen: Nur ausnahmsweise navigieren wir in so dünner theoretischer Luft. Nächstes Mal geht es mit handfesten Medien weiter…

Ien Ang kritisiert einen allzu vereinfachenden Ansatz des Positivismus, mit dem sie in den 70er Jahren konfrontiert war. Der gehe davon aus, die komplexe Wirklichkeit durch ein Feststellen von Tatsachen auf einfache Gesetze zurückgeführt werden könne. Die Komplexitätstheorie habe einen grossen Fortschritt gebracht. Die entsprechenden Methoden betonen Nichtlinearität, Unvorhersagbarkeit und Selbstorganisation. Ang orientiert sich weniger an einem mathematischen als an einem ökologischen Komplexitätsbegriff, der auch die Chaostheorie umfasst – mit dem bekannten Schmetterlingseffekt.

Die Autorin möchte die Komplexitätstheorie als Leitmethodik für die Gesellschaftswissenschaften etablieren. Sie verweist auf Ansätze im Bereich der Studien von internationalen Beziehungen, wo etwa James Rosenau begonnen hat, die Betrachtung der Staaten im Sinne von innen/aussen abzulösen zugunsten eines Konzepts endloser interaktiver Polaritäten. Hier wurde in der Diskussion deutliche Kritik laut, dass die Autorin den Neuigkeitswert der Globalisierung überzeichne und ohne historische Tiefensicht agiere. Es gab eben nicht nur den Kalten Krieg und dann die Globalisierung. Die zwanziger Jahre waren voller globaler Netze und komplexer zwischenstaatlicher Verhältnisse.

Überzeugender wirkt ihre Betonung des medienwissenschaftlichen Ansatzes von Williams, der 1974 das Fernsehen als Technologie und als kulturelle Form analysierte.

Ang wendet sich gegen einen Kult der Komplexität, wie ihn postmoderne Theorien vorangetrieben haben. Die dogmatische Ablehnung von essentieller Verdichtung gehe mit einer rein beobachtenden Haltung einher, die einen handelnden Zugriff verunmögliche. In der Tat. Mit der Verabsolutierung der Feststellung, dass alles bedeutungstragende Menschenwerk einer ständigen Resemantisierung ausgesetzt ist, lässt sich nichts planen und nichts aufbauen. Mit Russell Jacoby kritisiert die Ang, der Komplexitätsdiskurs diene dazu, die Distanz des akademischen Wissens vom öffentlichen Leben zu rechtfertigen.

Die Autorin klebrige Probleme – messy problems – in direktem Zusammenhang mit Komplexität. Sie wendet sich dann der Frage nach übergrosser Komplexität zu, welche Gesellschaften in den Zusammenbruch treiben können. Sie erinnert an Rom oder die Mayas. Das ist irgendwie schon plausibel. In der Diskussion wurde eine kleine Kritik laut, dass der Begriff der Ausdifferenzierung etwas präziser wäre, als die sehr abstrakte Komplexität. Problematisch erscheint vor allem dieser hohe Grad an Abstraktion. Der Zusammenbruch einer hoch arbeitsteiligen und kulturell vielschichtigen Gesellschaft dürft kaum auf einen eindimensionalen Parameter reduzierbar sein.

Als Dritten Weg zwischen naivem Positivismus und distanzierter Postmoderne schlägt Ang vor, mit nicht simplistischen Vereinfachungen zu arbeiten und kulturelles Wissen (cultural intelligence) zu entwickeln. Das soll die Handlungsfähigkeit gegenüber klebrigen Problemen erlauben. Die Allgemeinheit der ganzen Argumentation traf in der Diskussion auf Skepsis.

Die Autorin versucht ein nach x Versuchen im 20. Jh ein weiteres Mal, naturwissenschaftliche Konzepte auf Gesellschaftswissenschaften zu transferieren. Gegenüber komplexen Ökosystemen weisen eben Gesellschaften jedoch noch eine weitere Dimension auf. Hier erscheinen Formen des Handelns, die an selbstreflexive Formen von Wissen und Kultur gebunden sind. Wer Froschteiche und Finanzkrisen mit dem gleichen Werkzeugkasten analysiert, droht im Allgemeinen stecken zu bleiben.

1) Continuum: Journal of Media and Cultural Studies – Special Issue: Navigating Complexities. Vol. 25, No. 6 (2011)

Kühe, Untertitel und Urheberrecht

Über Claude Almansis kurze Analyse von Medien im Internet:

Ich habe den schönen Titel von Claude Almansi geklaut. Die hübsche Alliteration der englischen Version [1] ging dabei leider verloren.

Jedesmal wenn ich ein Link auf Video oder Sound erhalte, stelle ich es erst mal zurück. Und das nicht nur wegen dem Kopfhörergebot im Mehrpersonenbüro. Das Ärgerliche an diesen Medien ist, dass sie unkomprimierbare Lebenszeit fressen. Zwar haben Mitglieder von Filmfestivaljurys gelernt, Filme auch kompetent zu beurteilen, die sie in doppelter Geschwindigkeit visionieren. Aber das Medium sträubt sich gegen das Auffinden einzelner Stellen, gegen das Zitieren kurzer Ausschnitte und kommuniziert Lerninhalte deutlich schlechter als Text + Bild. Es kennt keine Inhaltsverzeichnisse und kein Sachregister, ist nicht volltext-indexierbar und wird darum selten gefunden, wenn man nach Sachinformation sucht. Die neue Vorschaubildchenfunktion hat zwar einen deutlichen Fortschritt gebracht, löst aber die angeführten Probleme für Video kaum und für Sound überhaupt nicht.

Diese Tatsache dient Claude Almansi als Ausgangspunkt ihres amüsanten Plädoyers für ungehinderte Untertitelung. Untertitel verschaffen Bewegtbild + Ton viele Vorteile, die sonst nur Text + Bild vorbehalten sind. Der Grundsatz, dass für Menschen ohne Behinderung gut ist, was für Menschen mit Behinderung gut ist, bewährt sich hier einmal mehr.
Ausserdem geht multilinguale Untertitelung weit über einfache Barrierenfreiheit hinaus und bewältigt eine multikulturelle Kommunikationsaufgabe, die von Wikipedia heute erst langsam in Angriff genommen wird.

Wie bei allen Internet-Themen stellen sich dem löblichen Unterfangen technische und juristische Hindernisse in den Weg. Die technischen Ansätze werden von Claude ausführlich besprochen. Das juristische Problem scheitert an der WIPO, die seit Jahren den Auftrag hat, das Urheberrecht zugunsten von Menschen mit Behinderungen einzuschränken und diesem Auftrag bis heute nicht nachgekommen ist [2]. Warum das so ist, entnimmt man einer kleinen Anekdote von Claude:

Ich nahm an einem WIPO-Treffen teil zu diesem Abkommen für Blinde und Lesebehinderte. Eine französische Dame vertrat die europäischen Presseverleger und wehrte sich sehr heftig dagegen. Deshalb fragte ich sie in einer Kaffeepause, warum sie so stark gegen Blinde eingestellt sei – war sie vielleicht einmal von einer blinden Person verletzt worden? Sie sagte nein, aber sie sei aus Prinzip gegen JEGLICHE Urheberrechtsschranken, „weil Google News [geistiges Eigentum] klaut …“

Was das Ganze nun mit dem Verdauungstrakt der Kühe zu tun hat, findet man im Originalbeitrag von Claude Almansi.

Geistlose Signale

Sind Medien einfach technische Informationskanäle? Lässt sich eine Medientheorie um informationstechnische Konzepte wie Signal/Rauschen, Turingmaschine oder Entropie herum bauen? Tendenziell mit Ja dürfte Friedrich Kittler diese Fragen beantworten. Mit ihm hat sich die Lesegruppe der Digitalen Allmend beschäftigt, anhand eines Textes von Dieter Mersch (1).

Wer die Bühne akademischer Publikationen mit einem Titel “Austreibung des Geistes aus den Geisteswissenschaften” betrat, schlug 1980 bestimmt einen Pflock ein. Kittler durfte sich über die Folgen nicht wundern: Er wird als Vertreter eines prononcierten Medienmaterialismus wahrgenommen.

Nicht Botschaften zählen – sondern Schaltungen. Mit dieser Aussage treibt Kittler seine Position über diejenige von McLuhan hinaus. Bei letzterem war das Medium (auch) die Botschaft. Bei Kittler verschwindet die Botschaft nun überhaupt aus dem Blickfeld. Vom Prozessor bis zum gesellschaftlichen Kommunikationsprozess – alles nur ein Wimmeln von Signalen, ein Klappern von Bits.

Dieser zugespitzte Medienmaterialismus mag vielleicht etwas exotisch erscheinen. In der Lesegruppe schwappt aber doch die Diskussion hoch, ob nicht auch wissenschaftlichen Megaprojekt-Ideen wie Blue Brain oder FuturICT eine vergleichbare monolithische Sicht zugrunde liegt, die nicht zwischen den Layern technische Informationsverarbeitung und kulturelle Bedeutungsproduktion unterscheidet.

Die Unterscheidung dieser Ebenen ist auch dann relevant, wenn immerwährende Geister oder Götter im Erklärungsmodell nicht vorkommen. Dass Kittler als Literaturwissenschafter einer aufgeblähten Stilisierung eines menschlichen (oder göttlichen) Geistes temperamentvoll entgegentritt, ist durchaus produktiv. Dieses aus dem 19. Jh stammende Konzept herrschte aber um 1980 herum keineswegs mehr erdrückend vor. Kittlers Stossrichtung muss wohl auch tiefer angesetzt werden, als rechte technokratische Kulturkritik an den Werten der Bundesrepublik und des Westens überhaupt.

Der Begriff „rechts“ ist hier einfach als Verortung zu lesen. Einmal im Sinn der Philosophiegeschichte, wo Kittler in die Einflusssphäre von Heideggers platziert werden kann. Auch durch das Faszinosum militärischer Gewalt, die sich in seinem Werk unübersehbar artikuliert.

Die Diskussion einiger Grundzüge – bei Mersch und in der Lesegruppe – soll nicht den Eindrück aufkommen lassen, Kittler habe sich vor allem in Form abstrakter Allgemeinplätze geäussert. Er hat vielmehr weitläufig Studien vorgelegt, die sich von Pink Floyd über Aufschreibsysteme um 1800 und 1900, Kino und Grammophon bis zu Prozessoren und grafischen Bedienoberflächen erstrecken.

Viel ausführlicher als Mersch und trotzdem gut lesbar behandelt Geoffrey Winthrop-Young den streitbaren Autor in „Friedrich Kittler zur Einführung“.

1) Dieter Mersch. Medientheorien zur Einführung. Junius. Hamburg 2006.

6.12.2011 – Ein Abend mit Cory Doctorow – The Politics of Copyright and the New Cultural Economy

Der Kanadische Science Fiction Autor und politische Aktivist Cory Doctorow wird am 6. Dezember im Walcheturm über die Politik des Urheberrechts und seine
Erfahrungen mit der freien Kultur sprechen.

Cory Doctorow ist einer der profiliertesten Kenner beider Materien, er arbeitete unter anderem als Europäischer Repräsentant der Electronic Frontier Foundation (EFF) und hat über 7 Romane publiziert, zuletzt “Makers” und “For the Win”. Die neueste Veröffentlichung ist die Aufsatzsammlung “Context: Selected Essays on Productivity, Creativity,Parenting, and Politics in the 21st Century”. Auf Dt.
erschienen ist u.a. “Little Brother”.

Cory Doctorow ist auch ein brillanter Redner. Es ist also nicht nur für einen interessanten sondern auch unterhaltsamen Abend gesorgt.

Peter Hogenkamp, Leiter der NZZ Digital, wird als Respondent die Diskussion eröffnen. Gefolgt von Annette Schindler, Expertin für Medienkunst, Gegenwartskunst, Design, Kunst und Recht.

Die Veranstaltung wird von der Digitalen Allmend, in Zusammenarbeit mit der Vertiefung Mediale Künste (ZHdK), Dock18, Walcheturm und Wikimedia Schweiz organisiert. KulturTV, Roger Levywird die Veranstaltung mit seiner Kamera begleiten.

Ein Abend mit Cory Doctorow.
The Politics of Copyright and the New Cultural Economy
6.12.2011, Kunstraum Walcheturm, 20:00

Die Veranstaltungssprache ist Englisch.

Der Eintritt ist frei. Keine Voranmeldung. First come, first served.


Download PDF-Flyer

Einführung ins Immaterialgüterrecht

Um die Zugkräfte auf die Zugänge zu digitaler Information besser zu verstehen, kommt man ja einfach nicht darum herum, sich mit den grundlegenden Prinzipien des Geistigen Eigentums vertraut zu machen. Die Lesegruppe der digitalen Allmend beschäftigt sich daher – obschon juristische Laientruppe – im Moment mit dessen rechtlichen Aspekten.

«In a nutshell» (zu deutsch: «kurz und bündig») heisst eine Reihe des Dike Verlages mit Publikationen aus allen Rechtsgebieten, die sich in erster Linie an Praktiker und Studierende richtet. Der Titel zum Immaterialgüterrecht (1), den wir uns vorgenommen haben, bietet mit seiner übersichtlichen und kompakten Darstellung aber auch für Nicht-Juristen einen gut lesbaren Überblick und scheint uns zum punktuellen Nachschlagen ebenfalls sehr empfehlenswert.

Die Autoren machen es sich zur Aufgabe, das Wesentliche zum Immaterialgüterrecht knapp und übersichtlich darzustellen; insofern gibt es hier wenig zusammenzufassen und kann mit allerbestem Gewissen auf den Text verwiesen werden. Der erste Teil, den wir bisher gelesen haben, gibt eine allgemeine Einführung –  was sind Immaterialgüter; weshalb Immaterialgüterrechte; was ist die Kritik daran; in welchem Verhältnis stehen sie zueinander – und einen Überblick über Rechtsquellen und Institutionen des Immaterialgüterrechts.

Interessant sind die beiden Ansätze für die Rechtfertigung des Schutzes geistiger Güter: der rechtsphilosophische sichere, so die Verfasser, grundsätzlich dem Schöpfer eines Werkes die Früchte seiner Arbeit zu und sei darin auch kaum zu bestreiten. Weil er aber in der praktischen Ausgestaltung der zu schützenden Rechte im Hinblick auf ihre konkrete Ausgestaltung (Schutzumfang, Schutzdauer, Definition von Ausnahmen, etc.) zu vieles offenlasse, werde heute in der Regel mit einer wohlfahrtsökonomischen Begründung operiert, die auf den wirtschaftlichen Nutzen der Allgemeinheit ziele. Unerwähnt bleibt dabei allerdings, dass auch diese Maxime nichts über die ganz konkrete Ausgestaltung sagt, wie ja aktuelle Diskussionen etwa über Dauer von Schutzrechten zeigen.

Dass in dieser generellen Einführung auch Kritikpunkte am Konzept des geistigen Eigentums (ungerechtfertigte Monopole und Machtballung, Ausbeutung der Länder der dritten Welt) erwähnt sind, spricht für die um neutrale Sachlichkeit bemühte Darstellung.

Selbst bei einem so knappen Überblick wird deutlich, dass Bedingungen, Motivationen, Abwägungen von Chancen und Risiken und entsprechend die Entwicklungslinien für ihren rechtlichen Schutz bei verschiedenen Immaterialgütern sehr unterschiedlich sind, wenn man beispielsweise an den Erfindungsschutz (Patentrechte), den Schutz geistiger Werke der Literatur und Kunst (Urheberrecht mit starker persönlichkeitsrechtlicher Komponente) und den Kennzeichenschutz (Markenrecht) denkt.
Das nächste Mal werden wir uns vertieft mit dem Urheberrecht beschäftigen.

Ob sich daraus irgendetwas für die aktuell geführte Diskussion zur Publikation wichtiger Dokumente des kulturellen Erbes auf der Website e-rara ableiten liesse, hätte die Schreiberin am meisten interessiert. Weil dies aber nun ja etwas wäre, wie wenn man einen Medizinstudenten des ersten Semesters zur Diagnostizierung von Symptomen eines akuten Kreislaufproblems heranlassen wollte, ist es, zumindest mit der Einführung allein, doch noch nicht zu bewerkstelligen.

1 Markus Kaiser, David Rüetschi: Immaterialgüterrecht. Zürich, 2009. (in a nutshell)

Zur historischen Entwicklung von Urheberrecht und Geistigem Eigentum

Die Lesegruppe hat aus dem Report des European Communication Council ECC das Kapitel von Hannes Siegrist über die historische Entwicklung des Geistigen Eigentums gelesen. (1)

Siegrist betont gleich zu Beginn, dass es sich bei Autorschaft und Geistigem Eigentum um soziale, kulturelle und gesetzliche Konstrukte handle und setzt sich damit deutlich ab von jenen Betrachtungsweisen und Disziplinen, die den Autoren, das Werk oder das Geistige Eigentum ahistorisch als zeitlose, quasi natürliche Phänomene betrachten.

In der vormodernen Ständegesellschaft, so breitet es der Text dann aus, lag die Verfügung über Symbole und Formen von Wissen in der Hand weltlicher und kirchlicher Obrigkeiten; dieses Recht begründete sich aus Religion, Tradition und Gewohnheitsrecht. Herrscher, Päpste und freie Städte verliehen Privilegien: die Universitäten kontrollierten das medizinische und rechtliche Wissen, Zünfte das technische Wissen von Handwerkern und Kunstgewerblern, Handelsgesellschaften das Wirtschaftswissen. Dannzumal lag das Druck- oder Publikationsrecht bei Druckern und Verlegern – und nicht etwa bei den Autoren, die gerade nur gelegentlich belohnt wurden. Erst mit dem so genannten «Statute of Anne», dem eigentlichen Beginn eines Urhebergesetzes 1710 in England und ähnlichen Regelungen in Frankreich um dieselbe Zeit, wurde der Verfasser als gesetzlicher Urheber eines Werkes anerkannt. Damit wurde nicht nur der Autor über Drucker und Verleger gestellt, indem er per Vertrag die Rechte zur Reproduktion und Verbreitung seines Werkes abtreten konnte, es wurde auch die geistige Arbeit gegenüber Handels- und Handwerksarbeit höher gestellt; das Verhältnis zwischen materiellen und immateriellen Anteilen eines Werks war neu definiert.

Der Autor in einem modernen Verständnis als kreatives Individuum taucht dann aber erst in der Folge der Aufklärung auf: Die Ablösung von Traditionen und althergebrachten Mustern und ein Bewusstsein für das freie Denken bringen ihn in der zweiten Hälfte des 18. Jahrhunderts als Erfinder und Schöpfer von Werken eigentlich erst hervor.

Schriftsteller und Autoren haben sich in der Folge auch über die aufführenden Künstler und angewanden Künste gesetzt. Erst im Laufe des 20. Jahrhunderts wurde diese Hierarchie aufgrund von Veränderungen in der Arbeitsteilung in Theater, Film und Fernsehproduktion in Frage gestellt: Produzenten, Regisseure, Schauspieler und Musiker machten den kreativen Anteil ihrer Arbeit und den Anspruch an dessen Originalität mehr und mehr geltend. Das 20. Jahrhundert schliesslich hat eine völlige Umgestaltung dessen gesehen, was als Kreativität gilt: von der seltenen schöpferischen Begabung des Genies zu einem allgemeinen menschlichen Attribut. Parallel dazu kommen in der modernen, kommerzialisierten Massen- und Populärkultur immer mehr Werke verschiedenster Gattungen unter den Schutz eines Copyrights, die oft sogar nicht einmal den Anspruch an Originalität vertreten, beispielsweise elektronisch unterstützte Mixtures von Bild und Ton.

Der Historiker der Lesegruppe merkt zum geschichtlichen Abriss des Textes kritisch an, dass er da und dort gern genauere Beispiele und Daten gehabt hätte, die Siegrist hier zumeist schuldig bleibt. Der Text ist tatsächlich sehr summarisch, zeichnet aber anschaulich und lesbar die groben Entwicklungslinien nach.

Kein Blick in die Zukunft: Die historische Forschung zeige – Siegrist weist mehrfach darauf hin – dass das Prinzip des Geistigen Eigentums eigentlich nie nur der Abgeltung der Autoren gedient habe, sondern dass der Zweck immer gleichfalls war, das dynamische Zusammenspiel von Kultur, Gesellschaft und Wirtschaft sicher zu stellen und einen Ausgleich zwischen den Rechten der Autoren, der Verleger und dem öffentlichen Interesse zu schaffen. (So sprach schon der «statute of Anne», der eigentliche Meilenstein in der Urheberrechtsgeschichte, einem Schriftsteller zwar ein urheberrechtliches Eigentum an seinem Werk zu, das für die nächsten 14 Jahre gesichert sein sollte. Dazu war eine Erneuerung seiner Rechte um weitere 14 Jahre möglich, solange der Autor noch lebte.) Gleichzeitig wurde aber damit auch schon der «Public Domain» geschaffen, was bedeutet, dass der Eigentümer des Urheberrechts nach Ablauf dieser Zeit auf den Gebrauch seines Werkes keinen Einfluss mehr hatte.
Befürchtungen, dass Konzepte des Geistigen Eigentums aus der Kontrolle geraten und das Ende jeder Autorschaft bevorstehe, können also durchaus in dieser Tradition der Kontroversen, aber auch Bemühungen um den Ausgleich zwischen individuellem und öffentlichem Gut gelesen werden. Das Veränderungspotential der Digitalisierung und des Internets ist aber auch in diesem Bereich gewaltig und äusserst dynamisch. Nicht nur wird die vorherige Zuschreibung von Wissen, Fähigkeiten, Fertigkeiten und Werken zu traditionellen Berufsständen und Inhabern mehr und mehr in Frage gestellt und ist der Schutz entlang nationaler Grenzen kaum mehr zu gewährleisten. Wenn der Wert einer Autorschaft heute weniger durch deren intellektuelle Errungenschaft bestimmt wird als durch die Nachfrage, verändern sich auch soziale, ökonomische und kulturelle Rangordnungen. Wie unter diesen veränderten Bedingungen produktive Begleichungen zu gewährleisten wären, lässt der Text verständlicherweise offen.

1 Hannes Siegrist: The History and Currrent Problems of Intellectual Propery (1600-2000); in: Axel Zerdick … et al.: E-Merging Media. Communication and the Media Economy of the Future. European Communication Council Report. Berlin, 2005. (D: E-Merging Media. Kommunikation und Medienwirtschaft der Zukunft. Berlin, 2004).

European Communication Council ECC: Gruppe vorwiegend europäischer Kommunikationswissenschaftler. Der erste ökonomisch ausgerichtete Bericht «Die Internet-Ökonomie – Strategien für die digitale Wirtschaft» erschien 1999 als European Communication Council Report und befasste sich mit dem Einfluss neuer Technologien auf die Medien- und Kommunikationsindustrie. Dieser dritte Bericht des ECC untersucht aus unterschiedlichen Blickwinkeln den Wandel der Medienlandschaft.

Hannes Siegrist: Prof. Dr. habil., Universität Leipzig, Bereich vergleichende Kultur- und Gesellschaftsgeschichte

Lehrer müssen keine Diebe sein: Offene Inhalte für die Schulen anstatt Schutz der Verlage

Buchhändler und Lehrmittelverlage bangen um ihre Einkünfte und haben deshalb die Kampagne „Fair kopieren“ lanciert. Die Digitale Allmend weist jetzt darauf hin, dass der freie Zugang zu Wissen zentral ist für die Bildung und dazu alternative Lizenzen wie die Creative Commons zu fördern sind.

Der Verein Digitale Allmend hat mit Erstaunen von der Kampagne „Fair kopieren“ des Schweizer Buchhändler- und Verleger-Verbands SBVV und den Lehrmittelverlagen Kenntnis genommen. Lehrerinnen und Lehrer sollen vom Kopieren von Unterrichtsmaterialien abgeschreckt werden, indem davor gewarnt wird, dass qualitativ hochstehende Lehrmittel nicht mehr produziert werden könnten, falls für Unterrichtszwecke weiterhin kopiert wird. Die Kampagne operiert dabei mit nicht nachvollziehbaren Schätzungen und unterstellt, ohne den Beweis zu erbringen, vielen Lehrer und Lehrerinnen ein kriminelles Verhalten.

Auch wenn die Kampagne scheinbar ein differenziertes Bild aufzeigen möchte, so enthält sie einige Irreführungen und Übertreibungen. Sie ist stark von den Interessen von Verlagen an einer restriktiven Auslegung des Urheberrechts geprägt und erwähnt die Schrankenbestimmungen nicht als Recht, sondern als gutmütige Ausnahme der Rechteinhaber. Unter anderem behauptet die Kampagne fälschlicherweise, dass Buchkapitel nicht kopiert werden dürfen. Auch wird nur am Rande erwähnt, dass Schulen bereits beachtliche Summen für das Kopieren von Unterrichtsmaterialien an Verwertungsgesellschaften bezahlen und damit die Nutzung für den Unterricht vergüten.

Des weiteren werden keinerlei Alternativen aufgezeigt, wie auf kostengünstige Weise ein breiter Zugang zu Bildung und Wissen für unsere Schulen möglich ist. Es könnte bspw. darauf hingewiesen werden, dass bereits eine beachtliche Anzahl von Werken verfügbar ist, die durch die Verwendung von Creative Commons Lizenzen explizit vervielfältigt und je nach der gewählten Lizenz sogar angepasst werden dürfen. Open Source Communities, die Wikipedia-Autorenschaft oder wissenschaftliche Open Access Journals haben gezeigt, dass es auch alternative Wege gibt, qualitativ hochstehende Werke zu schaffen, bei denen Kopieren explizit erlaubt ist. Schliesslich darf nicht übersehen werden, dass im Literaturbereich viele Werke kopiert werden dürfen, da das Urheberrecht bereits erloschen ist.

Problematisch ist ausserdem, dass viele der an der Kampagne beteiligten Lehrmittelverlage im Besitz von Kantonen oder anderen staatlichen Institutionen sind. Es stellt sich ernsthaft die Frage, weshalb Werke, die von öffentlichen Institutionen für Bildungszwecke erstellt werden, nicht grundsätzlich frei verfügbar sein sollten. Eine Forderung die auch von Nationalrätin Edith Graf-Litscher, Co-Präsidentin der Parlamentarischen Gruppe Digitale Nachhaltigkeit unterstützt wird: “Von der öffentlichen Hand finanzierte Forschungs- und Bildungsergebnisse sollen als öffentliche Güter frei verfügbar sein.” Eine Klärung der Situation ist dringend notwendig, da offenbar das ursprüngliche Ziel dieser Verlage, kostengünstige und einfach verfügbare Lehrmitteln für die Schule zu fördern, mit der Unterstützung der Kampagne „Fair kopieren“ in den Hintergrund gerückt ist.

Eine wirklich “faire” Kampagne würde nicht nur die Sichtweise und Interessen der Verleger darlegen, sondern auch die aktuelle Situation umfassender darstellen, nachhaltige Alternativen aufzeigen und fördern. Die Digitale Allmend verlangt von der Kampagne „Fair kopieren“ eine gründliche Überarbeitung der Kampagneninhalte entsprechend der aufgeführten Punkte. Sie fordern zudem, dass öffentliche Lehrmittelverlage und Bildungsinstitutionen vermehrt freie Lizenzen wie Creative Commons einsetzen, damit ihre Werke frei kopiert, verbreitet und verwendet werden können.

Googeln – und Alternativen

Was ist der Stellenwert von Suchmaschinen im Allgemeinen und von Google im Besonderen? Wo sind bedenkliche Aspekte zu diskutieren? Wie sehen Alternativen aus? Diese Fragestellungen haben wir in der Lesegruppe am 14. September diskutiert.

Eine Feststellung ist wenig umstritten. Die weitläufige und unübersichtliche Ansammlung von Objekten im Internet macht Suchmaschinen unverzichtbar. Google erfüllt hier – genau wie andere Angebote – eine produktive Funktion. Suchmaschinen erschliessen, sie schaffen keinen Content. Geschäftsmodelle, die auf Suchmaschinen aufsetzen, weisen einen gewissen parasitären Aspekt auf. Sie basieren auf inhaltlicher Kulturarbeit, die von Dritten geleistet wurde, ohne dass diese am Geldfluss der Suchmaschine beteiligt werden. Allerdings werden sie als Gegenleistung den Suchenden präsentiert.

Kreation und Erschliessung von Inhalten sind zwei paar Schuhe. Letzeres kann voll automatisiert durch die mechanische Anwendung von Algorithmen geschehen. Und Vollautomatisierung gehört zu den Dogmen von Google: Man will Systeme laufen lassen, nicht Inhalte produzieren.

In einer Pionierphase wurden Suchmaschinen ohne Geschäftsmodell aufgebaut. Dann kam rasch die Idee au, Werbung zu schalten. Das geschah in Form bunter Bildchen und massloser Userbelästigung. Hier setzte nun Google an und wählte ein zurückhaltenderes, von den BenutzerInnen eher akzeptiertes Layout. Ein wesentlicher Grund für den Aufstieg zur Nummer eins.

Mit kritischen Aspekten der Google-Dominanz setzt sich Gerald Reischl im Buch „Die Google Falle“ auseinander. Er nennt Indizien dafür, dass Google die Systeme nicht absolut autonom werkeln lässt, sondern im Interesse guter Geschäftsbeziehungen durchaus für einen wichtigen Werbekunden unterstützend eingreift und die Suchergebnisse beeinflusst. Wie weit das geschieht und wie relevant das für die Suche ist, konnten wir in der Diskussion nicht wirklich einschätzen. Auch wenn nicht von permanenten massiven Manipulationen ausgegangen werden muss, sind die Intransparenz und die verdeckten Eingriffsmöglichkeiten ein Ärgernis.

Ein zweiter Konfliktbereich ist der Datenschutz. Wenn Suchmaschinen mit universellen Mechanismen auf Datenbestände mit grösstenteils niedriger Qualität losgehen, lassen die Ergebnisse häufig zu wünschen übrig. Um die Qualität der Suche zu verbessern, implementiert Google ein weitreichendes User-Tracking. So werden nicht nur Infos in Browser-Cookies abgelegt. Die können auch mit Informationen aus anderen Google-Services verknüpft werden. Google sammelt riesige Datenmengen über User und ihr Verhalten, was natürlich für das Werbegeschäft Gold wert ist. Reischl weist darauf hin, dass im Bereich User-Tracking emsiges Patentieren im Gang ist. Die Forscher und Firmen suchen dabei mit der Wortwahl jede Assoziation an Big Brother zu vermeiden. Die Rede ist von Tokenization oder Statistik (1). Wenn Reischl „das totale Wissen über den Nutzer“ als ein Ziel von Google nennt, ist das vielleicht etwas überzogen. Diskussions- und regulationswürdig erscheint das aber schon.

Interessant sind Ansätze zur Verbesserung von Suchergebnissen, die Reischl unglücklicherweise unter dem Thema „semantisches Web“ fasst. Gemeint sind Versuche, auf Seite der Suchmaschine mit computerlinguistischen Ansätzen die Qualität der Indexierung zu verbessern und in die Richtung formulierter Antwort auf Fragen zu gehen. Nach Ansicht der Diskutierenden würde das Semantische Web in erster Linie auf Seiten der Angebote implementiert, wo die Objekte mit systematischer Metainformation angereichert würden. Das wäre menschliche Kulturarbeit (soweit es von Hand geschieht). Was Google mit den erweiterten Ansätzen tut, ist eben keine Bedeutungskreation. Maschinen reorganisieren Bytes.

Im zweiten Teil der Diskussion haben eines Webdokuments (2) einen Blick auf Dutzende von Alternativen zu Google geworfen. Hier gibt es sehr interessante spezialisierte Angebote. Meistens sind das Varianten des Prinzips Suchmaschine.

Grundlegende Alternativen sind andere Mechanismen, welche die disparate Welt des Internets erschliessen. Ein Mechanismus ist der direkte Verweis auf Inhalte aus Chatnetzen oder Mailinglisten. Hier wird Bekannten oder einer Community vertraut, die auf einen Inhalt zeigen. Auch bestimmte Medien, digital oder nicht, können weitere Inhalte erschliessen und Links liefern. Diese Mechanismen führen wie Suchmaschinen auf erwünschte Seiten hin, aber anders als Suchmaschinen. Durch Sinnerzeugung in einem soziokulturellen Prozess, nicht durch Festplattengeratter.

Suchmaschinen sind unverzichtbar. Mit Blick auf unsere Alltagserfahrungen haben wir noch festgestellt, dass Suchmaschinen ausgerechnet dort schwach sind, wo das Angebot gross ist. Etwa bei Hotels in einer Grossstadt. Es gibt das Zimmer, das Du suchst. Nur zeigt es Google nicht.

1) Gerald Reischl: Die Google-Falle: die unkontrollierte Weltmacht im Internet. Ueberreuter 2008. S. 44
2)
Beyond Google: Cool Search Engines And Search Tools You May Have Not Heard About – A Mini-Guide