Keine Ursache

Im vierten Kapitel ihres Big Data Buchs machen sich Mayer und Cukier daran, ihre zentrale These weiter zu untermauern. Gelingt es ihnen, einen Primat der Korrelation über die Kausalität plausibel zu machen?

Die Autoren konstatieren, dass die Suche nach Korrelationen im Rahmen konventioneller Statistik schon wichtig war – brillieren würden Korrelationen aber mit Big Data. Erkenntnisse liessen sich leichter, schneller und klarer gewinnen als mit konventionellen Analysen.

Diese These stützen sie mit Beispielen. So hat Amazon festgestellt, dass die so gewonnen Kaufempfehlungen den Umsatz steigern. Oder dass ein Logistikunternehmen mit riesigem Wagenpark den Zeitpunkt eines Unterhalts hinausschieben kann, ohne das Risiko eines Ausfalls zu erhöhen. Hier hat sich in der Diskussion die Frage gestellt, ob das überhaupt ein Big Data Konzept erfordert. Das kann insofern zutreffen, als eine Umwidmung von Daten stattfindet, sofern Weg- und Wetterdaten mit ausgewertet werden, die zu andern Zwecken erhoben wurden. Die Verwendung von nicht eigens dafür gesammelten Daten gilt als wichtiges Element von Big Data.

Die Diskussionsrunde ist sich einig, dass es eine Reihe von Fällen gibt, wo Big Data Korrelationen zu nützlichen Erkenntnissen führen, ohne dass die Problematik kausal modelliert oder konsistent verstanden werden kann. Allerdings trifft das eben nicht auf die meisten Problematiken zu, vor denen die Menschheit steht. Die Beispiele im Buch beziehen sich auf eng gefasste Fragestellungen in den Bereichen Marketing, Logistik oder Epidemiologie.

Von den Autoren wird zudem auch ausgeblendet, dass auch in diesen einfachen Fällen ein implizites Kontextwissen und modellartige Vorstellungen vorhanden sein müssen. Stellen wir uns vor, einer Versuchsperson werden mehre Datensets mit präsentiert, welche die Zuverlässigkeit der europäischen Stromversorgung betreffen. Dazu ein gut designtes Big Data Tool. Mit Ziehen und Klicken kann die Versuchsperson Korrelationssuchen konfigurieren und durchführen. Wird diese Person irgend eine sinnvolle Aussage zu Schwachstellen und Risiken treffen können?

Das Problem taucht in anderer Form in einem späteren Kapitel auf, wo das Entstehen einer neuen Branche und neuer Berufe skizziert wird. Beim Datenspezialisten lassen die Autoren offen, ob der nur Wissen über Tools und formale Aspekte haben muss, oder auch Kontextwissen über die bearbeiteten Probleme.

Damit sind wir bei einem weiteren Begründungsstrang, den Methodenfragen. Die Autoren greifen die konventionelle naturwissenschaftliche Methode an. Die besteht darin, ein Problem zu beschreiben und dann Hypothesen zu formulieren, die überprüft werden. So wird heute nicht nur in der Grundlagenforschung vorgegangen, sondern tendenziell auch in der Pharmaforschung und anderswo. Da, wo wirklich relevante Probleme der Menschheit angegangen werden und beispielsweise Krebs- oder Alzheimermedikamente entwickelt werden, deutet nichts auf einen relevanten Beitrag von Big Data hin. Von andern Problemkategorien wie Failed States oder ökologischen Herausforderungen ist im Buch schon gar nicht die Rede.

Der Versuch, eine methodische Überlegenheit von Big Data angesichts der aktuellen wissenschaftlichen Herausforderungen zu postulieren, scheitert. Da hilft es auch nicht, die durchaus interessante These des Psychologen und Nobelpreisträgers Kahnemann heranzuziehen, der eine spontane und auf Muster orientierte von einer langsameren und reflektierenden Strategie des Menschen ausgeht. Big Data findet ja nicht im situativen Umfeld des isolierten Individuums statt, sondern in Institutionen und längeren Projekten.

Trotz seiner Tendenz zum massiven Überdehnen der Grundthese gefällt uns das Buch gut, weil es prägnant auf relevante Entwicklungen hinweist. Ja, es gibt einen Trend zu massiven Datafizierung, zur Erzeugung und Verfügbarmachung von Daten – auch personenbezogenen. Die Autoren machen Führungskräfte eindringlich darauf aufmerksam, dass Daten ein wichtiger werdende Ressource ihres Unternehmens seien, die angemessen bewertet und genutzt werden sollte. Sie skizzieren das Entstehen einer spezialisierten Branche mit neuen Berufsfeldern. Da werden Daten, Tools und Methoden aufbereitet und gehandelt.

Vorerst skizziert der Text Felder, wo Daten nicht in einer personenbezogenen Weise behandelt werden. Im kommenden Kapitel über Risiken wird sich die Position der Autoren weiter klären. In der Diskussion erörtern wir schon mal die Möglichkeit, gegen den Sog des Big Business Kontrolle über persönliche Daten zu gewinnen und diese im Rahmen von Föderationsmodellen kontrolliert zugänglich zu machen.

Big Data

Die Lesegruppe wendet sich der Revolution zu. Zumindest postuliert der Untertitel des Buchs „Big Data“ eine „Revolution That Will Transform How We Live, Work and Think“. Wie weit das plausibel ist, muss sich zeigen.

Mayer und Cukier stellen fest, dass es keine rigorose Definition von Big Data gebe. Sie zeigen vorerst eine erste, quantitative Dimension auf. Die verfügbaren und verarbeitbaren Datenmengen sind massiv gestiegen. Das ruft nach neuen Strategien, um diese Daten so aufzubereiten, dass sie parallel bearbeitet werden können. Dazu dient etwa Googles MapReduce. Das Buch liefert dazu kaum Informationen. Aufgrund der Lektüre war in der Lesegruppe offen, ob MapReduce auf diese Aufbereitung beschränkt ist, oder ob auch eine Aufbereitung nach inhaltlichen Mustern stattfindet.

Die explosionsartige Zunahme der verfügbaren Informationen wird von den Autoren mit ein paar eingängigen Hinweisen untermauert. 2013 sind etwa 1200 Exabytes an Informationen verfügbar gewesen, davon nur noch 2% in analoger Form. Zur Jahrtausendwende waren letztere mit drei Vierteln des Volumens noch dominant. Uns als Hardcore Neugierige würde natürlich interessieren, was hier mit Information gemeint ist. Sind informationstechnische oder semantisch kulturelle Informationen angesprochen?

Mayer und Cukier skizzieren eine Kulturgeschichte der Informationsmengen, wobei sie über die Erfindung des Buchdrucks bis zur antiken Bibliothek von Alexandria zurückgreifen. Das dient dazu, die Kernthese des Textes plausibel zu machen: Die Umwälzung der Kultur durch Big Data. Vorerst bemerken die Autoren, dass sich BD auf Dinge bezieht, die nur basierend auf einer grossen Datenmenge gemacht werden können und nicht auf einer bescheidenen Ebene. Das hat uns in der Diskussion eingeleuchtet.

Dann aber zünden die Autoren eine nächste Stufe und postulieren, BD würde die Art verändern, wie wir mit der Welt interagieren. Die Menschheit müsse dabei „die Obsession für Kausalität zugunsten von einfacher Korrelation“ fahren lassen. Die Herren lehnen sich weit aus dem Fenster: Wenige Jahre, nachdem die Finanzelite mit unverstandenen Modellen die Weltwirtschaft an den Rand des Abgrunds gefahren hat, wird die Devise „Numbercrunching statt Analyse“ ausgegeben. Der Text wird in späteren Kapiteln darauf zurückkommen, wir sind gespannt.

Wo sich der Text konkreteren Problemen zuwendet, fördert er durchaus interessante Sachverhalte an den Tag. So wird die Problematik erläutert, dass sorgfältig gestaltete Datensammlungen, etwa Telefonumfragen, dank dem Zufallsprinzip grosse Zuverlässigkeit erreicht haben. Weil sie aber sehr aufwändig und in manchen Fällen nicht realisierbar sind, gewinnt die Auswertung bereits vorhandener Datensammlungen an Gewicht, auch wenn diese „messy“ respektive ungeordnet sind und zu andern Zwecken erhoben wurden.

Prognosen zu Klima und Terror

Eine letzte Runde hat die Lesegruppe Nate Silver und seiner „Berechnung der Zukunft“ gewidmet. Silver erfindet sich gegen Ende des Buches nicht neu, sondern bleibt auf seinem pragmatischen journalistischen Pfad.

In Kapitel 12 geht er auf die Prognosen zur Klimaveränderung ein. Er ruft in Erinnerung, dass erste Hypothesen schon Ende 19. Jahrhunderts auftauchten. Erst in den 1980er Jahren wurden aber die Temperatursignale vom natürlichen Trend unterscheidbar. Der Autor ist sichtlich bemüht, in der aufgeheizten Diskussion der USA eine abwägende Tonart anzuschlagen.

Er plädiert dafür, Theorien anhand von Prognosen zu überprüfen. „Die Prognosen der Klimatologen trafen gelegentlich ein, gelegentlich aber auch nicht.“ Dann breitet er die Kontroverse zwischen Scott Armstrong und Al Gore aus, die sich über kurzfristige Trends gebalgt haben. Silver ist zu sehr Bestseller Autor, um sich das Showdown Moment dieses Pseudodramas entgehen lassen. Er treibt damit aber die Lesenden auf ein Terrain, das er anderswo als irrelevant taxiert. Einzelne Jahre und kurzfristige Trends haben absolut nichts mit Klimatrends zu tun, die sich auf Jahrhunderte bis Jahrtausende beziehen.

Zurecht weist Silver in Bezug auf den Prognosehorizont darauf hin, dass Klimatologen kurzfristig keinen Feedback zu ihren Modellen bekommen können, während Meteorologen permanent ihre Modelle justieren können. Ausnahmsweise bringt er in Bezug auf die Prognoseunsicherheit auch endlich einmal einige konzeptuelle Begriffe ins Spiel. Er unterscheidet Unsicherheiten von Anfangsbedingungen, von Szenarien und strukturelle Unsicherheiten. Letztere beruhen auf einem mangelhaft tiefen Verständnis des Klimasystems und seiner mathematischen Modellierung.

Er weist auf das Spannungsfeld zwischen Wissenschaft und Politik hin. Auf dem einen Feld sind Relativierungen und Unsicherheitsangaben erwünscht – im politischen Kampf zählen Einfachheit und eingängige Parolen.

Ein weiteres Kapitel widmet Silver dem Thema Voraussagbarkeit von Terror. Er geht von der Diskussion zum Überfall auf Pearl Harbor aus, wo es durchaus Indizien für den japanischen Überfall von 1941 gab. Hier verlässt er das Gebiet der eigentlichen Prognostik und müsste eigentlich ausführlich auf die Problematik und Methoden einer Lageanalyse eingehen. Auch die Auseinandersetzung mit 9-11 bleibt unbefriedigend. Auch wenn Silver zurückhaltend bleibt, erweckt er den Eindruck, Indizien hätten mit etwas mehr Professionalität sicher eingeordnet werden können.

So sympathisch Silvers Pragmatismus, so interessant manches Beispiel sein mag: Dem Text fehlt es etwas an Tiefgang.

Prognosen-Elend

Weitere zwei Abende hat sich die Lesegruppe der Digitalen Allmend mit Nate Silver beschäftigt und der sich mit der „Berechnung der Zukunft“.

Zu den Stärken von Silver gehört sein journalistisches Vorgehen. Wo er nicht auf eigene Erfahrung zurückgreifen kann, spricht er mit Experten und benennt diese Quellen. Ein Beispiel ist Jan Hatzius, Chefökonom von Goldmann Sachs. Silver ist von dessen Prognoseleistungen und einer nüchternen Haltung beeindruckt. Hatzius hält es für anhaltend schwierig, den Konjunkturzyklus zu prognostizieren, auch wenn in den USA 45‘000 Indikatoren zur Verfügung stehen.

Die Identifikation von Ursache und Wirkung bereitet Probleme. Kritisch merkt Silver an, dass manche Ökonomen einfach eine Handvoll Indikatoren in den Mixer werfen und das Resultat als Haute Cuisine verkaufen würden. Nicht alles, was etwa mit Rezessionen in den USA korreliert, muss einen ursächlichen Zusammenhang haben. Etwas unglücklich illustriert Silver die Möglichkeit nichtkausaler Korrelation mit Glacéverkäufen und Waldbränden. Tatsächlich verursacht der Glacékauf keinen Waldbrand. Trotzdem sind beide insofern kausal verknüpft, als es eine gemeinsame steuernde Grösse gibt, die Lufttemperatur. Echte nichtkausale Korrelationen lagen zeitweise etwa zwischen der National Football League und der Börsenentwicklung vor.

Mit Hatzius sieht Silver in der ständigen Veränderung der Wirtschaft eine zweite Ursache für die Prognoseproblematik. Eine Kausalität und der entsprechende Aspekt eines Modells mögen eine Zeitlang hinreichend stabil sein, um als Baustein einer Prognose zu dienen. Irgendwann ändert sich die Konstellation so stark, dass Kausalität und Korrelation unscharf werden oder wegfallen.

Beide Problemkreise – Zufallskorrelation und Strukturwandel – würden eigentlich den Schluss nahelegen, dass ein Verstehen des Systems respektive eine qualitative Analyse nötig wären, um die Qualität und Reichweite von Parametern wie Modellen klären zu können. Das ist aber nicht Silvers Ding.

Er nimmt aber eine wohltuend nüchterne Haltung und identifiziert mit Hatzius einen dritten Grund für die Unzuverlässigkeit von Konjunkturprognosen: Die zur Verfügung stehenden Daten „sind auch nicht besser“ als die Prognosen selbst (S. 229). Als Beispiel nennt er den Indikator des Konsumentenvertrauens. Da rückt er das Element in den Vordergrund, dass Konsumenten möglicherweise als letzte merken, wenn etwas schief zu laufen beginnt.

In weiteren Kapiteln geht der Autor dann auf Schach und Poker ein, wobei er genüsslich ein das Thema Mensch gegen Maschine in Form eines Showdowns inszeniert: Kasparow versus BigBlue. Neu ist das nicht. Er bringt aber weiteres interessantes Material und bleibt auch hier lesenswert.

Wetter digital

Wenn sich Nate Silver über hunderte von Seiten mit der Berechenbarkeit der Zukunft auseinandersetzt (1), darf das Thema Wetter nicht fehlen. Die Lesegruppe der Digitalen Allmend beugt sich über Gittermodelle und Wetterprognosen.

Erst ziemlich spät, ab Mitte des 19. Jahrhunderts, wenden sich Naturwissenschaftler auch dem Wetter zu. Das Verständnis des Wettergeschehens und die Prognosefähigkeit bleiben vorerst bescheiden. Ein methodischer Durchbruch gelang Lewis Fry Richardson 1916, als er die Idee des Gittermodells aufs Papier brachte und erste Berechnungen versuchte. Die scheiterten allerdings aufgrund der grossen Kantenlänge, der Beschränkung auf zwei Dimensionen und der fehlenden Rechenkapazitäten.

Das wird von Silver eingängig präsentiert. Weiter geht es allerdings nicht. Dabei würde uns ja mindestens in grossen Zügen interessieren, was denn so gerechnet wird für diese Grids. Immerhin macht Silver mit dem Gridmodell mehr deutlich, als das etwa bei der Erdbebenprognose geschieht.

Der Autor beleuchtet grundsätzliche Probleme von Prognosen über das Wetter und andere dynamische Systeme. Eine Problematik wird unter dem Titel Chaostheorie seit den siebziger Jahren diskutiert. Damals stiess der Meteorologe Edward Lorenz beim Hantieren mit einem Computermodell darauf, dass minimste Änderungen an einem Parameter zu völlig anderen Ergebnissen führen können. Die von mechanistischem Determinismus beseelte naturwissenschaftliche Community war perplex.

Der Volksmund hat das Problem allerdings schön längst im Tropfen, der das Fass zum Überlaufen bringt, gefasst – die Philosophiegeschichte im dialektischen Umschlagen von Quantität in Qualität. Das nun stammt allerdings nicht von Silver.

Der weist darauf hin, dass die Naturwissenschaften seit der Quantentheorie eigentlich auf die Relativität allen Prognostizierens vorbereitet war. Jahrhunderte lang hatte die Hypothese starke Anhängerschaft, dass die Position und Dynamik der Atome im Universum potentiell analysierbar und die Zukunft darum determiniert und voraussehbar sei. Damit war mit der Quantenmechanik Schluss. Wenn das System nicht deterministisch funktioniert, gibt es auch kein perfektes Modell dafür.

Silver macht uns also eindringlich auf die prinzipiellen Grenzen aufmerksam. Das führt aber zu einem Problem, das dem Autor gar nicht aufzufallen scheint: Wenn das Universum respektive das Wetter so indeterminiert sind, warum sind denn überhaupt Prognosen möglich? Welche Systemeigenschaften erlauben Wetterprognosen mit erheblicher Wahrscheinlichkeit auf fünf Tage hinaus möglich? Warum nicht nur auf zwei Minuten? Warum nicht auf zwei Jahre hinaus?

Weder beim Thema Erdbeben noch beim Thema Wetter macht uns der Autor einigermassen klar, was ein Modell in Bezug auf Realität überhaupt ist und leisten kann. Wir sind gespannt, was noch folgt. Der Text ist lesenswert und wartet mit interessanten Details auf. Wer hätte gedacht, dass es bei einer 14Tage Wetterprognose besser ist, den langfristigen Durchschnitt zu präsentieren als die Modellergebnisse?

1) „Die Berechnung der Zukunft“

Datenflut und Prognoseflops

Ob Berufserfahrung am Pokertisch die geeignete Qualifikation für einen Prognose-Experten bilden? Vielleicht schon. Nat Silver jedenfalls nimmt sich in „Die Berechnung der Zukunft“ die Verheissungen von Big Data und die Fehlleistungen mancher Prognosen vor. Die Digitale Allmend hat sich von Beginn weg auch für die Frage interessiert, ob digitale Technologien mit einer gesteigerten Daten- und Informationsmenge auch zu mehr und besserem Wissen beitragen. Mehr Wissen müsste sich auch in besseren Prognosen niederschlagen.

Dass von stetig besseren Prognosen im Computerzeitalter keine Rede sein kann, macht Silver anhand seines Spezialgebiets der US Wahlprognosen klar. Ein hoher Anteil der Prognosen liegt daneben. Und das ist eigentlich auch egal. Wie der Autor anhand einer regelmässig parlierenden TV Expertenrunde zu zeigen versucht, herrscht eine Kultur des raschen Vergessens. Niemand wertet aus oder reflektiert die die zugrundeliegenden Annahmen.

Einleitend geht Silver auf das Spannungsfeld zwischen Information und Wissen ein. Er legt gleich mit der Prognose los, dass „noch viel Zeit verstreichen kann, bis wir gelernt haben werden, Information in nützliches Wissen umzuwandeln“. Dann zitiert er zustimmend Krugmann mit der These, in den 70er Jahren habe es einen riesigen Theorieüberhang auf der Basis geringer Informationsmengen gegeben, mag das in speziellen Gebieten ökonomischer oder meteorologischer Modelle zutreffen. Krugmann bezieht sich auf eine bestimmte Konzeption des Modellbaus. Da wird mit beschränktem Wissen über das zu modellierende System einfach mal modelliert. Dann werden historische Datenreihen durchs Modell gerattert und die Stellschrauben solange gedreht, bis die auftretenden Anomalien minimiert sind. Dann wird in die Zukunft projiziert.

Bei Krugmanns These geht aber der Zusammenhang verloren, dass im Allgemeinen völlig hinreichende Information vorhanden waren, um Vorgänge wie den Ersten Weltkrieg, die Grosse Depression oder die Entwicklungsdynamik der Sowjetunion zu analysieren. Silver verpasst es leider ein weinig, Prognosefelder zu unterscheiden. 1980 den Zusammenbruch der Sowjetunion oder am Montag das Freitagswetter fürs Tessin zu prognostizieren sind doch zwei verschiedene paar Schuhe.

Silver macht deutlich, dass er diesen Methoden auch in der Big Data Variante mit der nötigen Distanz gegenüber tritt. Sein Ansatz ist pragmatisch. Wo er dann allerdings methodische Annahmen deutlich macht, wird es schon mal problematisch. So stellt er die geeignete Grundhaltung eines Prognostikers zur Diskussion. Er bevorzugt die Figur des Fuchses: Der bedient sich verschiedener Fachgebiete und Perspektiven, ignoriert eigene Haltungen und ist offen für Komplexität. Gar nichts hält er von Igeln, die selbstbezogen mit starren Methoden und ideologisch fixiert agieren. So angemessen eine pragmatische Haltung erscheint, das ist doch etwa schlicht auf schwarz-weiss getrimmt. Nun ist ja das Buch auch im Heyne-Verlag erschienen, dem kein Hang zur Überkomplexität nachgesagt werden kann.

Vereinfachung ist allerdings doch unumgänglich, wie die Lebhafte Diskussion der Lesegruppe über das Thema Finanzkrise zeigt. Silver schafft es auf ein paar Seiten, wichtige Züge der Entwicklung zu skizzieren. Er gibt auch einzelne Hinweise darauf, warum etwa die Ratingagenturen nicht rechtzeitig Alarm schlugen. Ihre Modelle waren durch falsche Annahmen unterlegt und das Risiko eines schweren Einbruchs der Immobilienpreise wurde unterschätzt.

Trotz mehrerer wichtiger Beobachtungen gelangt hier Silver mit seinem pragmatisch positivistischen Erklärungsmodell an seine Grenzen. In der Diskussion wird etwa auf die Interessensteuerung hingewiesen: Die meisten Player handelten einfach so, wie es ihren kurzfristigen Geschäftsinteressen entsprach. Weiter wird Silver kritisiert, dass er die Vorstellungswelt nicht analysiert, mit denen die direkten Akteure, aber auch Journalistinnen, Wirtschaftsprofessoren oder Regulierungsbehörden und eine weitere Öffentlichkeit unterwegs waren. Sogar ohne Internet waren in jedem Dorfkiosk die Informationen über die Entwicklung der problematischen Produkte und die ersten Risse im US-Immobilienmarkt greifbar. Wer relevante Information in eine erheblich unangemessene Weltsicht einsortierte, gelangte zu einer verzerrten Einschätzung von Risiken und Handlungsoptionen.

Navigieren im Komplexen

Die Lesegruppe der Digitalen Allmend hat sich am 15. April in gebührender Distanz zum brennenden Böögg mit dem Thema Komplexität befasst. Der Text „Navigating Complexity: From cultural critique to cultural intelligence” (1) stammt aus dem Umfeld der Medienwissenschaften. Wir laden die geneigten Leserinnen dieses Beitrags ein, nicht zu verzagen: Nur ausnahmsweise navigieren wir in so dünner theoretischer Luft. Nächstes Mal geht es mit handfesten Medien weiter…

Ien Ang kritisiert einen allzu vereinfachenden Ansatz des Positivismus, mit dem sie in den 70er Jahren konfrontiert war. Der gehe davon aus, die komplexe Wirklichkeit durch ein Feststellen von Tatsachen auf einfache Gesetze zurückgeführt werden könne. Die Komplexitätstheorie habe einen grossen Fortschritt gebracht. Die entsprechenden Methoden betonen Nichtlinearität, Unvorhersagbarkeit und Selbstorganisation. Ang orientiert sich weniger an einem mathematischen als an einem ökologischen Komplexitätsbegriff, der auch die Chaostheorie umfasst – mit dem bekannten Schmetterlingseffekt.

Die Autorin möchte die Komplexitätstheorie als Leitmethodik für die Gesellschaftswissenschaften etablieren. Sie verweist auf Ansätze im Bereich der Studien von internationalen Beziehungen, wo etwa James Rosenau begonnen hat, die Betrachtung der Staaten im Sinne von innen/aussen abzulösen zugunsten eines Konzepts endloser interaktiver Polaritäten. Hier wurde in der Diskussion deutliche Kritik laut, dass die Autorin den Neuigkeitswert der Globalisierung überzeichne und ohne historische Tiefensicht agiere. Es gab eben nicht nur den Kalten Krieg und dann die Globalisierung. Die zwanziger Jahre waren voller globaler Netze und komplexer zwischenstaatlicher Verhältnisse.

Überzeugender wirkt ihre Betonung des medienwissenschaftlichen Ansatzes von Williams, der 1974 das Fernsehen als Technologie und als kulturelle Form analysierte.

Ang wendet sich gegen einen Kult der Komplexität, wie ihn postmoderne Theorien vorangetrieben haben. Die dogmatische Ablehnung von essentieller Verdichtung gehe mit einer rein beobachtenden Haltung einher, die einen handelnden Zugriff verunmögliche. In der Tat. Mit der Verabsolutierung der Feststellung, dass alles bedeutungstragende Menschenwerk einer ständigen Resemantisierung ausgesetzt ist, lässt sich nichts planen und nichts aufbauen. Mit Russell Jacoby kritisiert die Ang, der Komplexitätsdiskurs diene dazu, die Distanz des akademischen Wissens vom öffentlichen Leben zu rechtfertigen.

Die Autorin klebrige Probleme – messy problems – in direktem Zusammenhang mit Komplexität. Sie wendet sich dann der Frage nach übergrosser Komplexität zu, welche Gesellschaften in den Zusammenbruch treiben können. Sie erinnert an Rom oder die Mayas. Das ist irgendwie schon plausibel. In der Diskussion wurde eine kleine Kritik laut, dass der Begriff der Ausdifferenzierung etwas präziser wäre, als die sehr abstrakte Komplexität. Problematisch erscheint vor allem dieser hohe Grad an Abstraktion. Der Zusammenbruch einer hoch arbeitsteiligen und kulturell vielschichtigen Gesellschaft dürft kaum auf einen eindimensionalen Parameter reduzierbar sein.

Als Dritten Weg zwischen naivem Positivismus und distanzierter Postmoderne schlägt Ang vor, mit nicht simplistischen Vereinfachungen zu arbeiten und kulturelles Wissen (cultural intelligence) zu entwickeln. Das soll die Handlungsfähigkeit gegenüber klebrigen Problemen erlauben. Die Allgemeinheit der ganzen Argumentation traf in der Diskussion auf Skepsis.

Die Autorin versucht ein nach x Versuchen im 20. Jh ein weiteres Mal, naturwissenschaftliche Konzepte auf Gesellschaftswissenschaften zu transferieren. Gegenüber komplexen Ökosystemen weisen eben Gesellschaften jedoch noch eine weitere Dimension auf. Hier erscheinen Formen des Handelns, die an selbstreflexive Formen von Wissen und Kultur gebunden sind. Wer Froschteiche und Finanzkrisen mit dem gleichen Werkzeugkasten analysiert, droht im Allgemeinen stecken zu bleiben.

1) Continuum: Journal of Media and Cultural Studies – Special Issue: Navigating Complexities. Vol. 25, No. 6 (2011)

Kühe, Untertitel und Urheberrecht

Über Claude Almansis kurze Analyse von Medien im Internet:

Ich habe den schönen Titel von Claude Almansi geklaut. Die hübsche Alliteration der englischen Version [1] ging dabei leider verloren.

Jedesmal wenn ich ein Link auf Video oder Sound erhalte, stelle ich es erst mal zurück. Und das nicht nur wegen dem Kopfhörergebot im Mehrpersonenbüro. Das Ärgerliche an diesen Medien ist, dass sie unkomprimierbare Lebenszeit fressen. Zwar haben Mitglieder von Filmfestivaljurys gelernt, Filme auch kompetent zu beurteilen, die sie in doppelter Geschwindigkeit visionieren. Aber das Medium sträubt sich gegen das Auffinden einzelner Stellen, gegen das Zitieren kurzer Ausschnitte und kommuniziert Lerninhalte deutlich schlechter als Text + Bild. Es kennt keine Inhaltsverzeichnisse und kein Sachregister, ist nicht volltext-indexierbar und wird darum selten gefunden, wenn man nach Sachinformation sucht. Die neue Vorschaubildchenfunktion hat zwar einen deutlichen Fortschritt gebracht, löst aber die angeführten Probleme für Video kaum und für Sound überhaupt nicht.

Diese Tatsache dient Claude Almansi als Ausgangspunkt ihres amüsanten Plädoyers für ungehinderte Untertitelung. Untertitel verschaffen Bewegtbild + Ton viele Vorteile, die sonst nur Text + Bild vorbehalten sind. Der Grundsatz, dass für Menschen ohne Behinderung gut ist, was für Menschen mit Behinderung gut ist, bewährt sich hier einmal mehr.
Ausserdem geht multilinguale Untertitelung weit über einfache Barrierenfreiheit hinaus und bewältigt eine multikulturelle Kommunikationsaufgabe, die von Wikipedia heute erst langsam in Angriff genommen wird.

Wie bei allen Internet-Themen stellen sich dem löblichen Unterfangen technische und juristische Hindernisse in den Weg. Die technischen Ansätze werden von Claude ausführlich besprochen. Das juristische Problem scheitert an der WIPO, die seit Jahren den Auftrag hat, das Urheberrecht zugunsten von Menschen mit Behinderungen einzuschränken und diesem Auftrag bis heute nicht nachgekommen ist [2]. Warum das so ist, entnimmt man einer kleinen Anekdote von Claude:

Ich nahm an einem WIPO-Treffen teil zu diesem Abkommen für Blinde und Lesebehinderte. Eine französische Dame vertrat die europäischen Presseverleger und wehrte sich sehr heftig dagegen. Deshalb fragte ich sie in einer Kaffeepause, warum sie so stark gegen Blinde eingestellt sei – war sie vielleicht einmal von einer blinden Person verletzt worden? Sie sagte nein, aber sie sei aus Prinzip gegen JEGLICHE Urheberrechtsschranken, „weil Google News [geistiges Eigentum] klaut …“

Was das Ganze nun mit dem Verdauungstrakt der Kühe zu tun hat, findet man im Originalbeitrag von Claude Almansi.

Geistlose Signale

Sind Medien einfach technische Informationskanäle? Lässt sich eine Medientheorie um informationstechnische Konzepte wie Signal/Rauschen, Turingmaschine oder Entropie herum bauen? Tendenziell mit Ja dürfte Friedrich Kittler diese Fragen beantworten. Mit ihm hat sich die Lesegruppe der Digitalen Allmend beschäftigt, anhand eines Textes von Dieter Mersch (1).

Wer die Bühne akademischer Publikationen mit einem Titel “Austreibung des Geistes aus den Geisteswissenschaften” betrat, schlug 1980 bestimmt einen Pflock ein. Kittler durfte sich über die Folgen nicht wundern: Er wird als Vertreter eines prononcierten Medienmaterialismus wahrgenommen.

Nicht Botschaften zählen – sondern Schaltungen. Mit dieser Aussage treibt Kittler seine Position über diejenige von McLuhan hinaus. Bei letzterem war das Medium (auch) die Botschaft. Bei Kittler verschwindet die Botschaft nun überhaupt aus dem Blickfeld. Vom Prozessor bis zum gesellschaftlichen Kommunikationsprozess – alles nur ein Wimmeln von Signalen, ein Klappern von Bits.

Dieser zugespitzte Medienmaterialismus mag vielleicht etwas exotisch erscheinen. In der Lesegruppe schwappt aber doch die Diskussion hoch, ob nicht auch wissenschaftlichen Megaprojekt-Ideen wie Blue Brain oder FuturICT eine vergleichbare monolithische Sicht zugrunde liegt, die nicht zwischen den Layern technische Informationsverarbeitung und kulturelle Bedeutungsproduktion unterscheidet.

Die Unterscheidung dieser Ebenen ist auch dann relevant, wenn immerwährende Geister oder Götter im Erklärungsmodell nicht vorkommen. Dass Kittler als Literaturwissenschafter einer aufgeblähten Stilisierung eines menschlichen (oder göttlichen) Geistes temperamentvoll entgegentritt, ist durchaus produktiv. Dieses aus dem 19. Jh stammende Konzept herrschte aber um 1980 herum keineswegs mehr erdrückend vor. Kittlers Stossrichtung muss wohl auch tiefer angesetzt werden, als rechte technokratische Kulturkritik an den Werten der Bundesrepublik und des Westens überhaupt.

Der Begriff „rechts“ ist hier einfach als Verortung zu lesen. Einmal im Sinn der Philosophiegeschichte, wo Kittler in die Einflusssphäre von Heideggers platziert werden kann. Auch durch das Faszinosum militärischer Gewalt, die sich in seinem Werk unübersehbar artikuliert.

Die Diskussion einiger Grundzüge – bei Mersch und in der Lesegruppe – soll nicht den Eindrück aufkommen lassen, Kittler habe sich vor allem in Form abstrakter Allgemeinplätze geäussert. Er hat vielmehr weitläufig Studien vorgelegt, die sich von Pink Floyd über Aufschreibsysteme um 1800 und 1900, Kino und Grammophon bis zu Prozessoren und grafischen Bedienoberflächen erstrecken.

Viel ausführlicher als Mersch und trotzdem gut lesbar behandelt Geoffrey Winthrop-Young den streitbaren Autor in „Friedrich Kittler zur Einführung“.

1) Dieter Mersch. Medientheorien zur Einführung. Junius. Hamburg 2006.

6.12.2011 – Ein Abend mit Cory Doctorow – The Politics of Copyright and the New Cultural Economy

Der Kanadische Science Fiction Autor und politische Aktivist Cory Doctorow wird am 6. Dezember im Walcheturm über die Politik des Urheberrechts und seine
Erfahrungen mit der freien Kultur sprechen.

Cory Doctorow ist einer der profiliertesten Kenner beider Materien, er arbeitete unter anderem als Europäischer Repräsentant der Electronic Frontier Foundation (EFF) und hat über 7 Romane publiziert, zuletzt “Makers” und “For the Win”. Die neueste Veröffentlichung ist die Aufsatzsammlung “Context: Selected Essays on Productivity, Creativity,Parenting, and Politics in the 21st Century”. Auf Dt.
erschienen ist u.a. “Little Brother”.

Cory Doctorow ist auch ein brillanter Redner. Es ist also nicht nur für einen interessanten sondern auch unterhaltsamen Abend gesorgt.

Peter Hogenkamp, Leiter der NZZ Digital, wird als Respondent die Diskussion eröffnen. Gefolgt von Annette Schindler, Expertin für Medienkunst, Gegenwartskunst, Design, Kunst und Recht.

Die Veranstaltung wird von der Digitalen Allmend, in Zusammenarbeit mit der Vertiefung Mediale Künste (ZHdK), Dock18, Walcheturm und Wikimedia Schweiz organisiert. KulturTV, Roger Levywird die Veranstaltung mit seiner Kamera begleiten.

Ein Abend mit Cory Doctorow.
The Politics of Copyright and the New Cultural Economy
6.12.2011, Kunstraum Walcheturm, 20:00

Die Veranstaltungssprache ist Englisch.

Der Eintritt ist frei. Keine Voranmeldung. First come, first served.


Download PDF-Flyer